- Що штучний розум вміє сьогодні?
- Як же навчити робота етики? Як вбудувати в нього «запобіжник»?
- Що ж чекає нас в майбутньому з урахуванням усього сказаного?
Наша взаимовыгодная связь https://banwar.org/
Що об'єднує винахідника-мільярдера Елона Маска, недавню презентацію нового сервісу Now on Tap в рамках Google I / O і трохи менше недавню прем'єру фільму «З машини»? Об'єднує їх тема штучного інтелекту. Або, якщо бути більш точним, тема пошуку рамок, в яких штучний розум принесе людству користь і не принесе шкоди.
Що штучний розум вміє сьогодні?
Для тих, хто не стежить за цією тематикою, нагадаю кілька фактів, які демонструють прогрес машин в оперуванні раніше чисто «людськими» інструментами і поняттями.
Google тепер уміє розпізнавати мову з точністю 92% проти 77% двома роками раніше , А також створила штучний інтелект (ШІ), який сам навчився грати в класичні відеоігри . Microsoft навчила робота розпізнавати зображення (Точніше, дізнаватися об'єкти на зображеннях), помиляючись всього в 4,94% випадків, - у звичайної людини відсоток помилок вище.
За статистикою Google, їх роботизовані автомобілі, накатав вже 1,8 млн миль по дорогах загального користування в Каліфорнії, брали участь в аваріях всього 13 разів за шість років, причому в 8 випадках причиною аварії був автомобіль ззаду робота.
Все це безсумнівно вказує, що якщо створення штучного розуму у всій повноті цього поняття і неможливо, то щось вкрай близький до нього цілком може з'явитися в найближчі десятиліття.
При цьому не варто розраховувати, що ефекти від «розумнішання» машин залишаться цілком у віртуальному світі. Почнемо з екстремального прикладу. Безпілотні літаки, або дрони, самостійно літають вже сьогодні, але команду стріляти на поразку їм віддають люди - так США вважають за краще воювати з терористами в Пакистані та інших небезпечних регіонах.
Можливості повністю автоматизувати цю діяльність активно обговорюються . Фільмів серії «Термінатор» в минулому році виповнилося 30 років, так що уявити наслідки цього в середньотривалі майбутньому досить легко.
Чи здатні програмісти в принципі створити надійний «запобіжник», який стане на заваді ІІ у виконанні неетичних і аморальних дій?
Втім, я не хочу захоплюватися апокаліптичними прогнозами, а поміркую над більш практичними питаннями, серед яких більше інших цікавить мене ось яке: а чи здатні програмісти в принципі створити надійний «запобіжник», який стане на заваді штучного інтелекту у виконанні неетичних і аморальних дій?
Такі дії можуть бути продиктовані самими різними причинами, але найбільш очевидним варіантом є конфлікт за ресурси між людством і його породженням. Втім, можливі й інші сценарії.
Варто зазначити, що мова не обов'язково йде про свідоме заподіяння шкоди. Класичний приклад наводить Станіслав Лем в прекрасній книзі «Сума Технології» :
«Припустимо, що прогнозує блок« чорного ящика »[ІІ] помічає небезпеки, що загрожує станом гомеостатического рівноваги ... Небезпека виникає через те, що приріст населення перевищує наявну в даний момент у цивілізації можливість задовольняти людські потреби ...
Нехай одночасно по одному з «входів» в «чорний ящик» надійшла інформація про відкриття якогось хімічної сполуки, яка цілком нешкідливо для здоров'я і викликає ... падіння можливості овуляції ...
Тоді «чорний ящик» приймає рішення ввести необхідні мікроскопічні дози цього з'єднання в питну воду у всіх водопровідних мережах держави ... «Чорний ящик» стане перед дилемою: або інформувати суспільство - і наштовхнутися на його протидію, або не інформувати - і тим самим зберегти (для загального блага) стан існуючої рівноваги ».
Як бачимо, цілком невинно сформульоване завдання оптимізації призводить до простого, елегантного і ефективному, але абсолютно неетичної рішенням щодо обмеження народжуваності людей без їхнього відома.
І, мені здається, саме сфера управління інфраструктурою в реальному часі буде віддана на відкуп найбільш потужному штучному інтелекту, оскільки поєднання витрат і вигоди в подібних областях куди вище, ніж при точної імітації роботом секретарки або кухаря.
Як же навчити робота етики? Як вбудувати в нього «запобіжник»?
Будь-який хлопчисько, що виріс в ХХ столітті, відразу згадає три закони робототехніки Айзека Азімова , Але, на жаль, їх буде рішуче недостатньо. Як показує приклад вище, необов'язково заподіювати комусь шкоду, щоб сильно скоротити людську популяцію - для її ж блага, зауважте.
Є й інші неприємні для людини варіанти. Можна знайти лазівку в самих правилах, що описують поняття «шкода», можна «делегувати» заподіяння шкоди, а можна атакувати саме існування правил.
Сама установка на «дружність людям» може бути переосмислена досить розумним ІІ. Ось як описує проблему Роман Ямпольський, експерт зі штучного інтелекту в одному з інтерв'ю :
«По-справжньому розумна система буде трактувати установку« бути дружньою »так само, як розумні люди надходять з обмеженнями, вкладеними в голову суспільством. Вони сприймають їх як упередження, необ'єктивність і вчаться усувати їх ефект в разі необхідності ... Чому б надрозумні машині не пройти ту ж «ментальну очищення» і не усвідомити свою слабкість до людей як щось зовсім ірраціональне? ».
Технічне подолання запобіжника теж цілком реалістично. По суті необхідні запобіжники, що обмежують діяльність ІІ, нагадують «пісочниці», часто використовувані для безпеки в сучасних середовищах на зразок Java або Flash.
Добре відомо, що ідеальних «пісочниць» не існує і втечу звідти цілком можливий, як це, наприклад, продемонстровано недавно гучної вразливістю Venom . ІІ, що поєднує гнучкість і обчислювальну потужність, є дуже хорошим кандидатом на роль тестувальника, що шукає уразливості в реалізації власної «пісочниці».
Ось як описує проблему Андрій Лаврентьєв, начальник відділу розвитку технологій «Лабораторії Касперського»:
«Повноцінний ІІ буде розуміти сенс того, що він бачить через свої численні датчики -« органи чуття ». І правила обмежень на дії повинні бути задані в термінах цього сенсу, тобто тих образів, які сформуються в «мозку» ІІ.
Зараз машини вже краще людини розпізнають образи, але ще набагато гірше людини маніпулюють цими образами і їх зв'язками - вони не мають «здоровим глуздом»
Зараз машини вже краще людини розпізнають образи, але ще набагато гірше людини маніпулюють цими образами і їх зв'язками - вони не мають «здоровим глуздом». Коли це зміниться і останню перешкоду в маніпулюванні сприймаються машинами образами і варіантами дій впаде, можливості побудувати «запобіжник» вже не буде.
Такий суперінтелект неймовірно швидше людини зможе проаналізувати різні залежності між сприймаються даними і знайти рішення для створення потрібного впливу в обхід всіх обмежених правил, які зуміє придумати людина ».
Вагомим обмеженням можливостей ІІ зробити щось небезпечне була б ізоляція його від реального світу, тобто відсутність прямого впливу на фізичні об'єкти. Однак в такому форматі, швидше за все, і користь від ІІ буде невелика. Але найцікавіше - що навіть це не є вирішенням проблеми, оскільки зброєю робота можуть стати ... люди.
Цьому аспекту присвячений недавно вийшов фантастичний трилер «З машини» ( Ex Machina ). Як і годиться високобюджетних творінню Голлівуду, цей фільм містить ряд натяжок і драматизує проблему з усіх сил. Але зерно проблеми в ньому позначено вірно.
По-перше, навіть примітивні роботи здатні впливати на емоції людей. Древній і вельми простий у виконанні чат-бот «ЕЛІЗА» (з ним можна поговорити тут ) примудрявся вивуджувати з живих співрозмовників важливу інформацію особистого характеру , Просто демонструючи емпатію і задаючи ввічливі питання.
По-друге, ми все більше покладаємося на роботизовану фільтрацію і категоризацію інформації. А управління подібними потоками, як довів недавній спірне експеримент Facebook , Об'єктивно впливає на емоційну сферу людей і може впливати на прийняття ними рішень.
Навіть якщо припустити, що в прикладі вище ІІ керує країною або містом не безпосередньо, а даючи поради людям, можливість порекомендувати їм неетичну в своїх наслідках рішення і привести його в життя залишається. Наслідки можуть бути очевидні ІІ, але приховані від людей.
У приватному житті подібний вплив може відбутися швидше і бути ще більшим. на нещодавній конференції Google I / O була продемонстрована система Now on Tap , Яка стежить за вмістом всіх додатків на смартфоні користувача, витягує з них контекстну інформацію і дозволяє використовувати ці дані в пошукових запитах.
Наприклад, якщо ви читаєте в додатку Wikipedia статтю про музиканта і запитайте у Google, коли у нього концерти, робот буде знати, про кого йде мова. Послужливий робот вже сьогодні нагадує про те, що пора б їхати в аеропорт, тому що через пару годин в дорогу, і демонструє хороші задатки тямущого персонального помічника.
Звичайно, поки за цими підказками варто не справжній ІІ загального призначення, а лише налаштована на певний спектр завдань експертна система, її поведінка повністю запрограмовано людьми і цілком передбачувано.
Однак еволюція комп'ютерів може привести до того, що тут буде працювати робот розумніші, і вельми важливо, щоб він маніпулював видачею інформації суто на благо користувача, без власної порядку денного.
Саме ця проблема турбує багатьох сучасних мислителів-інноваторів - від Стівена Хокінга до Елона Маска. Останнього можна дорікнути в тому, що він боїться прогресу або перешкоджає йому, - навпаки, творець Tesla і SpaceX всією душею спрямований в майбутнє. Однак розвиток ІІ він вважає однією з найбільш неоднозначних тенденцій з потенційно катастрофічними наслідками і виділив в цьому році $ 10 млн на дослідження в сфері безпеки ІІ .
Що ж чекає нас в майбутньому з урахуванням усього сказаного?
Як не дивно, один із сценаріїв, який обережні експерти вважають оптимістичним, - неможливість створити повноцінний штучний розум. Якщо в цій сфері не відбудеться прориву (а поки його немає), роботи будуть удосконалювати конкретні набори навичок.
Поки вони вчаться простим речам на зразок керування автомобілем або спілкування природною мовою, і замінити людини в повністю автономному прийнятті рішень з широкого спектру тем все ж не зможуть. У найближчій перспективі ІІ створить безліч точкових проблем на кшталт знищення професії таксиста, але не буде глобальною загрозою людству.
Андрій Лаврентьєв вважає, що відсутність конфлікту «ІІ - людина» можливо, тільки якщо вони не будуть боротися за одні й ті ж ресурси.
«Людина має тіло, і йому цікаво створити комфортні умови для тіла (ну і для розуму, звичайно). C ІІ ситуація з точністю до навпаки - він спочатку живе в цифровому світі.
Його основна мета, мотивація, закладена при створенні, - максимально повно переробити інформацію, що надходить із зовнішніх каналів (його «органів почуттів»), осмислити її, виявити закони зміни.
Звичайно, у ІІ теж є якась матеріальна основа, але його прив'язка до конкретного носія буде незрівнянно менше, ніж у людини. У ІІ не буде такою нагальною, як у людини, завдання берегти своє тіло - він буде «скрізь». Природним розширенням зони охоплення інформації, доступної для ІІ, буде вихід у космос і пізнання законів Всесвіту, з тим щоб поширитися далі, за межі Землі.
Але навіть в цьому сценарії є дуже небезпечні для людини моменти: якщо такий штучний суперінтелект побачить у збудованій ним цифрової моделі недосконалість Всесвіту або людини, він спробує його усунути, щоб привести в гармонію. Або ж для умовного «виходу в космос» йому будуть потрібні ресурси, які потрібні і людині. Тоді конфлікт «ІІ - людина» знову актуальний ».
Що штучний розум вміє сьогодні?Як же навчити робота етики?
Як вбудувати в нього «запобіжник»?
Що ж чекає нас в майбутньому з урахуванням усього сказаного?
Що об'єднує винахідника-мільярдера Елона Маска, недавню презентацію нового сервісу Now on Tap в рамках Google I / O і трохи менше недавню прем'єру фільму «З машини»?
Що штучний розум вміє сьогодні?
Чи здатні програмісти в принципі створити надійний «запобіжник», який стане на заваді ІІ у виконанні неетичних і аморальних дій?
Як же навчити робота етики?
Як вбудувати в нього «запобіжник»?