Разработка сайта для Вашего бизнеса. Веб дизайн. Дизайн логотипа, фирменного стиля, рекламная фотография . Комплексный рекламный креатив.

Ralex. We do the work.
На рынке с 1999го года. Средняя ценовая категория. Ориентация на эффективность решений.
Ознакомтесь с нашим портфолио
Узнайте больше о услугах
Свяжитесь с нами:
E-mail: [email protected]
Tel: (044) 587 - 84 - 78
Custom web design & дизайн и разработка сайта "под ключ"
Креативный, эффективный дизайн. Система управления сайтом (СУС).
Custom flexible разработка систем электронной коммерции
Система e-commerce разрабатывается под индивидуальные потребности. Гибкая функциональность.
Search Engine Optimzation & оптимизация под поисковые системы (SEO)
Постоянная оптимизация и мониторинг сайта в поисковых системах. Достигаем результата быстро и эффективно
Custom logo design & дизайн логотипа и фирменного стиля
Многолетний опыт. Огромное портфолио. Уникальное предложение и цена.
профессиональная рекламная фотография
креативно, смело, качественно
Custom logo design & рекламный креатив. дизайн рекламы
Многолетний опыт. Огромное портфолио. Уникальное предложение и цена.

Чи варто побоюватися систем штучного інтелекту?

  1. Що штучний розум вміє сьогодні?
  2. Як же навчити робота етики? Як вбудувати в нього «запобіжник»?
  3. Що ж чекає нас в майбутньому з урахуванням усього сказаного?

Наша взаимовыгодная связь https://banwar.org/

Що об'єднує винахідника-мільярдера Елона Маска, недавню презентацію нового сервісу Now on Tap в рамках Google I / O і трохи менше недавню прем'єру фільму «З машини»? Об'єднує їх тема штучного інтелекту. Або, якщо бути більш точним, тема пошуку рамок, в яких штучний розум принесе людству користь і не принесе шкоди.

Або, якщо бути більш точним, тема пошуку рамок, в яких штучний розум принесе людству користь і не принесе шкоди

Що штучний розум вміє сьогодні?

Для тих, хто не стежить за цією тематикою, нагадаю кілька фактів, які демонструють прогрес машин в оперуванні раніше чисто «людськими» інструментами і поняттями.

Google тепер уміє розпізнавати мову з точністю 92% проти 77% двома роками раніше , А також створила штучний інтелект (ШІ), який сам навчився грати в класичні відеоігри . Microsoft навчила робота розпізнавати зображення (Точніше, дізнаватися об'єкти на зображеннях), помиляючись всього в 4,94% випадків, - у звичайної людини відсоток помилок вище.

За статистикою Google, їх роботизовані автомобілі, накатав вже 1,8 млн миль по дорогах загального користування в Каліфорнії, брали участь в аваріях всього 13 разів за шість років, причому в 8 випадках причиною аварії був автомобіль ззаду робота.

Все це безсумнівно вказує, що якщо створення штучного розуму у всій повноті цього поняття і неможливо, то щось вкрай близький до нього цілком може з'явитися в найближчі десятиліття.

При цьому не варто розраховувати, що ефекти від «розумнішання» машин залишаться цілком у віртуальному світі. Почнемо з екстремального прикладу. Безпілотні літаки, або дрони, самостійно літають вже сьогодні, але команду стріляти на поразку їм віддають люди - так США вважають за краще воювати з терористами в Пакистані та інших небезпечних регіонах.

Можливості повністю автоматизувати цю діяльність активно обговорюються . Фільмів серії «Термінатор» в минулому році виповнилося 30 років, так що уявити наслідки цього в середньотривалі майбутньому досить легко.

Чи здатні програмісти в принципі створити надійний «запобіжник», який стане на заваді ІІ у виконанні неетичних і аморальних дій?

Втім, я не хочу захоплюватися апокаліптичними прогнозами, а поміркую над більш практичними питаннями, серед яких більше інших цікавить мене ось яке: а чи здатні програмісти в принципі створити надійний «запобіжник», який стане на заваді штучного інтелекту у виконанні неетичних і аморальних дій?

Такі дії можуть бути продиктовані самими різними причинами, але найбільш очевидним варіантом є конфлікт за ресурси між людством і його породженням. Втім, можливі й інші сценарії.

Варто зазначити, що мова не обов'язково йде про свідоме заподіяння шкоди. Класичний приклад наводить Станіслав Лем в прекрасній книзі «Сума Технології» :

«Припустимо, що прогнозує блок« чорного ящика »[ІІ] помічає небезпеки, що загрожує станом гомеостатического рівноваги ... Небезпека виникає через те, що приріст населення перевищує наявну в даний момент у цивілізації можливість задовольняти людські потреби ...

Нехай одночасно по одному з «входів» в «чорний ящик» надійшла інформація про відкриття якогось хімічної сполуки, яка цілком нешкідливо для здоров'я і викликає ... падіння можливості овуляції ...

Тоді «чорний ящик» приймає рішення ввести необхідні мікроскопічні дози цього з'єднання в питну воду у всіх водопровідних мережах держави ... «Чорний ящик» стане перед дилемою: або інформувати суспільство - і наштовхнутися на його протидію, або не інформувати - і тим самим зберегти (для загального блага) стан існуючої рівноваги ».

Як бачимо, цілком невинно сформульоване завдання оптимізації призводить до простого, елегантного і ефективному, але абсолютно неетичної рішенням щодо обмеження народжуваності людей без їхнього відома.

І, мені здається, саме сфера управління інфраструктурою в реальному часі буде віддана на відкуп найбільш потужному штучному інтелекту, оскільки поєднання витрат і вигоди в подібних областях куди вище, ніж при точної імітації роботом секретарки або кухаря.

Як же навчити робота етики? Як вбудувати в нього «запобіжник»?

Будь-який хлопчисько, що виріс в ХХ столітті, відразу згадає три закони робототехніки Айзека Азімова , Але, на жаль, їх буде рішуче недостатньо. Як показує приклад вище, необов'язково заподіювати комусь шкоду, щоб сильно скоротити людську популяцію - для її ж блага, зауважте.

Є й інші неприємні для людини варіанти. Можна знайти лазівку в самих правилах, що описують поняття «шкода», можна «делегувати» заподіяння шкоди, а можна атакувати саме існування правил.

Сама установка на «дружність людям» може бути переосмислена досить розумним ІІ. Ось як описує проблему Роман Ямпольський, експерт зі штучного інтелекту в одному з інтерв'ю :

«По-справжньому розумна система буде трактувати установку« бути дружньою »так само, як розумні люди надходять з обмеженнями, вкладеними в голову суспільством. Вони сприймають їх як упередження, необ'єктивність і вчаться усувати їх ефект в разі необхідності ... Чому б надрозумні машині не пройти ту ж «ментальну очищення» і не усвідомити свою слабкість до людей як щось зовсім ірраціональне? ».

Технічне подолання запобіжника теж цілком реалістично. По суті необхідні запобіжники, що обмежують діяльність ІІ, нагадують «пісочниці», часто використовувані для безпеки в сучасних середовищах на зразок Java або Flash.

Добре відомо, що ідеальних «пісочниць» не існує і втечу звідти цілком можливий, як це, наприклад, продемонстровано недавно гучної вразливістю Venom . ІІ, що поєднує гнучкість і обчислювальну потужність, є дуже хорошим кандидатом на роль тестувальника, що шукає уразливості в реалізації власної «пісочниці».

Ось як описує проблему Андрій Лаврентьєв, начальник відділу розвитку технологій «Лабораторії Касперського»:

«Повноцінний ІІ буде розуміти сенс того, що він бачить через свої численні датчики -« органи чуття ». І правила обмежень на дії повинні бути задані в термінах цього сенсу, тобто тих образів, які сформуються в «мозку» ІІ.

Зараз машини вже краще людини розпізнають образи, але ще набагато гірше людини маніпулюють цими образами і їх зв'язками - вони не мають «здоровим глуздом»

Зараз машини вже краще людини розпізнають образи, але ще набагато гірше людини маніпулюють цими образами і їх зв'язками - вони не мають «здоровим глуздом». Коли це зміниться і останню перешкоду в маніпулюванні сприймаються машинами образами і варіантами дій впаде, можливості побудувати «запобіжник» вже не буде.

Такий суперінтелект неймовірно швидше людини зможе проаналізувати різні залежності між сприймаються даними і знайти рішення для створення потрібного впливу в обхід всіх обмежених правил, які зуміє придумати людина ».

Вагомим обмеженням можливостей ІІ зробити щось небезпечне була б ізоляція його від реального світу, тобто відсутність прямого впливу на фізичні об'єкти. Однак в такому форматі, швидше за все, і користь від ІІ буде невелика. Але найцікавіше - що навіть це не є вирішенням проблеми, оскільки зброєю робота можуть стати ... люди.

Цьому аспекту присвячений недавно вийшов фантастичний трилер «З машини» ( Ex Machina ). Як і годиться високобюджетних творінню Голлівуду, цей фільм містить ряд натяжок і драматизує проблему з усіх сил. Але зерно проблеми в ньому позначено вірно.

По-перше, навіть примітивні роботи здатні впливати на емоції людей. Древній і вельми простий у виконанні чат-бот «ЕЛІЗА» (з ним можна поговорити тут ) примудрявся вивуджувати з живих співрозмовників важливу інформацію особистого характеру , Просто демонструючи емпатію і задаючи ввічливі питання.

По-друге, ми все більше покладаємося на роботизовану фільтрацію і категоризацію інформації. А управління подібними потоками, як довів недавній спірне експеримент Facebook , Об'єктивно впливає на емоційну сферу людей і може впливати на прийняття ними рішень.

Навіть якщо припустити, що в прикладі вище ІІ керує країною або містом не безпосередньо, а даючи поради людям, можливість порекомендувати їм неетичну в своїх наслідках рішення і привести його в життя залишається. Наслідки можуть бути очевидні ІІ, але приховані від людей.

У приватному житті подібний вплив може відбутися швидше і бути ще більшим. на нещодавній конференції Google I / O була продемонстрована система Now on Tap , Яка стежить за вмістом всіх додатків на смартфоні користувача, витягує з них контекстну інформацію і дозволяє використовувати ці дані в пошукових запитах.

Наприклад, якщо ви читаєте в додатку Wikipedia статтю про музиканта і запитайте у Google, коли у нього концерти, робот буде знати, про кого йде мова. Послужливий робот вже сьогодні нагадує про те, що пора б їхати в аеропорт, тому що через пару годин в дорогу, і демонструє хороші задатки тямущого персонального помічника.

Звичайно, поки за цими підказками варто не справжній ІІ загального призначення, а лише налаштована на певний спектр завдань експертна система, її поведінка повністю запрограмовано людьми і цілком передбачувано.

Однак еволюція комп'ютерів може привести до того, що тут буде працювати робот розумніші, і вельми важливо, щоб він маніпулював видачею інформації суто на благо користувача, без власної порядку денного.

Саме ця проблема турбує багатьох сучасних мислителів-інноваторів - від Стівена Хокінга до Елона Маска. Останнього можна дорікнути в тому, що він боїться прогресу або перешкоджає йому, - навпаки, творець Tesla і SpaceX всією душею спрямований в майбутнє. Однак розвиток ІІ він вважає однією з найбільш неоднозначних тенденцій з потенційно катастрофічними наслідками і виділив в цьому році $ 10 млн на дослідження в сфері безпеки ІІ .

Що ж чекає нас в майбутньому з урахуванням усього сказаного?

Як не дивно, один із сценаріїв, який обережні експерти вважають оптимістичним, - неможливість створити повноцінний штучний розум. Якщо в цій сфері не відбудеться прориву (а поки його немає), роботи будуть удосконалювати конкретні набори навичок.

Поки вони вчаться простим речам на зразок керування автомобілем або спілкування природною мовою, і замінити людини в повністю автономному прийнятті рішень з широкого спектру тем все ж не зможуть. У найближчій перспективі ІІ створить безліч точкових проблем на кшталт знищення професії таксиста, але не буде глобальною загрозою людству.

Андрій Лаврентьєв вважає, що відсутність конфлікту «ІІ - людина» можливо, тільки якщо вони не будуть боротися за одні й ті ж ресурси.

«Людина має тіло, і йому цікаво створити комфортні умови для тіла (ну і для розуму, звичайно). C ІІ ситуація з точністю до навпаки - він спочатку живе в цифровому світі.

Його основна мета, мотивація, закладена при створенні, - максимально повно переробити інформацію, що надходить із зовнішніх каналів (його «органів почуттів»), осмислити її, виявити закони зміни.

Звичайно, у ІІ теж є якась матеріальна основа, але його прив'язка до конкретного носія буде незрівнянно менше, ніж у людини. У ІІ не буде такою нагальною, як у людини, завдання берегти своє тіло - він буде «скрізь». Природним розширенням зони охоплення інформації, доступної для ІІ, буде вихід у космос і пізнання законів Всесвіту, з тим щоб поширитися далі, за межі Землі.

Але навіть в цьому сценарії є дуже небезпечні для людини моменти: якщо такий штучний суперінтелект побачить у збудованій ним цифрової моделі недосконалість Всесвіту або людини, він спробує його усунути, щоб привести в гармонію. Або ж для умовного «виходу в космос» йому будуть потрібні ресурси, які потрібні і людині. Тоді конфлікт «ІІ - людина» знову актуальний ».

Що штучний розум вміє сьогодні?
Як же навчити робота етики?
Як вбудувати в нього «запобіжник»?
Що ж чекає нас в майбутньому з урахуванням усього сказаного?
Що об'єднує винахідника-мільярдера Елона Маска, недавню презентацію нового сервісу Now on Tap в рамках Google I / O і трохи менше недавню прем'єру фільму «З машини»?
Що штучний розум вміє сьогодні?
Чи здатні програмісти в принципі створити надійний «запобіжник», який стане на заваді ІІ у виконанні неетичних і аморальних дій?
Як же навчити робота етики?
Як вбудувати в нього «запобіжник»?
Категории
  • Биология
  • Математика
  • Краеведению
  • Лечебная
  • Наука
  • Физике
  • Природоведение
  • Информатика
  • Новости

  • Новости
    https://banwar.org/
    Наша взаимовыгодная связь https://banwar.org/. Запустив новый сайт, "Пари Матч" обещает своим клиентам незабываемый опыт и возможность выиграть крупные суммы.


    Наши клиенты
    Клиенты

    Быстрая связь

    Тел.: (044) 587-84-78
    E-mail: [email protected]

    Имя:
    E-mail:
    Телефон:
    Вопрос\Комментарий: