Искусственный интеллект — насколько реальна угроза?
|XVI век, пражское гетто. Раби Бен Бецаль создает глиняного человека — голема. Одушевленный, но лишенный возможности говорить, голем выполнял приказы создателя и делал всякую полезную работу. Но в один из дней он выходит из повиновения и начинает творить зло…
Подобных легенд человеческая культура наплодила достаточно. От монстра Франкенштейна до компьютерной сети «Скайнет» из киносериала «Терминатор». Искусственный интеллект проходит эволюцию от полезного помощника до смертельного врага человека. Причем говорят об этом не только голливудские режиссеры и авторы фантастических книг. Стивен Возняк, Билл Гейтс, профессор Хокинг. Правы ли признанные лидеры мнений в своих утверждениях, либо они также находятся под властью мифов, ведущих свои корни из легенды о пражском големе?
Попробуем подойти с рациональной стороны. Искин — это программа, которая обрабатывает и выдает информацию. При этом, чтобы стать действием, информация должна иметь выход на контур управления. Например, если это автопилот самолета, то он получает информацию с датчиков и передает управляющие сигналы на силовые установки и оперение. Конечно, автопилот это не искин, но это автономная система принятия решений. При этом у пилотов всегда есть возможность переключиться на ручное управление.
Теперь представим, что вместо автопилота в самолете установлен искин. Как вы думаете, какой специалист по безопасности полетов спроектирует эту связку без возможности ручного отключения искина от управления самолетом? Правильно — никакой. Более того, там будет предусмотрено несколько дублирующих систем, отключающих искин. А если мы вспомним три закона роботехники, прописанные Айзеком Азимовым еще в сороковых, то поймем, что этим вопросом грамотные технари задавались давно. Разработать и внедрить возможность прерывания между искином и системой, которой он управляет, не такая уж сложная в техническом плане задача.
Конечно, полной гарантии безопасности нет. При этом главная проблема будет не в самом искине и системе, которой он управляет, но в человеческом факторе. Скажем, какой-нибудь безумный профессор может обойти прерывающие подсистемы и сделать так, что искин превратиться в пражского голема. Но ведь технологические гуру глаголят об опасности самообучающегося искина как такового. Почему же господа лидеры мнений настойчиво предупреждают нас об опасности, а в Голливуде снимают очередную серию «Терминатора»?
Думаю, что ответ стоит искать в самом феномене искусственного интеллекта. С психологической точки зрения искин это «чужой». Да, мы его создатели и первоначально он наш верный помощник. При этом способность к саморазвитию является тем что может привести искина в состояние, значительно отличающееся от исходного и сделать его «чужим». Если отклониться от темы, то оппозиция «свой-чужой» является основополагающей в таких сферах как культура, социология, политика. И чем непонятнее «чужой», тем больше беспокойства и страза.
Второе, что вызывает беспокойство — сама концепция искусственного интеллекта является ущербной. Да, именно так. Зачем создавать искусственный интеллект, если есть свой собственный, данный матушкой-природой? Зачем направлять усилия на его создание, когда собственные возможности мы еще до конца не изучили. Как не понимая до конца самих себя можно воспроизвести разум?
Последнее. Страх перед искинами это страхом перед самим собой. Наши творения — это продолжение нас, а вся история человечества показывает, что мы являемся видом, склонным к самоуничтожению, бесконтрольной агрессии, чрезмерной жестокости. По сути, мы приписываем искусственному интеллекту собственные недостатки, мешающие нам построить счастливую жизнь. Мы разрабатываем технологии, которые, выходя из-под нашего контроля, приводят к катастрофам.
С другой стороны эта способность к саморазвитию и выходу за прогнозируемые нами рамки имеет громадный потенциал для нашего самопознания. Наблюдая за тем, как развивается искины, мы будем иметь возможность посмотреть на себя со стороны и лучше себя познать. Эту тему я описал в романе «Хаос-генератор», в котором человеку удается создать действительно автономный искусственный интеллект.
Подведем итог. Страхи перед искинами носят иррациональный характер, который не могут перебороть даже признанные лидеры мнений. При этом, если мы опустимся до уровня технической реализации, то увидим, что есть масса возможностей нейтрализовать эти угрозы. Вы боитесь того, что искины уничтожат человечество? Кто вам мешает прикрутить к затылку такого голема рубильник, до которого мы всегда можем дотянуться и отключить его? Никто, только мы сами.
Дело в том, что страхи Возняка, Маска etc. лежат в несколько другой плоскости (она тоже иррациональна, но приведенное возражение к ней не подходит). Вот в этой:
https://www.dropbox.com/s/2qou6a7h09d6adw/Intelligence2.png?dl=0
Если AI разумнее человека, то все равно, подключать ли его к реальным рычагам управления, сколько иметь рубильников и так далее — его результаты невозможно проверить, их приходится принимать на веру. А это весьма вероятный вариант, более того, именно такое применение и несет основную выгоду.
Виталий, это какой-то совсем уже примитивный страх, надо бы что-то посерьезнее. Хотя я не понимаю, как в общем-то грамотные люди могут рассуждать об опасностях, хотя понятно, что все это обходится если не программно, то на уровне железа.
Я бы не назвал его примитивным…
Наоборот, человеку довольно сложно осознать, что его создание может быть разумнее. Это для большинства как-то обидно.
И это не обходится, фактически, ничем. Представь себе гипотетическую ситуацию. Пусть это не ИИ, а очень простой механизм, ну, скажем, то, что представил гугл — штуку, которая составляет описание картинки. Когда ее разумно использовать? Когда есть, скажем, огромный массив картинок, и их нужно отсортировать и пометить. Ты можешь проверить работу алгортима, сделав ее руками. Но если ты каждый раз будешь перепроверять — нет смысла вообще создавать подобный алгоритм. А особенность современных систем подобного рода в том, что проверка работы на наборе примеров, вероятно, сколь угодно большом — не гарантирует надежность алгоритма в целом. Это нейросети, а не линейный алгоритм.
Теперь добавь к этому какое-никакое сознание (мы предполагаем, что ИИ им обладает?), и станет понятно, чего они опасаются.
Вот что предлагают их оппоненты:
https://ru.wikipedia.org/wiki/%D0%94%D1%80%D1%83%D0%B6%D0%B5%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82
Я не очень себе представляю, как можно «отключить» существо обладающее интеллектом, кроме как убить его. Нет, ну даже, предположим, временное отключение. Но разве это этично по отношению к сущности, которая себя осознаёт. Да и скорей всего это просто будет невозможно. По разным причинам. Например, просто вспомните, как давно вы отключали свой мобильник? А что говорить о системе, на которую будет завязана вся ваша жизнь – еда, транспорт, безопасность жилого пространства. И всё это будет интегрировано в другую боле сложную систему городского ИИ.
Лена, не путай «уничтожение» и «отключение». Самая простая аналогия — водитель и пассажир. Водитель держит в руках управление, пассажир наблюдает. Он жив-здоров, но не может дотянуться до педалей.
Э… это очень странный пример. Ты слышал, что в Альпах упал самолёт? Думаю – слышал. Так вот, говорят, что это было самоубийство второго пилота… я не обсуждаю конкретный случай. Просто тебе не кажется, что иногда хочется перехватить управление, например, когда у водителя инсульт. И вот тогда это делает тот же автопилот в самолётах.
Если ты имеешь в виду, что сойдёт с ума ИИ. То на том уровни, который займёт ИИ в будущем простое отключение будет просто невозможно и даже преступно по отношению к нему как к личности.
http://www.computerra.ru/119151/roboracial/
Нашла статью на КП о жестокости к роботам и ИИ.
Ну, вот это уже завирально. КТ такая КТ.
О невозможности так просто что-то отключить было в недавней игрушке Watch Dogs. И там даже не про ИИ, а про то, что заглушить контур управления «смарт-города» — он там довольно простой, без особых выдумок, транспорт, энергия, камеры — это убить минимум несколько десятков человек в разных происшествиях, которые случатся…
Не спорю, про ИИ там почти и нет кроме упоминания.
Меня больше всего поразило, что люди вообще додумались – сформулировали Жестокое обращение с роботами! И отметь, это и роботов пока толком нет. Хотя, представить себе какой-нибудь робот в нашем парке… ночью…