Надо ли бояться восстания искусственного интеллекта?

Как исследователь по искусственному интеллекту, я часто сталкиваюсь с идеей о том, что многие люди боятся возможностей искусственного интеллекта. Неудивительно, учитывая историю и индустрию развлечений, которая заставляет нас жить запертыми в «Матрице», как какая-то человеческая батарея.

И все же мне трудно смотря на эволюционные компьютерные модели, которые я использую для разработки ИИ, думать о том, как невинные виртуальные существа на моем экране могут стать монстрами будущего. Могу ли я стать «разрушителем миров», как сожалел Оппенгеймер после того, как возглавил строительство первой ядерной бомбы?

Я полагался бы на славу, но, возможно, критики правы. Может быть, мне не следует спрашивать: как эксперт по ИИ, чего я в нем опасаюсь?

роботы

Роботы повелители?

Страх перед непредвиденным

Компьютер HAL 9000, придуманный автором научной фантастики Артуром Кларком и воплощенный в жизнь режиссером Стэнли Кубриком в «2001: Космическая одиссея», является хорошим примером системы, которая терпит неудачу из-за непреднамеренных последствий. Во многих сложных системах — RMS Titanic, космический челнок НАСА, Чернобыльская атомная электростанция — инженеры объединяют много разных компонентов. Дизайнеры, возможно, хорошо знали, как каждый элемент работал индивидуально, но не знали достаточно о том, как все они работали вместе.

Это привело к системам, которые никогда не могут быть полностью поняты и могу непредсказуемо провалиться. В каждом бедствии — тонущем корабле, взрыве двух челноков и распространении радиоактивного загрязнения в Европе и Азии — набор относительно небольших сбоев, объединенных вместе для создания катастрофы.

Я вижу, как мы можем попасть в ту же ловушку в исследовании ИИ. Мы рассмотрим последние исследования когнитивной науки, переведем их в алгоритм и добавим в существующую систему. Мы пытаемся спроектировать искусственный интеллект, не понимая сначала разума или познания.

Такие системы, как IBM Watson и Alpha от Google, создают искусственные нейронные сети с огромной вычислительной мощью и совершают впечатляющие подвиги. Но если эти машины ошибаются, мир от этого не меняется. Действительно, самое худшее, что может случиться с обычным человеком, в результате — потерять деньги, вложенные в их успех.

Но поскольку конструкции ИИ становятся еще более сложными и компьютерными процессорами, работающими еще быстрее, их навыки улучшатся. Это позволит нам возложить на них большую ответственность, даже если повысится риск непредвиденных последствий. Мы знаем, что «ошибки свойственны человеку», поэтому для нас невозможно создать действительно безопасную систему.

Страх перед неправильным использованием

Я не очень обеспокоен непреднамеренными последствиями в типах ИИ, которые я разрабатываю, используя подход, называемый нейроэволюцией. Я создаю виртуальные среды и развиваю цифровые существа и свои мозги, чтобы решать все более сложные задачи. Те, которые выполняют задачи лучше, выбираются для воспроизведения, создавая следующее поколение. На протяжении многих поколений эти машинные существа развивают когнитивные способности.

Сейчас мы предпринимаем шаги для развития машин, которые могут выполнять простые задачи навигации, принимать простые решения или запоминать пару бит. Но скоро мы будем развивать машины, которые могут выполнять более сложные задачи и иметь гораздо лучший общий интеллект. В конечном итоге мы надеемся создать человеческий интеллект.

По пути мы найдем и устраним ошибки и проблемы в процессе эволюции. С каждым поколением машины лучше справляются с ошибками, имевшими место в предыдущих поколениях. Это увеличивает шансы на то, что мы найдем непреднамеренные последствия в симуляции, которые могут быть устранены до того, как они когда-либо войдут в реальный мир.

Другая возможность, которая находится в перспективе, — использовать эволюцию, чтобы влиять на этику систем искусственного интеллекта. Вполне вероятно, что человеческая этика и мораль, такие как достоверность и альтруизм, являются результатом нашей эволюции и фактором ее продолжения. Мы могли бы создать нашу виртуальную среду, чтобы дать эволюционные преимущества машинам, которые демонстрируют доброту, честность и сопереживание. Это может быть способом обеспечить развитие послушных слуг или надежных спутников и меньше — беспощадных роботов-убийц.

Хотя нейроэволюция может снизить вероятность непредвиденных последствий, она не предотвращает злоупотребления. Но это моральный вопрос, а не научный. Как ученый, я должен следовать своему обязательству по правде, сообщая, что я нахожу в своих экспериментах, нравится ли мне результат или нет. Мое внимание сосредоточено не на определении того, нравится ли мне или что-то одобряю; Имеет значение только то, что я могу его обнародовать.

Боязнь неправильных социальных приоритетов

Однако ученый не освобождает меня от моей человечности. Я должен на каком-то уровне снова соединиться с моими надеждами и страхами. Будучи моральным и политическим существом, я должен учитывать потенциальные последствия моей работы и ее потенциальное воздействие на общество.

Как исследователи, так и как общество, мы еще не придумали четкого представления о том, что мы хотим, чтобы ИИ сделал или чем стал. Частично, конечно, это потому, что мы еще не знаем, на что это способно. Но нам нужно решить, каков желаемый результат развития ИИ.

Одна большая область людей обращает внимание на занятость. Роботы уже выполняют физическую работу, например, сварочные детали. Вскоре они могут также выполнять когнитивные задачи, которые, как мы думали, были уникальными для людей. Самостоятельные автомобили могут заменить водителей такси; Самолеты могут заменить пилотов.

Вместо того, чтобы получать медицинскую помощь в отделении, укомплектованном потенциально перенапряженными врачами, пациенты могут сдать анализы и узнать диагноз из экспертной системы с мгновенным доступом ко всем имеющимся в наличии медицинским знаниям — и получить операцию, выполняемую неустанным роботом с совершенно устойчивой рукой. Юридические консультации могут быть получены из всезнающей правовой базы данных; Инвестиционная консультация может исходить из системы прогнозирования рынка.

Возможно, однажды, все человеческие работы будут выполняться машинами. Даже моя собственная работа может быть выполнена быстрее, благодаря большому количеству машин, которые неустанно исследуют, как делать даже более умные машины.

В нашем современном обществе автоматизация подталкивает людей к работе, делая людей, которые владеют машинами богаче, а все остальные беднее. Это не научная проблема; Это политическая и социально-экономическая проблема, которую мы, как общество, должны решать. Мое исследование не изменит этого, хотя моя политическая самость вместе с остальной частью человечества — может создать обстоятельства, при которых ИИ становится в целом выгодным, а не увеличивать несоответствие между одним процентом и остальными из нас.

Страх перед сценарием кошмара

Существует один последний страх, воплощенный HAL 9000, Терминатором и другими вымышленными суперинтеллектами: если ИИ продолжает улучшаться, пока не превысит человеческий интеллект, будет ли система суперинтеллекта решать, что ей больше не нужны люди? Как мы оправдаем наше существование перед лицом суперинтеллекта, который может делать то, что люди никогда не могут сделать? Можем ли мы избежать стирания с лица Земли машинами, которых мы помогли создать?

Ключевой вопрос в этом сценарии: почему суперинтеллект удерживает нас?

Я бы сказал, что я хороший человек, который, возможно, даже помог добиться самого суперинтеллекта. Я хотел бы обратиться к состраданию и сочувствию, что суперинтеллект должна сохранить меня, сострадательного и чуткого человека, живым. Я бы также утверждал, что разнообразие имеет ценность само по себе и что вселенная настолько смехотворна, что существование человечества в ней, вероятно, вообще не имеет значения.

Но я не говорю за все человечество, и мне трудно придумать веский аргумент для всех нас. Когда я резко оглядываюсь на всех нас, всплывает много ошибок: мы ненавидим друг друга. Мы ведем войну друг на друга. Мы не распределяем одинаково продукты питания, знания или медицинскую помощь. Мы загрязняем планету. В мире много хороших вещей, но все плохое ослабляет наш аргумент в пользу того, что нам разрешено существовать.

К счастью, нам пока не нужно оправдывать свое существование. У нас есть время — от 50 до 250 лет, в зависимости от того, насколько быстро развивается ИИ. Как вид, мы можем собраться вместе и придумать хороший ответ за то, почему суперинтеллект не должен просто уничтожить нас. Но это будет сложно: заявив, что мы принимаем многообразие, и на самом деле это две разные вещи — как говорят, мы хотим спасти планету и успешно это сделать.

Мы все, индивидуально и как общество, должны подготовиться к этому сценарию кошмара, используя время, которое мы оставили, чтобы продемонстрировать, почему наши творения должны позволить нам продолжать существовать. Или мы можем решить, что этого никогда не произойдет, и перестать беспокоиться. Но независимо от физических угроз, которые могут представлять суперинтеллекты, они также представляют собой политическую и экономическую опасность. Если мы не найдем способ лучше распределить наше богатство, мы будем подпитывать капитализм роботами, обслуживающими лишь очень немногих, обладающих всеми средствами производства.

Аренд Хинтзе, доцент кафедры интегративной биологии и вычислительной техники и инженерии, Мичиганский государственный университет

Оставьте отзыв

Польза красных и пантеровых шляпок грибов
Кодирование от алкоголизма по Довженко
Рахит у детей
Преображение улыбки: эстетическое стоматологическое протезирование