За последнее столетие человечество совершило несколько великих подвигов: мы отправили человека на Луну; мы расщепляем атом; мы открыли планеты в других солнечных системах; мы даже начали заселять целую планету роботами… вдумайтесь: население Марса полностью состоит из роботов. Мы также создали расистский ИИ и дали компьютерам возможность «мечтать».
Со всеми прекрасными вещами, которые технологии сделали для нас, у них все еще есть одно применение, которое мы редко обсуждаем, это может быть поразительным отражением нас самих.
Ранее в этом году Microsoft выпустила в Twitter новейшего чат-бота. Чат-бот — это форма ИИ, которая может научиться общаться на человеческом языке. Обычно чат-боты учатся общаться, обрабатывая ввод, который мы предоставляем в ходе простого разговора. В мире больших данных, где такие компании, как Facebook и Twitter, записывают онлайн-разговоры в режиме реального времени, создается прекрасный набор данных для чат-бота.
Или так мы предполагали.
Майкрософт запустила своего чат-бота в твиттер и за 24 часа превратилась в ярого расиста; Microsoft отключила бота и удалила некоторые из его наиболее оскорбительных твитов. Несколько недель спустя, после небольшой доработки, Microsoft повторно выпустила чат-бота в Twitter. На этот раз он был менее расистским (вероятно, из-за перепрограммирования), но теперь это был веселый наркоман, который утверждал, что нарушает закон и курит какую-то дурь перед 5–0.
Что все это значит для нас? Ну, это отражает факт, который хорошо известен всем, кто читает разделы комментариев на веб-страницах: люди могут быть настоящими мудаками.
Я не претендую на то, что это для кого-то большое откровение, но у него действительно есть интересные последствия, о которых нам следует подумать в отношении ИИ. А именно, если люди могут быть такими мудаками, какое нам дело до создания искусственного интеллекта человеческого уровня (или выше человеческого уровня)?
Подобным вопросом задавался фильм Чаппи. В фильме блестящий исследователь (которого играет Дэв Патель) смог разблокировать ИИ. Суть заключалась в том, что он разработал систему, которая начинала как ребенок, а затем училась у окружающего мира, пока не смогла достичь человеческого уровня интеллекта. Вначале робот попадает в руки двух преступников (в исполнении южноафриканских гениев хип-хопа Die Antwoord). Не спойлеря концовку фильма, можно с уверенностью сказать, что робот научился говорить и вести себя как преступник. В конечном счете, пособничество в кражах и убийствах.
Что бы вы ни говорили о качестве Чаппи как фильма, возникает вопрос, который мы должны задать: готовы ли мы создать ИИ, даже если бы у нас были для этого средства? Это намного тоньше, чем повествования о монстрах Франкенштейна в фильмах Терминатор, Матрица, Из машины и Превосходство, где мы создаем ИИ, который в конечном итоге обращается против своего создателя. Вместо этого он задает вопрос, просто потому, что мы можем что-то сделать, должны ли мы?
Чат-боты Microsoft — это новейший эксперимент в области искусственного интеллекта, призванный отразить темную сторону человечества. Если мы хотим создать что-то с человеческим интеллектом, почему мы предполагаем, что это будет некий благожелательный ИИ вроде Ганди или гитлеровский диктатор, стремящийся к мировому господству? Оба такие изгои человечества.
Учитывая легкость, с которой компьютеры могут понимать математику и решать задачи, связанные с абстрактной математикой, они, скорее всего, будут близки к Эйнштейну. Эйнштейн был блестящим физиком, но его научная работа породила как современную физику, так и атомную бомбу. Он был и любимым коллегой по университету, и довольно отстраненным отцом. Он был хорошим и плохим.
По всей вероятности, какой бы человекоподобный ИИ мы бы ни создали, он будет одновременно и хорошим, и плохим. Недавняя работа психолога Филипа Зомбардо показала, что герои и злодеи почти всегда являются обычными людьми, попавшими в экстраординарные обстоятельства. Если мы хотим разработать ИИ, который действительно обладает нашим интеллектом, он, вероятно, будет так же связан обстоятельствами, как и мы; к лучшему и к худшему.
Это должно означать, что ИИ, скорее всего, найдет способ помочь ребенку, упавшему на железнодорожные пути, как это сделал Делрой Симмондс в 2012 году, когда незнакомый ребенок упал на рельсы метро в Нью-Йорке и накрыл тела ребенка, пока поезд не проехал по ним, спасая ребенку жизнь». Однако это также означает, что ИИ, вероятно, будет использовать любые средства, необходимые для обеспечения того, что необходимо для его выживания и выживания его самых дорогих активов. Это, вероятно, похоже на многих людей, которые были вынуждены совершать преступления в бедных районах, чтобы украсть то, что необходимо для них самих или их семьи.
Многие в мире технологий, такие как предприниматель Илон Маск, призвали исследователей взять на себя этические обязательства не разрабатывать ИИ, который может стать неуправляемым и потенциально нанести вред человечеству» (я был одним из первых, кто подписал призыв Маска, учитывая, что моя собственная работа по созданию симуляций религиозных групп легко граничит с «жутким по мнению большинства моих друзей). Однако это дает нам еще один повод задуматься и задуматься, чего же мы так боимся? Снова появляется, без сомнения, что мы в конечном счете боимся самих себя.
Накладывая эти ограничения на разработку ИИ, мы больше не пытаемся разработать ИИ человеческого уровня; потому что ИИ человеческого уровня — это несовершенный ИИ. «Ограниченный ИИ», о котором в настоящее время мечтают многие исследователи, никогда не станет полностью человеческим. Вместо этого его постоянное отношение к обслуживанию, скорее всего, покажется неискренним или, осмелюсь сказать, роботизированным? Однако альтернативой является разработка человеческого ИИ, который мог бы быть представительным, который не просто соглашался бы и «переворачивался», если его дразнили, но имел бы социальную способность и мотивацию, чтобы дразнить своего собственного создателя ради «забавы». ». Эта красочная версия ИИ звучит гораздо более дружелюбно, с гораздо большей вероятностью будет выглядеть как человек, и в то же время с гораздо большей вероятностью будет отражать нас самих.
Многим кажется, что вопрос ИИ не ставит под сомнение возможность создания ИИ человеческого уровня; опасения Илона Маска и Стивена Хокинга, например, похоже, рассматривают это как неизбежность. На самом деле вопрос об ИИ гораздо темнее, потому что он ставит под вопрос, готовы ли мы смотреть в глаза собственной природе.