Рохан №2: Искусственный интеллект, ∂Progress / ∂Time
Технический и философский анализ прошлого, настоящего и будущего искусственного интеллекта.
Это вторая запись в моем путешествии по расширению моих знаний об искусственном интеллекте в 2016 году. Узнайте больше о моих мотивах в этом вводном посте.
Это вроде как мой первый пост в A.Y.O.A.I. хотя пару недель назад я опубликовал подробное (30-минутное чтение) исследование прикладной логистической регрессии. Теперь, когда я думаю об этом, я могу продолжить эти исследования; они представляют собой прекрасную документацию с глубоким и целостным пониманием, и их написание занимает всего неделю или две.
Интересно, что моя нулевая запись в блоге привлекла достаточно внимания (по крайней мере, частично), чтобы получить интервью для стажировки в известном финтех-стартапе в районе залива. Довольно круто, правда? К сожалению, поскольку мне пришлось подготовиться к упомянутому интервью, у меня было меньше времени, чтобы погрузиться в искусственный интеллект, чем ожидалось. Вместо этого мне пришлось погрузиться в структуры данных и алгоритмы - скучно (правда, некоторые вопросы были очень забавными)!
Сегодня мы рассмотрим историю искусственного интеллекта, где мы находимся в данный момент, и прогнозы на долгосрочное будущее. В дискуссии не будет исключительно хронологии событий; Я также рассмотрю технические детали современного ИИ и будущих стратегий / путей / опасностей. Я чувствую себя обязанным написать это, потому что, прежде чем углубляться в такую сложную область, мне нужно понять историю, лежащую в основе этого: проблемы, с которыми сталкиваются люди, и почему мы находимся там, где мы находимся. Содержание этого сообщения в блоге - это совокупность того, что я узнал из книги о суперинтеллекте, книги по машинному обучению и статей в Википедии, которые я читал.
I. Прошлое
Ранние представления ИИ
Для большинства (я думаю) людей концепция искусственного интеллекта является синонимом изображений в популярной фантастике, такой как Терминатор или Робокоп. То есть замысловатые роботы, которые могут стать разумными и в результате неустанно преследовать цели экзистенциализма в отношении некоторых (чаще злых) выбранных моральных стандартов.
Как [начинающие] компьютерные ученые и математики, легко преуменьшить эти взгляды и гордиться нашими более образованными подходами, такими как выпуклая оптимизация. Но давайте не будем забывать, что ИИ вырос из мифов и домыслов; Фактически, механические / искусственные люди начали появляться из греческой мифологии и продолжали развиваться в Средние века до появления формальной художественной литературы в 1800-х годах.
Философы начали представлять и обсуждать концепцию и значение искусственного интеллекта в формальных рассуждениях, потому что он привел к интересным конфликтам в их теориях по таким темам, как отношения между разумом и телом, этика, личная идентичность и т. Д. Недавно я узнал об идеологии « Функционализм », в котором говорится, что ментальные состояния определяются исключительно их функцией - в моем курсе философии средней школы IB. Функционализм увлекателен, потому что он подразумевает, что агенты искусственного интеллекта по закону обладают таким же разумом, как и мы, люди. Многие также думали, что весь человеческий разум можно свести к некоторому систематическому представлению. Развитие этого понятия, связанного с математической логикой (например, лямбда-исчисление), философами, такими как Гоббс и Декарт, стало основой для прорыва, в результате которого многие ученые начали углубляться в идею машин, которые могли бы думать.
Материальный искусственный интеллект в компьютерных науках
Первые современные цифровые компьютеры (такие как ENIAC и Colossus) были изобретены во время Второй мировой войны (для взлома шифрования). Эти компьютеры были разработаны на теоретической основе, заложенной Аланом Тьюрингом во время Первой мировой войны и Джоном фон Нейманом. С этой новой технологией искусственный интеллект был официально основан как академическая дисциплина в 1956 году экспертами в различных областях, таких как математика, психология, экономика, философия и т. Д.
Интересно, что алгоритмы, смоделированные на основе биологических систем, были одной из первых отдельных групп ИИ, которые были внедрены в этой области. После того, как обширные исследования в области неврологии продемонстрировали, что наш мозг представляет собой электрическую сеть нейронов, запускающих сигналы, многие выдвинули гипотезу, что, согласно теории вычислений Алана Тьюринга, такая структура данных и система могут быть представлены в цифровом виде.
Исследователи Уолтер Питтс и Уоррен Маккалок исследовали, как искусственные нейроны могут работать вместе для выполнения простых логических функций, таких как ИЛИ, И и т. Д. Имитация вывода логического элемента XOR (логическое дополнение ИЛИ) создала проблемы с отдельными слоями нейронов, и исследователи намного позже станет пионером структуры данных с многослойными нейронами - придумал нейронные сети (о которых, я уверен, многие из вас слышали). Первая машина нейронной сети, SNARC, была спроектирована и построена Марвином Мински, который теперь признан лидером в области искусственного интеллекта. Конечно, это изобретение не было таким революционным, как современные нейронные сети, потому что а) эффективный алгоритм обучения обратного распространения ошибки еще не был открыт и б) потому, что не хватало вычислительной мощности для выполнения чего-то значимого, например, распознавания изображений.
Замечание: просматривал мой черновик и только что узнал, что Марвин Мински скончался в прошлом месяце 24 января в возрасте 88 лет. РВАТЬ. Марвин Мински и благодарим вас за ваш вклад в эту замечательную дисциплину.
Тем временем Алан Тьюринг разработал философский мысленный эксперимент, известный как «тест Тьюринга». По мере ускорения прогресса в области ИИ Тьюринг предположил, что «думающую машину» можно определить, если она убедит другого субъекта через механизм онлайн-чата, что это человек.
Заметка об игровом AI
На протяжении всей истории игровой ИИ был основным индикатором развития ИИ. Первый ИИ, победивший человека в шашках (Кристофер Стрейчи в 1951 году - на этой временной шкале), был, пожалуй, одним из первых ощутимых достижений в этой дисциплине. Самым недавним ощутимым достижением в области искусственного интеллекта стал проект Google Deep Learning (глубокие нейронные сети), который победил китайского профессионального игрока в печально известной игре го.
Дартмут
Если задать вопрос - какое учреждение внесло наибольшие инновации в ранний искусственный интеллект? Типичным ответом, скорее всего, будет Массачусетский технологический институт или Стэнфордский университет. Возможно, это так и в наши дни, но для раннего ИИ ответ, несомненно, - Дартмут.
Летом 1956 года группа ученых, разделяющих интерес к изучению искусственного интеллекта с помощью таких понятий, как биологические представления интеллектуальных алгоритмов и теория автоматов, объединилась на шестинедельный семинар / конференцию в Дартмутском колледже (официально известном как Дартмутский летний исследовательский проект по искусственному интеллекту) . Конференция известна (возможно, также из-за удобного времени) как рождение современных исследований искусственного интеллекта. Многие из участников (в частности, включая Марвина Мински) позже будут признаны отцами-основателями этой области. Ниже приводится предложение организатора мероприятия Джона Маккарти:
Мы предлагаем провести 2-месячное исследование искусственного интеллекта с участием 10 человек летом 1956 года в Дартмутском колледже в« Ганновере, Нью-Гэмпшир . Исследование должно продолжаться на основе предположения, что каждый аспект обучения или любая другая особенность интеллекта в принципе может быть описана настолько точно, что может быть создана машина для его моделирования. Будет предпринята попытка найти, как заставить машины использовать язык, формировать абстракции и концепции, решать виды проблем, которые теперь предназначены только для людей, и улучшать себя. Мы думаем, что можно добиться значительного прогресса в решении одной или нескольких из этих проблем, если тщательно отобранная группа ученых будет вместе работать над ней в течение лета ». - Маккарти и др. 1955 г.
Достижения в области обработки естественного языка, нейронных сетей, абстракции и / или самосовершенствования были либо сделаны, либо вдохновлены конференцией. Работа была в основном сосредоточена на том, чтобы доказать, что скептики неправы (возможно, это был самый эффективный способ вызвать ажиотаж в этой области) в отношении утверждений о том, что машины не могут выполнять различные произвольные задачи, такие как способность применять логический вывод к абстрактным задачам. Logic Theorist - компьютерная программа, которая сформировала элегантные доказательства многих теорем, представленных в книге Principia Mathematica (основы математики), - сделала именно это.
Бизнес процветает
Годы с 1956 по 1974 в основном считались золотыми годами искусственного интеллекта. После Дартмутской конференции было сделано много новых изобретений и открытий, таких как: Средство решения общих проблем (которое могло решать широкий круг формальных математических задач), средства решения задач исчисления, средства решения задач алгебры и т. Д. Программа ELIZA сделала усовершенствования (и была одной из первых реализаций) обработки естественного языка, которая позволила пользователю общаться и получать советы от ИИ-психотерапевта, используя семантические сети. В 1968 году программа SHRDLU продолжила развитие НЛП, поскольку она отображала смоделированную роботизированную руку в виртуальном, трехмерном микромире (работающем на физических механизмах), который мог декодировать и выполнять инструкции, вводимые пользователями в естественный язык, такой как перемещение и укладка блоков.
В ближайшие десятилетия достижения в отрасли только возрастут. Программы, которые могут сочинять музыку, создавать произведения искусства, выполнять клинические задачи, автономно управлять автомобилями и даже шутить оригинально!
«Что вы получите, если пересечете оптику с мысленным объектом? око -дея! »
Система STANDUP раскрыла этот каламбур.
В ту эпоху появилось гораздо больше инноваций в НЛП, логических рассуждениях и микромире. Оптимизма было много; Марвин Мински и многие другие лидеры предположили, что машины с общим интеллектом среднего человека будут успешно разработаны к 1978 году . С 1960-х по 19670-е годы организация государственного сектора под названием DARPA предоставила Массачусетскому технологическому институту гранты в размере 5 миллионов долларов для финансирования многих других научных достижений. Подобные гранты были присуждены таким колледжам, как CMU и Stanford.
Это зимнее время
Доказательство теоремы, имеющей перспективное доказательство из 10 строк? Просто - на это уходит ничтожное время α. Доказательство теоремы, имеющей перспективное доказательство из 50 строк? Будет ли это занимать столь же незначительное время 5 α? Нет; это займет 5⁵⁰ возможных последовательностей (спасибо Nick Bostrom за ссылку). Это связано с тем, что многие из этих впечатляющих программ ИИ использовали один и тот же базовый алгоритм - это простой алгоритм поиска (который тогда ни в коем случае не был простым), который перебирал все возможные решения, пока не было найдено успешное. По мере того как пространство поиска увеличивалось, количество возможных путей астрономически увеличивалось - это известно как комбинаторный взрыв.
Комбинаторный взрыв и плохая масштабируемость задач ИИ в целом были ключевыми факторами, способствовавшими падению области ИИ в 1974–1980 годах. К этим «игрушечным» решениям относятся:
- Ограниченная вычислительная мощность. Как уже упоминалось ранее, это была проблема с нейронными сетями - просто не хватало памяти и / или вычислительной мощности для достижения значимых результатов в разумные сроки. Однослойные перцептроны (тип нейронной сети) были слишком элементарными для выполнения логических задач, но ответ - многослойные перцептроны - был слишком затратным в вычислительном отношении. Кроме того, не было эффективного способа обучения нейронной сети - это будет позже.
- Отсутствие развития компьютерного зрения и исследований в области робототехники. Это связано с ограниченной вычислительной мощностью, но в целом также были распространены тупиковые подходы. Это был почти парадокс - такие очень сложные задачи, как формулирование доказательств математических теорем, были легкими для компьютера, но трудными для человека. И все же что-то столь органичное для нас, такое как распознавание объектов и закономерностей, для машин было практически невозможным. Это породило основополагающее убеждение в том, что, возможно, разработанный «искусственный интеллект» был недостаточно смоделирован для нашего человеческого интеллекта и на самом деле просто использовал преимущества больших вычислительных и числовых арифметических способностей (которые доказывали возможные ограничивающие факторы в любом случае).
- Недостаток централизованных / коллективных данных и информации для обучения или предоставления алгоритмов, например. НЛП с. Помните, что Google, не говоря уже о Интернете, в то время не был ни массовым, ни доступным для широкой публики.
- Плохая абстракция. Многие специалисты по ИИ при создании решений проблем обнаружили, что их решения не были обобщены в программной области - внесение небольших изменений требовало радикального изменения используемой логики.
Если бы можно было дифференцировать произвольную функцию прогресса ИИ относительно времени (что послужило вдохновением для этого названия), можно было бы обнаружить, что в начале зимы мы достигли градиента 0. Мы достигли локального максимума, и исследования начали снижаться. DARPA разочаровалось в отсутствии инноваций и прекратило финансирование / прекратило предоставление грантов почти всем своим инвестициям в исследования ИИ; DARPA отказалось от программы Исследование понимания речи в CMU на 3 миллиона долларов. К середине 1970-х получить финансирование для исследовательских проектов в области ИИ становилось все труднее, а в конечном итоге - почти невозможным. Скептицизм по отношению к этой области усилился, и искусственный интеллект вышел из моды.
Критика в философии
Многие современные философы опровергли возможность машинного интеллекта (с точки зрения семантики). Наиболее заметно это сделал Джон Сирл в 1980 году со своим «Экспериментом в китайской комнате». Эксперимент в китайской комнате демонстрирует, что, хотя компьютер может передавать интеллект (или потенциальную разумность в будущем), на самом деле он их не имеет.
Предположим, что комната с двумя отверстиями на обоих концах - одна позволяет вводить сообщения на английском языке, а другая выводит их перевод на китайский язык. Посередине находится комната, где происходит перевод, выполняемый человеком (или интеллектуальным агентом). Если вы еще не заметили, это хорошо сочетается с традиционной компьютерной архитектурой (Ввод → Обработка → Вывод). Хотя этот человек не понимает ни английского, ни китайского, у него есть книга, которая позволяет ему «сопоставить» каждый символ / слово английского языка с каждым соответствующим символом китайского.
Таким образом, внешне кажется, что мужчина свободно владеет как китайским, так и английским языками. Но это не так. Это аргумент Сирла против искусственного интеллекта; хотя компьютеры могут изображать признаки интеллекта, они не обладают внутренним пониманием… на самом деле чего-либо. Они просто следуют инструкциям и могут быть сведены к серии состояний наличия или отсутствия тока.
Примечание: еще одна убедительная теория, на которую стоит обратить внимание, - это теорема Геделя о неполноте. Философ Джон Лукас утверждал, что эта теория продемонстрировала, что формальная система никогда не может оценить истинность определенных утверждений, которые могут быть у людей.
История повторяется, часть 1
На данный момент я чувствую себя морально истощенным, зная, что я потратил 5 часов на написание не более трети всей моей статьи. Итак, вот что вам нужно знать: в 1980–1987 годах случился еще один бум - вот так, снова наступило лето!
Япония запустила активно финансируемый (всего лишь 1 миллиард долларов) проект Компьютерные системы пятого поколения - государственно-частное партнерство, направленное на развитие компьютерной архитектуры, чтобы, как следствие, способствовать инновациям в алгоритмах искусственного интеллекта высокой пространственной и временной сложности. . Многие другие страны, такие как Европа и США, последовали этому примеру в надежде имитировать экономический успех Японии на протяжении многих лет.
После неудач предыдущей зимы искусственного интеллекта многие исследователи решили сосредоточиться на централизации знаний / информации, чтобы эти интеллектуальные агенты могли получить информацию в своих рассуждениях. Опять же, помните, что массовый Интернет и поиск в Интернете сменили эту эпоху более чем на 10 лет. В результате новое направление ИИ было сосредоточено вокруг знаний: экспертные системы. Экспертная система представляет собой серию / комбинацию логических правил, накладываемых друг на друга для определения выходных данных на основе входных данных. Эти правила обычно разрабатывались экспертами в предметной области. Обычным вариантом использования экспертных систем было определение возможных заболеваний на основе набора симптомов, вводимых пользователем.
Однако экспертные системы на самом деле были воплощением «глупого» ИИ - каждая экспертная система фактически представляла собой базу данных, которую нужно было кодировать вручную и которая ни в какой степени не могла самостоятельно адаптироваться. Разработка, проверка и обслуживание требовали много времени и средств, не говоря уже о непрактичности требования, чтобы отдельный компьютер выполнял только одну программу. К концу 1980-х этот цикл роста слишком утомлял.
Было ясно, что экспертные системы зашли в тупик - как эти… базы данных могут быть усовершенствованы для создания машин, способных мыслить самостоятельно? К счастью, в 1982 году физик Джон Хопфилд изобрел форму нейронной сети (обозначенной как сеть Хопфилда), которая продвинула эту область вперед. Сети Хопфилда могут изучать и обрабатывать информацию совершенно новым способом - и они внесли свой вклад в современные искусственные нейронные сети. Их выходы могут быть преобразованы в их входы, так что они представляют собой форму рекуррентных нейронных сетей (RNN). В то же время Дэвид Румелхарт проповедовал алгоритм обратного распространения ошибки, открытый Полом Вербосом двумя годами ранее. Алгоритм обратного распространения ошибки использует дифференциальное исчисление, чтобы определить, насколько каждый вес в нейронной сети вносит вклад в общую ошибку. Благодаря способности определять точность каждого отдельного груза, можно сразу же изменить всю систему для движения в более оптимальном направлении.
Замечание: алгоритм обратного распространения ошибки великолепен, и я очень рад через пару дней погрузиться в математику, лежащую в его основе!
Коннекционизм и алгоритмы, смоделированные по образцу мозга, пережили всплеск популярности. Они добились коммерческого успеха в 1990-х годах, когда использовались для таких программ, как оптическое распознавание символов и распознавание речи.
Если все эти термины (ИНС, РНС, сети Хопфилда, обратное распространение и т. Д.) Кажутся вам похожими, то это потому, что эти изобретения по-прежнему широко используются в искусственном интеллекте сегодня и относятся к категории машинное обучение. Глубокое обучение (которое, как упоминалось ранее, представляет собой просто чрезвычайно глубокие многоуровневые нейронные сети), возможно, является повальным увлечением искусственного интеллекта 21-го века.
История повторяется, часть 2
Поэтому будет удивительно узнать, что ИИ пережил вторую зиму с 1987–1993 годов. Достижения коннекционизма по-прежнему ценятся сегодня, но для экспертных систем настало время уйти в отставку. В конечном итоге компьютерные системы пятого поколения (наряду с западными аналогами) не смогли достичь своих целей (которые на самом деле были в основном централизованы вокруг НЛП). Когда история повторилась во второй раз, скептицизм в отношении ИИ, возможно, достиг своего глобального максимума. Инвесторы и ученые избегали искусственного интеллекта, области, в которой «окончательный провал почти всегда следует за конечным успехом».
Однако важно отметить, что эта область продолжала развиваться, несмотря на резкую критику. Вот почему, когда зима в 1993 году неизбежно таяла, лето оставалось в Калифорнии до сегодняшнего дня, февраля 2016 года, и далее.
Примечание на полях: в конце 1980-х годов Nouvelle AI - идея о том, что искусственный интеллект должен обладать физическим телом, реализованная с помощью робототехники, - стала все более популярной среди исследователей. Я не уверен, в какой степени это развилось в наши дни, но я хотел бы услышать мнение любого, кто разбирается в этой теме.
II. Настоящее
Новый подход
Итак, с 1993 года эта область процветала в преодолении G.O.F.A.I. (Старый добрый искусственный интеллект) - или символический искусственный интеллект, который мы описали ранее. Примеры того, где эта область добилась большого успеха, включают нейронные сети, статистическое моделирование, вероятностное моделирование, кластеризацию и генетические алгоритмы (те, которые могут развить набор возможных решений на основе цифровой реализации биологического естественного отбора). Эти альтернативные, более математические парадигмы возродили оптимизм и азарт в начале 1990-х годов. Наконец-то были достигнуты вековые цели искусственного интеллекта. Определенно казалось, что больше внимания уделяется созданию моделей данных с помощью систем, использующих подходы, связанные с геометрическими моделями. Различные способы достижения этих оптимальных моделей включают выпуклую оптимизацию, эволюционные алгоритмы, распознавание образов / кластеров и т. Д.
Эти алгоритмы объединяют множество различных дисциплин, в первую очередь математику, экономику и психологию, чтобы сделать их гораздо более «научной» дисциплиной. Другие практики, такие как НЛП, также разрабатываются многими, но в них наблюдается меньше инноваций (возможно, потому, что идеальный естественный язык считается проблемой «AI-Complete» - это проблема, решение которой по существу эквивалентно решению на человеческом уровне. общий интеллект / Сильный ИИ). Такие компании, как Google, Baidu и Facebook, открыли центры исследований искусственного интеллекта только с целью развития этой области - они открывают исходный код и публикуют (предположительно) все свои выводы. Искусственный интеллект теперь признан одной из самых «горячих» областей компьютерных наук в учебе и карьере.
Преодоление ограничивающих факторов
Таким образом, большое внимание уделяется машинам, которые могут «учиться» на прошлом опыте и данных, которые они предоставляют (и, при этом, существует большой объем информации благодаря Интернету). Это обучение, особенно в больших измерениях, требует больших вычислительных ресурсов и затрат памяти, но из-за достижений в области аппаратного обеспечения мы находимся в точке, где это больше не имеет значения. За это мы должны благодарить закон Мура.
Закон Мура - это наблюдение, что количество транзисторов (и, следовательно, вычислительная мощность), которые могут поместиться в плотную интегральную схему, удваивается примерно каждые два года. Замечание сделал Гордон Мур, соучредитель Intel. Мы можем постулировать, что вычислительная мощность = a ⋅ 2 ^ (t / 2), где a - начальная вычислительная мощность, а t - количество лет после первой существующей транзисторной схемы. По сравнению с серединой 1970-х годов в 2016 году у нас в лучшем случае большая вычислительная мощность - 2²⁰!
Таким образом, доступность данных / информации и ограниченная мощность компьютеров больше не были проблемой. Вдобавок ко всему, эвристический поиск, который использовал предшествующие знания и целевой домен, решил комбинаторный взрыв, с которым столкнулись алгоритмы поиска (это решение стало более распространенным по мере увеличения пространств поиска, например, с помощью картографического программного обеспечения). Кроме того, благодаря исследованиям, проводимым не только в академических кругах, но и в ведущих Силиконовой долине и технологических компаниях, компьютерное зрение (например, с помощью беспилотных автомобилей Google) быстро развивалось, особенно за счет использования алгоритмов кластеризации, сегментации и нейронных сетей, которые имели был разблокирован, поскольку другие ограничивающие факторы уменьшились.
Ощутимые академические достижения
Очень сложно назвать и описать примеры революционных проектов в области искусственного интеллекта за последние 20 лет, потому что ... их так чертовски много! В этом десятилетии каждую неделю, кажется, происходит новая революция. Но, как упоминалось ранее, достижения в игровом ИИ - это достойный общий индикатор прогресса ИИ, и поэтому я буду обсуждать новые изобретения, касающиеся этой области.
В 1997 году Deep Blue стал первым ИИ, победившим чемпиона мира (Гарри Каспаров) в игре в шахматы. Это классический пример Слабого ИИ - ИИ, который соответствует уровню интеллекта человека или превосходит его, но только в одной (или одной из потенциальных миллионов) областей. Напротив, Сильный ИИ соответствует или превосходит человеческий интеллект в целом (в большинстве областей). В 2005 году робот из Стэнфорда выиграл DARPA Grand Challenge, автономно проехав 131 милю по пустынной трассе без каких-либо предварительных репетиций на указанной трассе. Всего пару лет спустя CMU выиграла аналогичную задачу, успешно проехав на автономном автомобиле по городской городской среде без каких-либо аварий или аварий. Эти усилия вдохновили такие компании, как Google, Tesla и, возможно, Apple, на разработку коммерческих беспилотных автомобилей. В 2011 году IBM бросила вызов двум Jeapordy! (популярная игра-викторина) поборник универсальной системы искусственного интеллекта Watson и успешно выиграл с значительным отрывом.
Такие поражения (или ничьи) против главных соперников распространяются на такие игры, как шашки, нарды, Отелло, кроссворды, скрэббл, бридж, покер, FreeCell и т. Д. В марте этого года (2016) система глубокого обучения Google бросит вызов мировому сообществу # 1 чемпион в игре в го (которая, как упоминалось ранее, чрезвычайно сложна). Эти подвиги были связаны не с резкими революциями или постоянными сдвигами парадигмы, а скорее с использованием некоторого существующего алгоритма, например. Нейронные сети и утомительное применение инженерных навыков путем итеративного повышения эффективности и точности с помощью новых методов (таких как Dropout, Convolutions или Simulated Annealing) или безжалостной настройки функций. Многие из этих новых приложений публикуются и перевариваются / создаются сообществом ИИ. Это статья Google об использовании сверточных нейронных сетей в их Go AI.
Примечание: я очень мало знаю о сверточных нейронных сетях, но думаю, что сейчас самое время углубиться в подробности :) Спасибо, Ленни Хазан, за то, что познакомил меня с курсом Стэнфорда по этой теме.
Обучение с подкреплением
Важной областью, появившейся только в нынешнюю эпоху, является обучение с подкреплением; Обучение с подкреплением получило широкое распространение только в 1990-х годах. Р.Л. заимствует теорию из экономики и эвристического поиска, чтобы ввести во вселенную интеллектуальных агентов для независимого обучения и выполнения определенных действий.
Интеллектуальный агент - это система, которая может воспринимать окружающую среду как количественное / символическое состояние и предпринимать определенные действия, чтобы максимизировать вероятность будущего успеха в достижении некоторой произвольной цели. За шаг в оптимальном направлении к цели эти агенты получают искусственное вознаграждение. В некоторых случаях этим интеллектуальным агентам необходимо искать компромисс между краткосрочными выгодами и долгосрочными полезностями (где экономика играет роль). Со временем эти интеллектуальные агенты формируют определенное оптимальное поведение, которое они могут использовать в будущем.
Хотя обучение с подкреплением широко используется в играх и робототехнике, изучение интеллектуальных агентов очень мета; он связан с нами, людьми (и всеми другими животными) в нашей песочнице (Земли или, возможно, физической вселенной). Он действительно может описать все виды интеллекта.
Ниже приведен пример интеллектуального агента-аватара Марио, который посредством обучения с подкреплением научился взаимодействовать со своей средой (землей, препятствиями, монетами и т. Д.) В отношении своих действий (прыгать, двигаться вперед, двигаться назад) и некоторых других. состояние цели (завершение уровня / завершение как можно большей части карты).
Искусственный интеллект в промышленности
Однако, пожалуй, самое важное, что нужно понять о современном искусственном интеллекте, - это то, что разработка ИИ больше не предназначена только ради разработки ИИ (или какой-то будущей цели, т. Е. суперинтеллект), но вместо этого также применяется в промышленности. Нельзя сказать, что эти два понятия исключают друг друга, но последнее определенно более заметно, чем первое.
Фактически, именно поэтому Google, Baidu, Facebook и т. Д. Предприняли усилия по исследованию ИИ, как упоминалось ранее. Они не только хотят быть первопроходцами будущего (многие утверждают, что машинный интеллект - это следующая «большая вещь» на экзистенциальном уровне), но они также, что важно, хотят использовать эти инновации в своих потребительских и корпоративных предложениях для получения конкурентного преимущества.
Facebook использует алгоритмы искусственного интеллекта, чтобы понять, какой контент вам нравится больше всего и, следовательно, вы хотели бы видеть в верхней части своей ленты новостей. Google использует искусственный интеллект для персонализированного поиска, а также, в частности, для своих беспилотных автомобилей, которые, как и Tesla, предположительно станут популярными всего через 2–5 лет! Анализ больших данных, распознавание речи, банковское программное обеспечение, медицинская диагностика, распознавание лиц и т. Д. Выполняются на уровне потребителя и предприятия, чтобы сделать продукты более интеллектуальными (следовательно, удобными - например, Siri) и индивидуализированными (например, онлайн-реклама). Искусственный интеллект также используется для обеспечения безопасности на военном уровне, уровня предотвращения мошенничества, извлечения некоторых качественных намерений из сообщений / телефонных звонков / журналов поиска и т. Д. Мощные инструменты, такие как TensorFlow, бесплатно доступны любому разработчику, желающему внедрить сложный ИИ в свои собственные продукты. Многие передовые технологии искусственного интеллекта больше не обозначаются как ИИ, потому что они стали настолько полезными и распространенными в общих приложениях. Другими словами - мы воспринимаем эту технологию как должное!
И, возможно, поэтому искусственный интеллект работает такими быстрыми темпами. Объем денег, инженерных талантов, ресурсов / информации / данных (это ключевой) и общественной поддержки исследовательских проектов намного больше в коммерческом секторе, чем в академических кругах. Добавьте стимул для компаний за многие сотни миллиардов долларов, и такие результаты неизбежны.
Машинное обучение
Давайте на минутку переключимся на другую тему и поговорим о машинном обучении (и, как следствие, глубоком обучении). Машинное обучение, пожалуй, самое популярное в наши дни подмножество искусственного интеллекта и наиболее часто встречающееся в промышленных приложениях. Для ML нет определенного определения, но Том Митчелл из CMU определяет его очень строго как:
Компьютерная программа, которая, как говорят, учится на опыте E в отношении некоторой задачи T и некоторого показателя производительности P, если ее производительность на T, измеренная P, улучшается с опытом E.
Рассмотрим пример, в котором задача T состоит в том, чтобы классифицировать электронное письмо как спам или не как спам. Представьте себе «обучающий набор», в котором у вас есть набор писем, которые известны и помечены как спам или не спам, а затем вы просите машину угадать (используя модель, которую она разработала в процессе обучения - подробнее об этом позже) состояние каждого электронного письма. Для каждого сообщения электронной почты, которое оно классифицирует неправильно, мы уменьшаем показатель производительности или увеличиваем показатель ошибки. Используя эти знания о своей текущей производительности, машина может вносить итерационные корректировки в свою модель (в каком-то направлении, которое может быть решено с помощью вычислений) и переоценивать себя - мы называем это опытом E. Цикл повторяется до тех пор, пока не будет запущена программа машинного обучения. может правильно классифицировать почти все электронные письма.
Машинное обучение очень интересно, потому что оно исследует алгоритмы, которые постоянно учатся на основе данных, чтобы создавать сложные функции, моделирующие данные. Это область обучения, которая дает компьютерам возможность учиться без явного программирования. Во многих отношениях это противоположность экспертным системам. Вместо того, чтобы жестко запрограммировать логические правила в систему, программы машинного обучения могут исследовать данные и (косвенно) разрабатывать свои собственные логические правила с помощью математической функции, обычно в некотором геометрическом пространстве.
Этот показатель эффективности P и опыт E являются математическими понятиями (суммирование среднего квадрата ошибок и частичное дифференцирование соответственно), наиболее конкретно связанные со статистикой и выпуклой оптимизацией. Машинное обучение было действительно вехой бума 1990-х годов, потому что оно продемонстрировало новый вид интеллекта - адаптивный интеллект, который был все ближе и ближе к подражанию людям. Он также взял концепции коннекционизма и развил их дальше. Было ясно, что машинное обучение может автоматизировать (с высокой эффективностью, точностью и новаторскими решениями) многие рутинные задачи, и при этом одновременно вводит новую эру удобства и упора на специальные профессии, заменяя при этом многие рабочие места синего воротничка.
Некоторые из самых популярных алгоритмов машинного обучения включают байесовские сети, искусственные нейронные сети, линейную регрессию, логистическую регрессию, обучение с подкреплением (которое мы рассматривали ранее в этом разделе), опорные векторные машины, кластеризацию, генетические алгоритмы. , Обучение дереву решений и т. Д. Вы заметите, что они почти идентичны тем алгоритмам, которые я представил в начале этого раздела. Это потому, что машинное обучение действительно является фокусом искусственного интеллекта.
Давайте поговорим о машинном обучении более подробно. Особо хочу поговорить о:
- Особенности: это области данных, которые вы пытаетесь смоделировать и в конечном итоге используете для составления четкого прогноза. Например, в программе, которая прогнозирует цену дома на основе различных факторов, характеристиками могут быть: размер дома, местоположение дома, возраст дома и т. Д. n соответствует количеству используемых нами функций. Если n ›1, мы находимся в настройке с несколькими переменными (что почти всегда для промышленных приложений).
- Выходные данные: выходные данные представляют собой установленный (или прогнозируемый) контекстный результат, связанный с характеристиками. Например - цена дома. Это полностью зависит от его характеристик (учитывая, что выбранные функции актуальны). Результат обычно обозначается как y.
- Пример обучения. Пример обучения - это одна запись данных (группа функций + выходные данные), которая была помечена людьми и, следовательно, является «правильной». Например, если бы мы зашли в Интернет и нашли дом площадью 4000 квадратных футов, возрастом 20 лет и расположенный в Пало-Альто, Калифорния, стоимостью 5 миллионов долларов, это был бы единственный обучающий пример.
- Вектор характеристик: в каждом примере обучения есть вектор значений соответствующих характеристик, а также его правильный / установленный результат (цена).
- Обучающий набор: обучающий набор, как обсуждалось ранее, представляет собой набор обучающих примеров, выбранных для алгоритма машинного обучения. Как правило, чем больше обучающий набор, тем лучше результаты (обычно это миллионы обучающих примеров). Эти данные можно найти в Интернете или собрать академическими учреждениями / корпорациями. Наш обучающий набор обычно обозначается как X, а каждый пример обозначается как x. Количество обучающих примеров в нашем обучающем наборе обозначено как m.
- Тенденция: тенденция данных - это общая корреляция между входными и выходными данными. Необходимо смотреть в всеобъемлющее «направление» движения точек данных, а не вникать в индивидуальные, минутные и сложные смещения.
- Шум: шум - это либо а) любые данные, которые выпадают из традиционного «тренда», либо, что более мягко, б) небольшое отклонение (смещение), которое каждая точка данных имеет от тренда (примечание: почти в каждой точке будет это). В большом обучающем наборе у вас гарантированно будет шум, но важно понимать, что шум является стохастическим из-за хаотической физической вселенной, в которой мы живем. Мы не хотим привыкать ко всему шум, потому что это мешает нам экстраполировать тенденцию.
- Модель I: модель - это то, что берет точки данных в некотором (многомерном) входном пространстве и обычно сопоставляет их с одним действительным значением. Нейронные сети здесь отличаются тем, что они могут выводить несколько значений, представляющих вероятности различных «событий» / «состояний». Итак, в этом случае каждая из точек данных во входном пространстве соответствует вектору признаков, а выход - это цена.
- Модель II: как видите, нам нужно «вырезать» нашу модель, чтобы она соответствовала данным / обучающему набору выше, или количественно найти / установить тенденцию . Другими словами, модель это тренд. Но что отличает модель от ее стандартной природы (т.е. y = 0, y = sin (x), y = log (x))? коэффициенты делают. Следовательно, необходимо выбрать оптимальные коэффициенты, которые составляют точную модель. Предполагая, что мы решили выбрать линейную аппроксимацию: y = mx + c, нам нужно выбрать эти параметры m и c подходящим образом (x в данном случае представляет собой значение для одной функции, а y, следовательно, представляет собой выход / цену). Представьте себе «ребрендинг» этих параметров на ϴo и ϴ1 - теперь мы можем кратко сказать, что хотим выбрать оптимальный параметр ϴ / вектор веса.
Теперь мы можем спрогнозировать стоимость дома, если его площадь составит 1925 квадратных метров. Этого нет в нашем наборе данных, но наша информированная модель теперь может сказать нам прогнозируемое значение.
- Вес / Параметры: они эквивалентны коэффициентам в модели. Но они говорят кое-что интересное; они говорят нам, насколько «важна» каждая функция. Если вес функции равен нулю, очевидно, что эта функция вообще не влияет на результат.
- Функция стоимости. Функция стоимости аналогична показателю производительности (или, возможно, является обратной ей). Функция стоимости измеряет величину ошибки, которую модель - или параметры (поскольку они определяют модель) в этом отношении - вносит в обучающий набор. Как правило, это сумма различий между каждым прогнозом на некотором входе и каждым установленным выходом на одном и том же входе. Мы можем возвести в квадрат каждую из этих индивидуальных / основных ошибок, чтобы получить абсолютное значение, удобное дифференцированное выражение, преувеличение очень плохих решений (чтобы мы могли быстро их пропустить) и т. Д. Как правило, мы берем среднее значение по всей обучающей выборке. так что одна аномалия не искажает результаты. Ниже приведен пример функции стоимости линейной регрессии, обозначенной как J (ϴ):
- Оптимизация: Теперь, когда у нас есть функция, которая может «оценивать» каждый набор параметров, мы хотим найти параметры с «наилучшей оценкой» или, в противном случае, с самой низкой стоимостью.
Если бы мы изобразили, как общие затраты изменяются по отношению к изменениям каждого отдельного веса, вы обнаружите, что это выпуклая функция! В случае линейной регрессии нет локальных минимумов, но они вполне могут быть в нейронных сетях (что, как я вскоре объясню, может быть проблемой). Наша цель - найти ту темно-синюю точку, которая имеет наименьшее значение y / стоимость. Для этого есть два разных метода:
a) Аналитическое решение: мы можем просто взять частную производную функции стоимости по каждому отдельному весу и установить для этого выражения значение 0. Если есть локальные минимумы, нам нужно перебрать решения этого уравнение для извлечения глобального минимума. Мы берем касательную к указанной точке и находим нормаль к ней, чтобы получить оптимальное значение для каждого параметра.
Если мы решим это (учитывая, что мы находимся в настройке с несколькими переменными), а затем получим нормальное, мы фактически получим это общее уравнение (обозначенное как «нормальное уравнение»):
Фу! Это что, инверсия матриц? Инверсия такой большой матрицы (помните - миллионы обучающих примеров) требует колоссального объема операций. В частности, наиболее эффективная известная программа инверсии матриц выполняется за время O (n ^ 3), что означает, что по мере увеличения количества и размера (особенно этого) обучающих примеров время, необходимое для выполнения, растет. в кубическом времени.
б) Итерационное решение: выполнение таких сложных вычислений в большом масштабе просто невозможно. Итак, переходим к градиентному спуску. Градиентный спуск просто инициализирует веса некоторым случайным значением, берет частную производную по каждому весу и обновляет каждый вес путем скалярного уменьшения этого значения. После того, как вы проделаете это сотни или сотни тысяч раз, программа «сойдется» в одной точке. Будем надеяться, что это не локальный минимум!
- Обобщение: это, пожалуй, самая фундаментальная концепция машинного обучения. В идеале мы хотим, чтобы программа машинного обучения исследовала данные и создала модель, которая обобщает указанные данные (или, в противном случае, находит тенденцию). Чем лучше мы обобщаем, тем точнее будем делать прогнозы на будущее. У нас может не получиться обобщить набор данных, если мы решим учесть весь шум:
Переобученные модели будут иметь чрезвычайно высокие показатели точности, поэтому модель машинного обучения, например, с. доступ к многочленам высокого порядка может объективно решить проблему переобучения. Есть много разных способов предотвратить это, в первую очередь, включая регуляризацию (когда мы штрафуем сложные модели в нашей функции затрат) и перекрестную проверку (где мы моделируем предсказания реального мира и оцениваем их точность).
Почти все, что я здесь упомянул, по своей сути является статистическим / математическим. Такова природа машинного обучения.
Но я солгал! Я говорил только о действительно одном типе задач машинного обучения - контролируемом обучении в контексте регрессии. На самом деле есть гораздо больше:
Классификация против регрессии
- Регрессия: регрессия - это когда вам нужно предсказать / вывести реальное значение на основе обучающего набора + модели. Пример: прогноз цен на жилье на основе характеристик домов.
- Классификация: классификация - это когда вам нужно предсказать / вывести некоторые дискретные данные на основе обучающей выборки + модели. Пример: прогнозирование того, является ли электронное письмо спамом (0 или 1 - дискретное), на основе его характеристик.
Контролируемые и неконтролируемые
- Контролируемое обучение: контролируемое обучение - это тип задачи машинного обучения, при котором вы предоставляете системе машинного обучения помеченные данные, т. е. особенности домов с соответствующими ценами, также известные как обучающий набор. Система извлечет уроки из этих данных и построит модель для будущих прогнозов. Примерами алгоритмов контролируемого обучения являются алгоритмы классификации и регрессии.
- Обучение без учителя: обучение без учителя - это тип машинного обучения, при котором вы предоставляете системе машинного обучения немаркированные данные, и система должна найти в этих данных внутреннюю структуру. Кроме того, отсутствует обратная связь о работе алгоритма обучения без учителя (в отличие от алгоритма обучения с учителем). Примеры включают сегментацию рынка: попытку сгруппировать - это называется кластеризацией - похожих клиентов в отчетах о продажах компании, чтобы понять различные демографические группы, которые потребляют продукты компании. Обучение без учителя также широко используется в алгоритмах компьютерного зрения.
Описательные модели и прогнозные модели
До сих пор мы в основном рассматривали прогностические модели, например. классификация и регрессия в условиях контролируемого обучения. Там вдобавок существуют описательные модели. Если выходные данные модели включают в себя целевую переменную, мы называем это прогнозной моделью. В противном случае мы называем это описательной моделью. Большинство описательных моделей существуют в неконтролируемой обстановке, и эти две модели часто имеют одну и ту же коннотацию. Описательная кластеризация, матричная декомпозиция и изучение правил ассоциации (подумайте об экспертных системах!) - все это описательные модели без учителя. Предсказательная кластеризация - это прогнозирующая неконтролируемая модель. Обнаружение подгрупп (подумайте о деревьях решений!) - это описательная управляемая модель.
Примечание: полу-контролируемое обучение тоже существует, но я мало о нем знаю. Возможно, мне стоит это исправить!
Геометрические модели против вероятностных моделей против логических моделей
- Геометрические модели - это модели, которые построены непосредственно в пространстве экземпляров - наборе всех возможных или описываемых экземпляров, включая и исключая те, которые входят в наш обучающий набор, - с использованием геометрических понятий, таких как линии, плоскости, расстояния, кривые (полиномиальные функции) и т. д. Преимущество геометрических моделей в том, что их легко визуализировать, но мы также не должны забывать, что большинство промышленных приложений имеют четыре и более измерений (миллионы измерений!), которые для нас просто невозможно понять. В этом случае используется линейная алгебра. Геометрические понятия в высокой размерности обычно обозначаются префиксом «гипер-», например, «гиперплоскость». В регрессии мы хотим создать гипер- плоскость, которая точно соответствует данным и может использоваться для прогнозирования новых реальных значений. При классификации мы хотим создать гипер- плоскость, которая разделяет два класса данных (например, спам или не спам). При кластеризации мы пытаемся найти отдельные «кластеры» точек данных, которые отделены от других кластеров. Геометрические модели обычно используют меры расстояния в качестве принципа для функции измерения производительности / стоимости.
- Вероятностные модели - это совершенно другой тип моделей. Цель вероятностной модели - смоделировать взаимосвязь между X и y, то есть все функции и выходные данные. Мы можем сделать это с помощью статистики, а точнее, прогнозируя вероятность наступления события на основе исторических данных. P (Y | X) означает вероятность Y (предположим, Y означает, что электронное письмо является спамом), учитывая, что данные функции X произошли / наблюдались (они вероятностно зависят). Например, если электронное письмо содержит экземпляры слов Viagra и Nigerian Price, P (Y = спам | Viagra, Nigerian Prince) может быть очень близко к 1. Это называется апостериорной вероятностью, поскольку оно используется после знания данных X. Помните, что выражение P (Y = спам | Виагра, Нигерийский принц) + P (Y = ветчина | Виагра, Нигерийский принц) будет равно 1. В вероятностных моделях мы можем выбрать решение правило », которое округляет вероятность до некоторого определенного состояния. Например, если вывод P (Y = спам | X) больше или равен 0,5, мы классифицируем его как спам. В противном случае мы классифицируем его как ветчину. Мы могли бы изменить эту границу и, например, изменить ее на 0,7, чтобы обезопасить себя и уменьшить количество ложных срабатываний (которые могут привести к тому, что владелец учетной записи пропустит потенциально важные электронные письма). Вместо апостериорных вероятностей мы также можем посмотреть на функцию правдоподобия P (X | Y). Это означает, что мы ищем, насколько вероятно, что каждое из значений в векторе признаков X будет основано на некотором состоянии Y. Величина каждого отдельного значения в X будет чрезвычайно мала из-за объема функций (подумайте, возможно, каждое слово в словаре), но нас больше интересуют соотношения между собой. Например, P (X = Виагра | Y = Спам) может быть в пять раз больше, чем P (X = Виагра | Y = Ham), даже если оба значения будут очень близки к нулю. Используя эти знания, мы могли бы установить правило принятия решения, которое работает с отношениями выходных данных функции правдоподобия. Функцию правдоподобия и апостериорные вероятности можно легко преобразовать с помощью знаменитого правила Байеса (не забудьте прочитать подпись):
Когда мы обучаем вероятностные модели на основе обучающего набора, мы устанавливаем значения для априорных вероятностей P (A). Если вас интересуют вероятностные модели, обратите внимание на один из самых популярных алгоритмов под названием Наивный байесовский классификатор.
Примечание: надеюсь, я правильно понял! Я не слишком много знаю о вероятностных моделях, и скоро я найду их в своем учебнике по машинному обучению.
- Логические модели - это модели, которые можно легко преобразовать в различные логические правила, аналогичные правилам экспертных систем или операторам if в программировании. Например:
если в электронном письме есть слово виагра: если в письме есть слово синяя таблетка: тогда электронное письмо является спамом
Многие разные логические правила работают вместе и накладываются друг на друга, чтобы построить сложную систему, которая может принимать объекты и определять их статус на основе различных атрибутов, из которых они состоят. Эти правила могут быть организованы в виде древовидной структуры данных.
Как видите, каждый «узел» в дереве решений разветвляется на два разных новых узла. Каждый «уровень» сегментирует объект на отдельные группы (сегменты пространства экземпляра) до тех пор, пока не будет выполнено полное сокращение, чтобы можно было присвоить статус. Вот почему они называются алгоритмами «отделяй и властвуй».
Самая интересная вещь о деревьях решений и логических моделях - это порядок компараторов / атрибутов, в которых следует разделять модели (и какие из них разделять - хотя, скорее всего, вы будете разделять по всем). Помните, что это производит машина, а не человек. Вот почему так интересны логические модели; они очень интуитивно понятны и просты для понимания. Подобно тому, как геометрические модели выражают аргументацию своего выбора через их веса, логические модели выражают свой выбор через свои объективные правила. Помните, что это не просто подгонка данных, а понимание того, как различные компоненты данных могут быть разделены и рассмотрены для принятия окончательного решения.
Общая идея состоит в том, чтобы на каждом уровне разделять экземпляры с наибольшим информационным выигрышем. Получение информации - это концепция, которая позволяет нам понять, какие правила больше всего говорят нам о конечном результате, и, следовательно, максимальное получение информации в каждой точке создаст наибольшее разделение. Мы хотим разделить высокий уровень наверху и более мелкий уровень ближе к основанию. Я считаю эту концепцию увлекательной, и вы можете узнать о ней больше здесь.
Группировка и оценка
Есть два последних способа провести различие между моделями машинного обучения: группировка и оценка. Они отличаются тем, как модели работают с пространством экземпляров.
- Модели группирования разбивают пространство экземпляра на различное количество сегментов (определяемое алгоритмом или пользователем). Точки данных попадают в эти сегменты, и диапазон этих точек данных является наибольшим «разрешением» или «изображением», доступным для алгоритма. Наиболее очевидный пример - алгоритм кластеризации без учителя.
- Модели оценки образуют одну глобальную модель по всему пространству экземпляра. Хотя эта модель основана на обучающем наборе (который на самом деле является фокусом модели), им доступно бесконечно большое разрешение (например, декартово пространство экземпляров). Модели оценки могут отличать каждый экземпляр / точку данных от следующего, но модели группирования будут классифицировать набор точек вместе. Примером может служить любой алгоритм регрессии и алгоритмы линейной классификации.
Некоторые алгоритмы имеют степень, в которой они группируют и оценивают модели соответственно. алгоритм k-ближайших соседей, например, в основном оценивает, но также несколько группирует.
И это введение в машинное обучение в 21 веке! Надеюсь, вам понравилось быстрое погружение в математику.
Глубокое обучение
Я просто хотел добавить небольшую заметку о глубоком обучении. Глубокое обучение, несомненно, является модным словом искусственного интеллекта 21 века. Если машинное обучение в первую очередь продвигает промышленное применение, глубокое обучение - это побочный продукт, который нацелен на продвижение области искусственного интеллекта (как в старые времена). В действительности, как уже упоминалось пару раз ранее, глубокое обучение - это просто очень сложные и глубокие искусственные нейронные сети / сверточные нейронные сети, которые были спроектированы для максимальной эффективности и точности с использованием новых методов, открытых исследователями в этой области. Ему действительно просто нужна была новая личность. Следите за прогрессом в глубоком обучении здесь.
III. Будущее
Я думаю, будет справедливо сказать, что ∂Time / ∂Progress для Time = 2016 является исключительно большим значением. Но что дальше? Беспилотные автомобили, полностью автоматизированное производство, персональные помощники…? Определенно. Но в конечном итоге: Сверхразум.
Илон Маск, Сэм Альтман, Билл Гейтс и многие другие профессионалы предсказывают, что суперинтеллект будет достигнут к 2075 году. То есть они верят, что превосходящий человеческий интеллект будет существовать минимум через 30 и максимум через 80 лет. И они тоже не настроены оптимистично; все эти лидеры отрасли верят, что суперинтеллект представляет для нас серьезный риск.
Но разве Марвин Мински и пионеры Золотого года не предлагали одно и то же? По их меркам, к 1978 году у нас был бы ИИ человеческого уровня, а с тех пор, несомненно, был бы суперинтеллект. Но мы даже не близки к достижению первого, не говоря уже о том, что мы почти на 40 лет отстаем от их прогнозов.
Вскоре после их оптимистических предположений искусственный интеллект потерпел крах; зима AI. И история повторилась дважды. Конечно, касательная к нашей текущей точке имеет крутой градиент, но кто может сказать, что точка перегиба не наступает? В качестве альтернативы мы могли бы достичь плеча или плоского локального максимума. В любом случае, мы должны оставаться осторожными.
С учетом вышесказанного, на данный момент общепризнано, что такой подвиг будет не достигнут через резкий «прорыв», а скорее через десятилетия многоуровневого утомительного применения инженерных навыков. При этом многие скептики, такие как Эндрю Нг (который является одним из лидеров современного машинного обучения), утверждают, что используемые в настоящее время алгоритмы просто не являются правильным направлением для окончательного машинного интеллекта. А значит, опасности они не представляют.
Но если ясно одно, так это то, что мы движемся вперед. Мы внедряем инновации такими темпами, как никогда раньше, и наши темпы инноваций растут в геометрической прогрессии. Возможно, нам следует беспокоиться о сверхразуме, потому что независимо от того, будет ли он достигнут в ближайшем будущем или нет, его развитие неизбежно.
Таким образом, важно понимать: как можно достичь суперинтеллекта, какие формы суперинтеллекта могут возникнуть, какие опасности они несут и как может произойти взрыв интеллекта.
Пути к суперинтеллекту
- Искусственный интеллект. Это наиболее вероятный путь к сверхразуму. В конце концов, мы можем разработать программное обеспечение, которое сможет использовать мощные алгоритмы (потенциально порожденные глубоким обучением и такими областями, как НЛП, компьютерное зрение и т. Д.), Большую вычислительную мощность, доступ к огромному объему информации и данных, ← → доступ к Интернету , и возможность доступа к «внутренней модели реальности». Эта модель реальности позволит ему делать прогнозы относительно результатов физических действий в реальном мире. Обладая этими свойствами, суперинтеллект сможет взаимодействовать с инфраструктурой вокруг нас и легко преодолевать любую навязанную песочницу, например. через самосовершенствование (возможно, с помощью генетических алгоритмов или НЛП).
- Биологическая эмуляция: Это, на мой взгляд, очень похоже на искусственный интеллект. Эмуляция мозга - это создание интеллектуального программного обеспечения, имитирующего биологический мозг. Он будет делать это путем сканирования мозга и его внутреннего содержимого / работы, пытаясь создать цифровую реализацию, имитирующую его функцию. Многие биологи и химики разработали теоретические решения, используя для этого подробный осмотр, вскрытие и обработку изображений (я предлагаю вам прочитать книгу Ника Бострома Суперинтеллект, чтобы узнать больше). Единственное ограничение здесь состоит в том, что интеллект может быть ограничен человеческим субъектом и, возможно, не превзойти суперинтеллект - тем более, что человеческая песочница физической вселенной резко контрастирует с виртуальной песочницей цифровых вычислений. И поэтому трудно понять, как может произойти взрыв разведки. Технические ограничения, очевидно, касаются технологий сканирования, перевода и моделирования. Правдоподобна ли имитация мозга? Возможно, поскольку у нас уже есть разумные вычислительные модели нейронных процессов.
- Биологическое улучшение. Это еще один вероятный путь, который на удивление отличается от традиционного пути искусственного интеллекта. Прямо сейчас взрослые могут выбирать (а не опечатку) особенности внешнего вида для своего потомства. Этот процесс называется «генная инженерия», и он важен не только для сельскохозяйственных культур! Если бы мы достигли генетического отбора по интеллекту / вычислительной способности мозга, мы могли бы произвести потомство с безупречно высоким IQ. Нынешние взрослые также могут употреблять препараты для повышения интеллекта. Если бы мы итеративно выполняли это через несколько поколений, то можно было бы создать группу сверхразумных людей. Скорее всего, эти люди сначала будут жить в своем собственном обществе, а не смешиваться с населением в целом. Однако по прошествии длительного периода времени различие между двойным размытием и естественным отбором привело бы к конвергенции в сверхразум. Важно отметить, что этот путь основан не только на техническом прогрессе, но и на бесчисленных годах, прежде чем он вступит в силу. Не говоря уже о том, что регулирование со стороны правительств и религиозных групп может предотвратить это когда-либо.
- Биологическое взаимодействие. Может ли компьютер подключаться к мозгу, вместо того чтобы имитировать мозг, и работать с ним рука об руку? Это известно как интерфейс мозг-компьютер. B.C.I. может дать людям такие преимущества компьютеров, как точные и быстрые арифметические вычисления, надежная память и хранение данных. Однако такая технология вызывает серьезные опасения для здоровья, в первую очередь риск инфекций или повреждения головного мозга. Подобно эмуляции, трудно понять, как это может привести к взрыву интеллекта, особенно потому, что эти цифровые «мозги» не могут быть быстро воспроизведены. Они требуют связи с физическим человеком и существуют только тогда, когда указанная связь установлена; они не могут быть выгружены. Однако явным преимуществом является то, что это обеспечит широкополосную передачу данных между онлайн-информацией и мозгом. Субъект может иметь возможность напрямую «загружать» петабайты данных из Интернета в свой разум, что, возможно, может создать форму суперинтеллекта (известную как коллективный суперинтеллект). Однако мы недостаточно знаем о мозге на биологическом / психологическом уровне, чтобы с уверенностью предположить, что эта функция немедленной загрузки и доступа действительно возможна.
- Сети: мы поговорим об этом подробнее в следующем разделе, но можно возразить, что сеть сверхразумных умов / агентов и множество информации могут быть объединены в одну сверхразумную сущность. Однако трудно интуитивно понять, как сбор данных может стать осознанным. Ник Бостром хорошо передает это, говоря:
Но как насчет, казалось бы, более фантастической идеи, что Интернет может однажды «проснуться»? Может ли Интернет стать чем-то большим, чем просто хребет слабо интегрированного коллективного суперинтеллекта - чем-то более похожим на виртуальный череп, вмещающий формирующийся единый сверхразум?
Идея о том, что Интернет спонтанно станет осознанным, абсурдна. Более вероятно, что через десятилетия разработки Интернет может представлять собой форму веб-интеллекта с помощью таких функций, как автономные боты, мощные алгоритмы поиска, структуры данных и т. Д.
Формы суперинтеллекта
Мы можем разделить формы суперинтеллекта на три отдельные группы.
- Сверхразум скорости эквивалентен слабому сверхразуму в том смысле, что это интеллект, который так же умен, как человеческий разум, но действует на несколько порядков быстрее. Биологическое взаимодействие и биологическая эмуляция являются подходящими примерами.
- Коллективный суперинтеллект - это совокупность или совокупность высокоинтеллектуальных умов / агентов и информации в нескольких общих областях, которые объединяются в одну сверхразумную сущность. Сети / организации являются примером (биологическое взаимодействие тоже может быть).
- Качественный суперинтеллект эквивалентен сильному суперинтеллекту в том смысле, что это интеллект, который, по крайней мере, так же быстр, как у людей, по скорости обработки, но на несколько порядков умнее. Как мы определяем «умнее», неясно и скорее качественно, чем количественно (если психологи не решат эту проблему в ближайшем будущем). Так же, как мы умнее шимпанзе, суперинтеллект умнее нас точно так же. Искусственный интеллект и Биологическое совершенствование являются яркими примерами.
Взрыв интеллекта и сингулярность
Если бы мы создавали сверхразумных агентов, мы по определению создавали бы интеллект, превосходящий наш. Я сделал диаграмму, чтобы продемонстрировать последствия этого:
Если наш интеллект является разновидностью суперинтеллекта, то, по логике вещей, суперинтеллект умеет создавать других интеллектуальных агентов. Они могут самосовершенствоваться, изменять собственный исходный код и писать новый код. Каждый сверхразумный агент мог порождать новых интеллектуальных агентов. Инфраструктура не будет проблемой; если мы отключим серверы, то, по логике вещей, сверхразум будет знать, как их повернуть (и использовать свой больший интеллект, чтобы проникнуть внутрь). Учитывая, что суперинтеллект имел цель сделать это, суперинтеллект мог вызвать взрыв интеллекта. Писатель-фантаст Вернор Виндж впервые назвал это тем, о чем многие из вас, возможно, слышали: Сингулярность.
Когда в нашей цивилизации доминирует сверхразум (опять же, с любыми моральными намерениями или нет), мы обязаны реагировать. Предполагая непрерывное увеличение интеллекта, будет существовать произвольный момент времени t, когда машинный интеллект не сверхразум, но очень близок. Также будет момент времени t + ε, когда машинный интеллект является сверхразумным. (t + ε) - t или ε обозначает «продолжительность взлета».
- Если продолжительность взлета велика (то есть несколько десятилетий или столетий), у правительства, лоббистов, организаций, корпораций и широкой общественности есть возможность вмешаться до того, как будет достигнут суперинтеллект. Также будут разработаны технологии для защиты нашей инфраструктуры или борьбы с интеллектом.
- Если продолжительность взлета умеренная (например, месяцы или годы), люди могут быть в состоянии отреагировать, но не проанализировать ситуацию достаточно глубоко, чтобы развернуть новые системы защиты (но существующие могут быть повторены).
- Если продолжительность взлета, в худшем случае, будет короткой (то есть минуты, часы или дни), у нас будет мало или вообще не будет возможности отреагировать, и мы должны полагаться на любую предварительную подготовку.
Опасность суперинтеллекта
Почему суперинтеллект представляет опасность для человечества? Большинство людей думают, что сверхразумные роботы могут «обратить зло» и пуститься в безжалостный и безжалостный поиск по уничтожению человечества. Могут ли лидеры отрасли действительно защищать (или против) эту идею?
Нет, это не так. Судьба человечества в стиле Терминатора - это просто выдумка. Илон Маск, Билл Гейтс и Сэм Альтман вполне обоснованно опасаются суперинтеллекта. Итак - в чем причина? Ответ - эмоциональный интеллект или его отсутствие. Реальность такова, что у машин нет морали; они аморальны. Текущее направление развития области (прямо сейчас и в обозримом будущем) не указывает на развитие искусственного эмоционального интеллекта. Искусственный интеллект - это не экстремистское «добро» (герой), искусственный интеллект - не экстремистское «плохое» (злодей), искусственный интеллект экстремистский аморал. И ИИ не только аморален, он чисто математичен и логичен.
Напомним, что когда искусственному интеллекту дается задача, он пытается оптимизировать (в максимальной степени) на основе функции пригодности / стоимости. Имея доступ к огромному объему информации / коллективному интеллекту, безупречной скорости процессора и сверхразумным алгоритмам, искусственный интеллект может найти непредсказуемые, но оптимальные (иногда замечательные, иногда совершенно пугающие) решения для основные проблемы… безжалостно. Давайте проведем мысленный эксперимент, адаптированный из видео на YouTube, которое я недавно смотрел:
- Мы даем сверхразумному ИИ задачу: взять мою кредитную карту и найти в Интернете самый дешевый набор марок.
- На этом этапе суперинтеллект имеет доступ к внутренней модели реальности (для обработки физических / реальных результатов), Интернету и, следовательно, в конечном итоге к инфраструктуре.
- ИИ пытается оптимизировать: он находит в Интернете дешевый набор марок. Но его текущая пригодность все еще относительно велика.
- ИИ оптимизирует дальше: он проверяет набор действий с помощью своей внутренней модели реальности и выполняет их. Искусственный интеллект отправляет сообщение продавцу на eBay и убеждает его отказаться от марок бесплатно после того, как он пригрозил продавцу секретами, обнаруженными после обширного онлайн-анализа и поиска.
- После миллионов итераций ИИ нашел наиболее оптимальное решение: нарушить правила печати национальных денег и напечатать миллионы наличными, чтобы: а) купить марки, б) получить дополнительно прибыль ( фактически покупка за отрицательное значение!).
В данном случае ИИ действует аморально и, возможно, даже может вызвать серьезные негативные экономические последствия. Но он не знает. Он действует аморально и находит наиболее оптимальное решение, которое, как оказалось, в нашем иерархическом и (в абсолютном выражении) ограничивающем обществе является аморальным. Обладая огромной скоростью обработки, он работает безжалостно. Со стороны это похоже на психопата!
Становится хуже; поставьте перед ИИ задачу решить проблему глобального потепления, и он может уничтожить половину человечества. Помните, у суперинтеллекта нет песочницы - наш интеллект является частью его интеллекта, и он может самосовершенствоваться или даже вызывать взрыв интеллекта (создавать множество сверхразумных агентов для казни людей ). А с доступом к инфраструктуре он мог бы реализовать быстрый, аккуратный и беспроблемный способ уничтожения населения, т.е. отравить все источники воды.
Итак, вы можете сказать: внедрите этический стандарт в фитнес-функцию. Есть несколько проблем. Во-первых, если был достигнут суперинтеллект, этическая машина - это всего лишь модуль над технологией. Сначала новые открытия могут быть с закрытым исходным кодом, но, в конце концов, поскольку инновации развиваются экспоненциально, академические исследователи добьются успеха и сделают результаты открытыми. Секреты также могут не соблюдаться, и это не говоря уже о том, что сверхразум может просочиться (намеренно или случайно) из государственных программ. Если злоумышленники получили доступ к этим программам, игра окончена.
Но есть еще большая проблема: этика, возможно, является самым самым большим нерешенным вопросом в философии. Какой этический стандарт мы выбираем? Этика утилитаризма? Кантовская этика? Последующая этика?
Если пять человек привязаны к действующему железнодорожному пути, а один человек привязан к неактивному пути, решим ли мы убить одного человека вместо пятерых? Утилитарная этика, например, утверждает, что последствия одной смерти ‹последствия пяти смертей.
Вы бы согласились?
Насчет того, чтобы сказать AI: не трогайте никого. Но в физически детерминированной вселенной переключение переключателя на одной кнопке может косвенно привести к смерти человека. Здесь ставится под сомнение свобода воли!
И если мы скажем ИИ: не убивайте человека напрямую, он может просто выполнить какое-то действие, которое, по его прогнозам, убьет человека косвенно, используя силу своей внутренней модели. реальности.
Сэм Альтман лучше всего выражает это, когда говорит:
К сожалению для нас, когда я был студентом Стэнфордской лаборатории искусственного интеллекта, я узнал, что программы часто достигают своей фитнес-функции непредсказуемым образом.
К сожалению для нас.
IV. Спасибо!
В конце этой колоссальной статьи я с радостью узнаю о математических тонкостях, лежащих в основе избранных алгоритмов. Следите за моими статьями об обратном распространении и нормальных уравнениях в ближайшие дни и недели.