После моей первой встречи в Pearson, посвященной технологиям будущего и инновациям, и вопросов, поднятых на ней в отношении ИИ, меня привели к статье The Atlantic 2012 года о Ноаме Хомски О том, где искусственный интеллект ошибся. Он довольно плотный и охватывает множество тем от ИИ и лингвистики до эволюции языка и биологических систем, поэтому подумал, что я напишу своего рода резюме разговора об ИИ и лингвистике, а также свои отступления - я постараюсь и будь кратким. Также имейте в виду, что я исхожу из лингвистического фона, а не с технологической точки зрения. В духе этой статьи, я считаю, что полезно принимать во внимание все дисциплины и учиться на них, а не просто думать о себе, поэтому я надеюсь дать другое понимание того, что в остальном рассматривается как техническое и математическое, - и я » Я очень приветствую комментарии обо всем, что я написал, так как я тоже не претендую на то, чтобы быть экспертом в области искусственного интеллекта.

Происхождение языка - горячо обсуждаемая тема в лингвистике. Его «Универсальная грамматика», в которой доминирует Ноам Хомский, представляет собой маленький черный ящик, из которого, по его мнению, исходит врожденная способность человека «говорить». Он считает, что есть часть нашего мозга, где весь наш язык хранится с рождения, и он раскрывается постепенно, когда мы становимся старше. Есть языковые структуры, которые мы изучаем, мало-помалу, которые разрастаются в сложные структуры, пока мы, наконец, не оказываемся на языковом велосипеде, никаких стабилизаторов, никто не держит велосипед, и, возможно, даже «смотри, мама, без рук!». Это далеко от того, как мы изначально думали, что приобрели язык: подражание (из бихевиористской теории обезьяны-видят-обезьяны-делают).

Итак, как это соотносится с ИИ? По словам Хомского, мы создаем ИИ в духе бихевиоризма, а не в соответствии с универсальной грамматикой.

«По мнению Хомского,« новый ИИ », ориентированный на использование методов статистического обучения для лучшего сбора и прогнозирования данных, скорее всего, приведет к общим принципам о природе разумных существ или о познании».

Вышеупомянутая цитата Хомского напомнила мне об Alexa и Google Home; моя семья теперь является счастливым обладателем обоих (ах, праздников). Когда я спрашиваю о чем-то слишком сложном, за пределами ее «потока сознания», я получаю «Я не могу на это ответить» - это потому, что я не дал ей то, что ей нужно, или что она не была запрограммирована на это ». думать об этом? Может ли она имитировать то, что я прошу, только потому, что повторяет то, что делала раньше? Это сообщение «Я всегда учусь», которое я получаю от Crowdfire. Crowdfire может взять все мои данные в Твиттере и сказать мне, что я должен делать, основываясь на том, что ему сказали, что это хорошо делать, но он не может делать ничего, кроме входных данных, поэтому может только напрямую имитировать вход = бихевиоризм. И для Хомского это не «интеллект», это просто попугай.

Более того, Хомский в основном считает, что язык слишком сложен для нашего понимания и что нейробиология последние пару сотен лет шла по ложному пути. Ой. Он думает, что мы, возможно, «ищем не в том месте», что, на мой взгляд, является верным представлением, когда речь идет об исследованиях и экспериментах. Я помню, как это очень просто объясняли как плохую конструктивную валидность. Если, например, вы дали классу пятого класса тест по математике по английскому языку в Бронксе - вы можете намереваться проверить их математические навыки, но на каком-то уровне (в зависимости от каждого ученика) вы также проверяете их знание языка - если они не полностью понимают язык, на котором написан вопрос, потому что у них нет математических навыков или языковых навыков? Поэтому, когда вы проверяете их математические навыки, а они не отвечают или «угадывают» и ошибаются, вы можете отчетливо сказать, что их математические навыки низкие, без учета языковой переменной. Но можем ли мы когда-нибудь учесть каждую изменяющуюся переменную? Понедельник всегда ужасен, или снег и лед в Нью-Йорке и мрачные лица в метро делают это так?

Хомский сравнивает это с избавлением от физического факультета и заменой его бесконечным количеством видеозаписей того, что происходит за пределами видеозаписи. Поместив все данные в огромную машину, способную анализировать гигантские объемы данных, вы должны ожидать предсказания того, что произойдет дальше - вы даже можете получить более точный прогноз, чем то, что когда-либо даст физический факультет. На этом этапе успех определяется как «получение точного приближения к массе хаотичных неанализированных данных ... но вы не получите того понимания, на которое всегда были нацелены науки - вы получите приблизительное представление о том, что происходит ». Он говорит, что это похоже на анализ погоды - вы можете угадывать, основываясь на вероятности, статистике и предположениях, но, в конце концов, это не то, что делают метеорологи: они разбираются в как работает.

Он не игнорирует статистику или вероятность, но задает верный вопрос:

Если вы можете его использовать, хорошо. Но вопрос в том, для чего вы его используете? Есть ли смысл разбираться в зашумленных данных? Есть ли смысл понимать, что происходит за окном [видео]?

Это правда, что мы не приобретаем язык, просеивая данные - это метод проб и ошибок, самокоррекция, выводы и т. Д., И почему мы пытаемся создать ИИ таким же образом? По словам Хомского, отказавшись от игры с числами и бесконечного анализа данных, мы никогда не приблизимся к пониманию того, как работает язык. Но это нормально? Пока ИИ может давать нам приличный результат, нужно ли нам, чтобы они казались людьми?

Это почти перекликается с тем, о чем говорил Ларри Бергер во время Недели образовательных технологий в Нью-Йорке о том, что у нас ТАКОЕ много данных и что мы не совсем понимаем, что с ними делать, потому что мы не продвинулись так далеко, как хотелось бы. Я чувствовал, что его идеи в значительной степени лопнули мыльный пузырь технических энтузиастов, которые думают, что технологии могут решить все мировые проблемы - возможно, но пока нет. По сути, вас могут легко ввести в заблуждение эксперименты, которые кажутся работоспособными, потому что вы недостаточно знаете о том, что ищете.

Вы хороши ровно настолько, насколько хороша ваша компания, и Хомский не исключение. Другой его друг, доктор Дэвид Марр, определил общую схему изучения сложных биологических систем (см. Выше), большим поклонником которой является Хомский. Имея это в виду, Хомский обсуждает, есть ли вообще у языка алгоритм, поскольку язык приобретается и создается произвольно, и что, используя алгоритмы статистического вывода, мы все еще не понимаем сути того, как / где работает язык, и, таким образом, имеем дело со статистической ерундой. это не так уж и надежно.

Если вы получаете все больше и больше данных и все более качественную статистику, вы можете все лучше и лучше приближаться к огромному массиву текста, как все архивы The Wall Street Journal - но вы ничего не узнаете о языке .

Аргумент Хомского, опираясь на концепцию Марра, состоит в том, что не существует алгоритма для самой системы языка. Они предназначены для выполнения процессов когнитивной системы, но на этом все заканчивается - язык сопоставим с биологическими системами, такими как иммунная система, он очень сложен и не может быть выведен только на основе статистики и данных. Проще говоря, вы не можете свести языковые процессы мозга к компьютеру.

Как лингвист, у меня были отношения любви-ненависти с Ноамом, особенно после того, как он много раз участвовал в моей бакалаврской программе по политологии, для меня он был мастером на все руки (но вообще блестящим). Я никогда полностью не понимал, как появился черный ящик ... вы не можете его найти, описать или узнать, как он работает - как будто кто-то волшебным образом уронил его в ваш мозг. Мне, однако, нравится тот факт, что он (неизбежно) говорит о Тьюринге, вызывая у меня ностальгические чувства с тех пор, как Алан Тьюринг пошел в мою школу и «Игра в имитацию» снималась в деревне (и школе), в которой я вырос (известняковые арки в вся их слава). Тьюринг, согласно Хомскому, смог найти простейшую формулу Марра - вычислительный аспект языка, такой как «читать» и «писать», - но «вы должны начать с того, что посмотрите, что там и что работает, и вы увидите это с самого высокого уровня [реализации] Марра ». Если, действительно, ИИ никогда не может быть «умным», не зная внутренней работы и тайны Универсальной грамматики и языковых процессов, разве ИИ «пошел не так»?