ДА, ЭТО ДЕЙСТВУЕТ, И ВСЕ НАС СПАСИТ НЕ БУДЕТ

Искусственный интеллект (ИИ) взаимодействует с нами каждый день. Когда это хорошо, у него есть потенциал помочь людям и сделать нашу жизнь проще и удобнее. Однако ИИ по-прежнему крайне ограничен с точки зрения точности, эффективности и узости задачи. Слишком часто ИИ создает жуткое, странное и разочаровывающее взаимодействие с пользователем, особенно когда ИИ имитирует человека или рассматривает пользователя как продукт. Расизм, сексизм и другие формы фанатизма появляются в ИИ с тревожной регулярностью. Эти тенденции не ограничиваются взрослыми. Часто мрачно смотреть, как дети взаимодействуют с ИИ. Нам до сих пор неизвестны передовые методы использования ИИ детьми, помимо ограничения воздействия. Большинство ИИ плохие, жуткие и не делают того, что должны. Но, понимая предположения, которые создали эти проблемы, мы можем направить ИИ в более позитивном и продуктивном направлении.

Ваш ИИ отстой по разным причинам. В этой вводной статье я расскажу, что происходит и как это исправить. Я намеренно краток, так как планирую подробно остановиться на каждом из пунктов ниже в собственной статье в следующей серии!

ТЕХНОЛОГИЯ СЛАБАЯ И НЕ ХОРОШО РАБОТАЕТ

Для ИИ разговорных ботов боты ломаются, когда вы выходите за рамки сценария. Когда боты ломаются, вас часто перенаправляют к человеку, но часто он не сообщает вам, что вы разговариваете с человеком. Наступает хаос. Классификаторы текста и фотографий AI часто ошибаются. Сколько раз в вашем предсказательном тексте было принудительно «пригнуться»? Какое-то время в подсказке Google для слова «сидеть» было «мое лицо». К сожалению, ИИ склонны к сексистским, расистским и фанатичным ошибкам, таким как Google Фото, принимающие чернокожих за горилл. Microsoft создала чат-бота, обученного на пользовательских данных Twitter, который начинался с фраз типа «Люди крутые» и в течение 24 часов генерировал твиты типа «Я, черт возьми, ненавижу феминисток, и они все должны умереть и сгореть в аду». Последствия могут быть даже фатальными; На сегодняшний день беспилотные автомобили убили пять человек.

НАЙМ СЛОМАННЫХ ТЕХНОЛОГИЙ ДЕЛАЕТ ПЛОХОЙ ИИ

Люди, производящие много этих продуктов, не думают и не тестируют дальше доминирующего большинства технических работников с высоким доходом / трудоспособного возраста / цис / гетеросексуалов / белых или азиатских / мужчин. Несмотря на словесные заявления об обратном, найм технических специалистов не отличается разнообразием. Я прошел через ад, связанный с разнообразием найма. Компании известных брендов проводят меня через излишне агрессивные, эксплуататорски трудоемкие и неуместно грубые технические проверки. Чем больше компания заявляет о своей приверженности разнообразию, тем менее бессмысленно стрессовая и сизифовская практика приема на работу искажает разнообразие в техническом найме.

Наем технических специалистов демонстрирует нежелание нанимать опытных кандидатов, получивших образование после нескольких лет обучения в университете, людей с нетрадиционным образованием и склонных к антиобщественным типам личности. Люди, создающие продукты, редко имеют опыт работы с UX / UI, продуктом, психологией, человеческим поведением или развитием детей. Когда они есть, этот опыт используется для манипулирования людьми и наркомании, размывая смысл и цель ради прибыли. Многие ученые и разработчики, создающие инструменты для творчества, даже не разбираются в творчестве. Они производят те продукты, которые им нужны, редко отражая интересы различных пользователей.

ВЫ ПРОДУКТ

Слишком часто вы не являетесь клиентом; ваши данные продаются. Искусственный интеллект обслуживает корпоративные потребности, а не потребности человека. Почему Google, Facebook и Snapchat бесплатны? Почему такие дешевые устройства для прослушивания, как Alexa? Когда Алекса слушает? Какую информацию она собирает? Когда продукт является пользователем, может пострадать личная безопасность.

ДЕТИ + ИИ = ДИСТОПИЯ

У нас нет понимания долгосрочного воздействия ИИ на развитие ребенка. Мы разрешаем детям взаимодействовать с ИИ, а родительский контроль позволяет отображать только контент для взрослых. Взаимодействие ребенка с продуктом - это запоздалая мысль. Вы видели, как дети приказывают Алексе или Сири? Ясно, что сострадательное развитие ребенка непродуктивно. Как эти инструменты повлияют на развитие ребенка спустя годы?

ИИ можно создать, чтобы научить детей сотрудничеству и сочувствию. Росс Ингрэм, основатель и генеральный директор Maslo, пришел из Sphero, сферы робототехники, которая поощряет обучение через игру. Он получил широкое распространение в начальных и средних школах как инструмент преподавания STEM. Опыт Sphero основан на сотрудничестве и сотрудничестве - здесь явно отсутствуют дети, разочарованно лающие и кричащие, когда ИИ их не понимает. Вот так мы можем сделать ИИ более склонным к сотрудничеству и чутким.

ВАШЕМУ ИИ НЕ ДОЛЖЕН ОТСАСЫВАТЬ

Ни одна из этих проблем не является непреодолимой. ИИ не нужно имитировать людей или проходить тест Тьюринга. Мы можем создавать альтернативные выражения ИИ, которые могут быть законно полезными для людей, не пытаясь быть людьми. Разнообразные команды должны создавать и тестировать продукты для большей части населения, а не только то, что они считают крутым, исходя из их очень ограниченного и привилегированного набора предубеждений. Пользовательский опыт должен лежать в основе ИИ. К пользователям не следует относиться как к продукту. Создатели технологий должны больше работать со специалистами в области образования и развития детей, создавая продуктивные и здоровые продукты для детей.

В ближайшие недели я расскажу подробнее. Разбивка проблем и предоставление решений для создания лучшего ИИ и технологий помогут нам лучше достичь удобного, доброжелательного и утопического будущего. Выбирайте подходящих людей, задавайте правильные вопросы и создавайте технологии, которые вы хотите видеть в мире.