Избегание экзистенциальной угрозы, исходящей от ИИ (на самом деле, ОИИ), — это лунный выстрел нашей эпохи. Согласованный. Но вставка ошибочных и вводящих в заблуждение заявлений как факта наносит ущерб делу.

Например, здесь нет доказательств, подтверждающих что-либо из этого: «уникальная сила человеческого разума частично проистекает из его способности интегрировать противоположные качества, такие как эмоции и разум», «биологически вынужден создавать и искать знания», «мы все разные, включающие в себя основной характер, основанный на врожденном чувстве морали и этики», «машины скоро смогут создавать исчерпывающие психографические профили, которые не только помогают им «читать» людей, но, в свою очередь, также позволяют нам лучше понять самих себя», « говорят, что беспилотные автомобили запрограммированы жертвовать пешеходами ради спасения водителя» (на самом деле никто этого не сделал), а «конституция наделяет правом «стремиться к счастью» для каждого из своих граждан» (это Декларация независимости). .

Ссылки на «Партнерство для ИИ», «ИИ-100» и «Университет Сингулярности» следует отметить как преднамеренно ограничивающие временной горизонт ближайшими целями (2030 г.) и усердно избегающие проблем в более долгосрочном временном горизонте, где есть экзистенциальные проблемы (особенно ОИИ).

Извините, что дождь на вашем параде. Но, как и в случае с фейковыми новостями, неточность наносит ущерб основным опасениям. В моей публикации на Medium A Passion to Evolve есть несколько статей на эту тему, которые могут вас заинтересовать —

Сообщество искусственного интеллекта (ИИ) играет с нами в рискованную игру

Почему следует бояться искусственного интеллекта-ИИ

Док говорит — наши эмоции, институты и технологические возможности не совпадают и

Цивилизация против человека, а не против машин

Док Хьюстон