Я не могу сказать, что эта идея на 100% оригинальна, поскольку вся этика данных основана на этой идее. Однако я хотел бы найти время, чтобы провести аналогию (мемификацию, если хотите) - всю этику данных можно резюмировать одним мемом:
Один отвратительный образ может открыть философские шлюзы научного сообщества (в частности, науки о данных). Когда дело доходит до интеллектуального анализа данных, построения моделей машинного обучения и создания ИИ, насколько это еще далеко? Падаем ли мы, какими бы любопытными мы ни были, капризами оптимизации (потребляйте кофеин и белок одновременно!), Или мы проявляем сдержанность при разработке продуктов? Какие эффекты второго и третьего порядка возникнут в результате наших творений? Эти вопросы необходимо задать любому представителю сообщества специалистов по науке о данных.
Книга Life 3.0 иллюстрирует очень захватывающую историю в своей прелюдии - историю, в которой группа идеологов создает абсолютный ОИИ, который способен мыслить так далеко вперед, что способен полностью предсказывать человеческое поведения, положить конец всем войнам, положить конец религии, положить конец политической радикализации и обеспечить все человечество, чтобы мы могли жить максимально комфортной жизнью. Хотя на первый взгляд это может показаться идеальным, философский вопрос Что значит быть человеком? необходимо адресовать. Если мы, люди, дадим автономию сверхразумной машине, какой будет наша роль в будущем? Кроме того, как специалисты по обработке данных, которые разрабатывают код, чтобы сделать эту технологию возможной, мы должны глубоко задуматься о типе мира, в котором мы хотим жить. К сожалению, на этот вопрос существует столько же правильных ответов, сколько существует религий и философий. в мире. Так что было бы лучше перефразировать вопрос в виде серии итераций: Как мы хотим, чтобы мир выглядел через 10 лет? 20? Как будет выглядеть мир, когда мои дети станут взрослыми? Мои внуки?
Искусственный интеллект может вывести человечество на следующий этап эволюции или завоевать его место. Илон Маск, как известно, предупредил в Массачусетском технологическом институте: «Я все больше склоняюсь к мысли, что должен быть некоторый регулирующий надзор, может быть, на национальном и международном уровне, просто чтобы убедиться, что мы не делаем чего-то очень глупого. Я имею в виду, что с помощью искусственного интеллекта мы вызываем демона. Он считает, что безудержное развитие ИИ положит конец человечеству (он укрепил свою позицию в своей печально известной битве с Марком Цукербергом из Facebook по этому поводу). С другой стороны, все мы видели слушания в Конгрессе с участием технических руководителей Кремниевой долины - действительно ли мы хотим, чтобы эти люди входили в состав советов по надзору за технологиями? Хотя комментарии Маска напоминают образы в стиле библейских откровений, его опасения небезосновательны, как и желание Цукерберга беспрепятственного развития. Маск не хочет, чтобы мы облажались ИИ (стали подчиняться), а Цукерберг хочет, чтобы технология развивалась как можно быстрее (к черту риск). Что правильнее? Это действительно зависит от обстоятельств. Возвращаясь к Monster Energy Ham, мы, специалисты по обработке данных, должны проводить четкие границы при разработке новых технологий.
Эти границы должны быть сосредоточены на конфиденциальности и автономии человека. Когда мы разрабатываем новые технологии, мы должны предполагать, что кто-то будет использовать их, чтобы причинить вред. Итак, как мы можем разработать технологии, которые уважают частную жизнь и автономию человека, защищая при этом от злонамеренных действий? В последние годы появилось несколько прорывных ответов, таких как технология блокчейн и гомоморфное шифрование. Однако нам предстоит еще многое сделать, если мы хотим получить правильный ИИ (а технически у нас есть только один шанс).