Мир ИИ снова сотрясается. После GPT-3 и GPT-4 есть кое-что новое: открытое письмо, подписанное Илоном Маском, Стивом Возняком, Стюартом Расселом и другими, призывающее лаборатории ИИ «приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT». -4».
** Эта статья написана с моей точки зрения как студента и учащегося в компьютерной индустрии. Буду рада узнать от вас новую информацию!
Письмо начинается с интересного утверждения о том, что ИИ может «представлять серьезные риски для общества и человечества». Уже кажется, что в этом открытом письме присутствует настойчивый и нагнетающий страх тон, который предполагает скрытые мотивы. Мы всегда знали, что ИИ может иметь большие последствия для общества. Однако это никогда не заставляло Илона Маска «приостанавливать» свои исследования беспилотных автомобилей, места, где разрушительные последствия ИИ видны буквально.
Далее в письме говорится, что «в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке» за создание моделей искусственного интеллекта, которые «никто — даже их создатели — не может понять, предсказать или надежно контролировать». Сравнение ИИ с гонкой вооружений вызывает тревогу, опять же от людей, которые являются пионерами в области ИИ. Кроме того, концепция бизнеса заключается в том, чтобы соревноваться с другими предприятиями в создании лучшего продукта. Это просто усиливается в ИИ, поскольку последствия этих лучших продуктов вызывают вопросы о будущем человечества. Что касается второго пункта, об алгоритмах черного ящика, то он известен с 1961 года, когда Норберт Винер ввел этот термин. Однако до сих пор он никогда не «останавливал» развитие ИИ.
Затем в письме задается ряд риторических вопросов, чтобы подчеркнуть апокалиптические возможности ИИ. Это очень насущные вопросы, которые не кажутся очень важными для возможностей GPT-4. Тем не менее, я согласен с их духом и согласен с тем, что ответы на эти вопросы не следует искать у технических лидеров. (Иронично, однако, поскольку это письмо получило признание благодаря подписанию его техническими лидерами)
Самая интересная строка в письме: «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми». Полностью с этим согласен. Сейчас самое время изучить эффекты этого ИИ. Позвольте мне вслед за этим задать собственный риторический вопрос: в идеале приостановка разработки проложила бы путь для обширных исследований социальных эффектов таких технологий? Да. Идеален ли мир?
Далее в письме говорится о общеотраслевой разработке правил ИИ. Я большой поклонник этого решения, так как правительство, чьей работой обычно была бы эта задача, оказалось неподходящим для технических строгостей, которых требует регулирование.
Наконец, письмо завершается (наконец-то) солидными предложениями законодателям в области ИИ и предлагает сделать летний перерыв в работе с ИИ.
В этом письме для меня есть нереальное решение очень реальной проблемы. В нем предлагаются твердые предложения, такие как общеотраслевые правила и сотрудничество с правительством (не знаю, с каким именно) для разработки дополнительных решений, и упоминаются некоторые ключевые проблемы, связанные с ИИ (даже если они склоняются к армагеддону, а не к реальности).
Однако 6-месячная пауза дает мне паузу. Сказать инновациям сделать перерыв — это очень грубый способ дать правительству время для разработки правил. Однако бюрократия предназначена для того, чтобы не вносить долгосрочные изменения в течение 6 месяцев. Кроме того, это подписано многими конкурентами Open AI, возможно, это их способ связать своих конкурентов с государственными делами, пока они могут наверстать упущенное. Есть много других проблем, которые, возможно, напоминают нам, почему существует отдельный руководящий орган в правительстве, а не в бизнесе. Хотя правительству еще предстоит пройти долгий путь в области технического регулирования, просить об остановке технологий — не лучший способ сделать это. Работа компаний заключается в инновациях, росте и экспериментировании. Компания Open AI провела внутренние эксперименты и теперь выпускает свой продукт для всех желающих. Работу по разработке законов, обеспечивающих безопасность, должно выполнять правительство, создав орган только для вопросов, связанных с технологиями. И деполитизировать его.
Некоторые источники, которые я читал/смотрел: