Как компьютеры могут нести ответственность за клевету
Введение
Эта статья необходима, потому что в мире генеративного искусственного интеллекта возникла новая волна судебных разбирательств. Общественные деятели обвиняют генерацию искусственного интеллекта в диффамации. По причинам, о которых я напишу здесь, это обвинение невероятно увлекательно.
Я напишу о законах в Соединенных Штатах, где я одновременно и специалист по данным, и адвокат. Впрочем, тема глобальная. Например, еще в апреле 2023 года мэр Австралии начал преследовать иск о клевете, связанный с информацией, сгенерированной Chat GPT.
В повороте, достойном кинодрамы, мэр работал в банке, выступал в качестве осведомителя (связанного со скандалами о взяточничестве) и никогда не был обвинен в преступлении. Но искусственный интеллект, стоящий за Chat GPT, похоже, был убежден, что мэр был одной из виновных в скандале.
В заявлении Центра искусственного интеллекта и цифровой политики (CAIDP) в Федеральную торговую комиссию США (FTC) австралийский вопрос упоминается следующим образом:
Закон о диффамации в Австралии отличается от закона о диффамации в Соединенных Штатах. В Соединенных Штатах возник еще один случай потенциальной клеветы с участием радиоведущего по имени Марк Уолтерс из Джорджии.
Согласно первоначальной жалобе, Уолтерс утверждает, что пользователь предоставил Chat GPT URL-адрес судебной жалобы, которая была подана в другом месте американской судебной системы. Затем пользователь, как утверждает обвинение, запросил краткое изложение документа. На что Chat GPT якобы ответил, в частности, что документ представляет собой «юридическую жалобу, поданную… против Марка Уолтерса, который обвиняется в мошенничестве и растрате средств…»
Действительно, в Соединенных Штатах диффамация может отличаться от штата к штату. Закон о диффамации в Висконсине не такой, как в Нью-Йорке или Калифорнии.