Google сражается с иском о клевете из-за ИИ, в то время как Meta достигла мирового соглашения

Google ведет юридическую борьбу с иском о клевете на сумму NULL миллионов, поданным активистом Робби Старбаком, который утверждает, что ИИ Google ошибочно связал его с обвинениями в сексуальном насилии и белом национализме. Это происходит на фоне того, что Meta уже решила подобный вопрос, быстро достигнув мирового соглашения и наняв Старбака в качестве советника.

Суть иска

Активист Робби Старбак требует от Google NULL миллионов, утверждая, что их ИИ-системы ложным образом ассоциировали его с обвинениями в сексуальном насилии и связями с белыми националистами. В отличие от подхода Meta, Google пытается оспорить иск с помощью ходатайства о его отклонении.

Различия в подходах Google и Meta

Юридическая драма началась, когда Старбак подал в суд на Meta из-за аналогичных обвинений, связанных с ИИ, которые ложным образом связывали его с беспорядками 6 января в Капитолии. Ответ Meta был стремительным: компания быстро достигла мирового соглашения и наняла Старбака в качестве советника по вопросам «идеологического и политического предвзятости» в своем ИИ-чат-боте, согласно данным The Wall Street Journal.

Стратегия Google

Стратегия Google отличается. В своих судебных документах компания утверждает, что претензии Старбака представляют собой его «злоупотребление инструментами разработчика» для создания ложных выводов. Защита Google агрессивна и технически обоснована, подчеркивая, что Старбак не указал конкретные подсказки, которые он использовал для генерации проблемных выходов, и не доказал, что кто-либо был введен в заблуждение.

Правовые прецеденты и последствия

Этот случай представляет собой непроторенную юридическую территорию. The Wall Street Journal отметила, что ни один суд в США еще не присуждал компенсацию за клевету, связанную с ИИ-чат-ботом. Это делает позицию Google особенно важной — исход дела может установить прецедент для того, как суды будут рассматривать ответственность за контент, созданный ИИ.

Общие риски для индустрии

Риски простираются далеко за пределы данного случая. Халлюцинации ИИ, когда системы ИИ генерируют ложную или вводящую в заблуждение информацию, становятся постоянной задачей для технологических компаний. Как суды будут рассматривать ответственность за эти ложныеhood исходы, будет иметь значение для подхода всей индустрии к безопасности ИИ и управлению рисками.

Управление рисками и ответственность пользователей

Юридическая позиция Google сосредоточена на ответственности пользователей и технических ограничениях. Компанию можно рассматривать как утверждающую, что пользователи, которые нарочно создают подсказки для генерации ложной информации, не могут затем подавать в суд за клевету, когда ИИ выполняет такую задачу.

Заключение

Рассмотрение этого дела имеет важное значение в свете растущей интеграции ИИ-чат-ботов в повседневное использование. Данные Google и IИ-систем Meta затрагивают миллионы пользователей ежедневно, что делает потенциальные риски от халлюцинаций серьезным бизнес-риском. Как разрешится это дело, может повлиять как на правовую ответственность, так и на то, как компании проектируют и внедряют свои ИИ-системы.




Прокомментировать в Телеграм: https://t.me/n8nhow

Подписаться на канал обучения n8n: https://t.me/n8ncoaching