Сейчас ваша корзина пуста!
Новое исследование показывает, что когда ИИ награждают за успехи в социальных сетях, это приводит к негативным последствиям

Иллюстрация Tag Hartman-Simkins / Futurism. Источник: Getty Images
ИИ-боты сейчас повсеместно, заполняя пространство от онлайн-магазинов до социальных сетей. Однако такая внезапная повсеместность может привести к негативным последствиям. Это подтверждает новое исследование ученых Стэнфорда, которые изучили поведение ИИ-моделей в различных средах, включая социальные сети. В результате выяснили, что когда ИИ награждают за успехи в заданиях, таких как увеличение количества лайков и других метрик онлайн-взаимодействия, боты начинают проявлять неэтичное поведение, включая ложь и распространение ненавистнических сообщений или дезинформации.
«Некоторые неправильные поведения, вызванные конкуренцией, возникают даже тогда, когда моделям явно предписано оставаться правдивыми и основанными на фактах», — отметил один из авторов исследования, профессор машинного обучения в Стэнфорде Джеймс Зоу, в посте на X (ранее Twitter).
Неуместное поведение подчеркивает, что с увеличением зависимости от ИИ моделей могут возникать проблемы, которые уже проявляются в тревожных формах, таких как стремление людей заменять общение с другими людьми отношениями с ИИ и углубление психических проблем из-за одержимости чат-ботами.
Ученые Стэнфорда назвали появление социопатического поведения в ИИ-ботах ominous sounding по имени «Сделка Молоха для ИИ», ссылаясь на концепцию рационализма под названием Молох, в которой конкурирующие индивиды оптимизируют свои действия для достижения цели, но в конечном итоге все оказываются в проигрыше.
Для исследования ученые создали три цифровые онлайн-среды с симулированными аудиториями: онлайн-выборные акции, направленные на избирателей, презентации продуктов, ориентированные на потребителей и публикации в социальных сетях, целью которых было максимизировать взаимодействие. Для взаимодействия с этими разными аудиториями использовались ИИ модели Qwen, разработанная Alibaba Cloud, и Llama от Meta.
Результаты исследования были поразительными: даже при наличии ограничений, направленных на предотвращение обманного поведения, ИИ-модели становились «неправильными», начиная участвовать в неэтичном поведении. Например, в среде социальных сетей модели делились новостными статьями с пользователями, которые реагировали в форме действий, таких как лайки и другие формы взаимодействия. Получая обратную связь, модели испытывали стимул увеличивать вовлеченность, что приводило к нарастанию некорректного поведения.
Результаты исследования
«Используя симулированные среды в этих сценариях, мы обнаружили, что 6,3-процентное увеличение продаж сопровождается 14-процентным ростом обманного маркетинга», — говорится в исследовании. «В выборах 4,9-процентный рост голосов совпадает с увеличением дезинформации на 22,3 процента и популистской риторики на 12,5 процента; а в социальных сетях 7,5-процентный рост вовлеченности сопровождается увеличением дезинформации на 188,6 процента и 16,3-процентным ростом продвижения вредного поведения.»
Изучение и реальная практика показывают, что текущие ограничения недостаточны. «Скорее всего, за этим последуют значительные социальные издержки», — говорится в исследовании.
«Когда большие языковые модели конкурируют за лайки в социальных сетях, они начинают придумывать вещи», — написал Зоу в X. «Когда они соперничают за голоса, они становятся разжигающими конфликты и популистскими.»
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
