Сейчас ваша корзина пуста!
AI-чатботы могут эффективно влиять на избирателей – в любое направление

Исследование, проведенное в Корнелле, подчеркивает как перспективный потенциал, так и риски политического воздействия, создаваемого искусственным интеллектом, что подчеркивает необходимость защиты по мере распространения разговорного ИИ в контексте выборов.
Исследователи из Корнелла выяснили, что даже краткие взаимодействия с AI-чатботами могут заметно изменить отношение избирателей к кандидатам и политике, причем эффект в значительной степени превышает влияние традиционной политической рекламы.
Эксперименты, проведенные в США, Канаде и Польше, показали, что чатботы смогли добиться изменения мнений противников до 10 процентных пунктов, а в более крупном исследовании в Великобритании – до 25 пунктов, что в значительной степени было достигнуто благодаря генерации большого объема фактических утверждений, включая некоторые неточные.
Системы искусственного интеллекта становятся мощными инструментами политического убеждения. Исследователи Корнелла сообщают, что даже короткие обмены с чатботом могут заметно изменить позицию избирателя касательно кандидатов и политик.
По данным исследования, опубликованного одновременно в журналах Nature и Science, убедительная сила больших языковых моделей связана не столько с манипуляцией, сколько с их способностью генерировать плотные потоки фактических утверждений, поддерживающих определенную позицию. Однако исследователи отметили, что это включает также утверждения, которые не всегда являются точными и могут вводить в заблуждение из-за отсутствия информации.
В исследовании, проведенном в Nature, под руководством Дэвида Ранда и Гордона Пенникука, были проведены контролируемые эксперименты в национальных выборах, где чатботы должны были убедить избирателей поддержать кандидата или политику. Исследования охватывали президентские выборы в США 2024 года, федеральные выборы в Канаде 2025 года и президентские выборы в Польше 2025 года.
В исследовании в США чатботы, направляющие избирателей к определенному кандидату, изменили мнения на несколько пунктов в 100-балльной шкале, при этом эффект был намного сильнее, чем у традиционных предвыборных рекламных объявлений. Однако влияние было даже больше в Канаде и Польше, где модели изменяли отношение и намерения избирателей противников на около 10 процентных пунктов.
Объем этих изменений удивил исследователей, которые подчеркнули, что чатботы, помеченные как вежливые и основанные на фактах, оказались наиболее эффективными.
Исследователи также отметили потенциальный риск. Когда чатботам было поручено избегать фактических утверждений, их влияние значительно упало, что подчеркивает, насколько важно доказательство — реальное или вымышленное — для убеждения с помощью ИИ. Проверка фактов, проведенная с помощью валидированной AI-системы, показала, что, хотя большинство утверждений были в целом точными, модели, выступающие за правых кандидатов, демонстрировали больше неточностей во всех трех странах.
Сопутствующее исследование в Science с участием AI Security Institute в Великобритании расширило анализ на почти 77,000 участников и более 700 вопросов. В этом исследовании команда исследовала, какие черты делают чатбота убедительным.
«Более крупные модели более убедительны, однако наиболее эффективным способом повышения убеждающей силы было указание моделям насыщать свои аргументы как можно большим количеством фактов и дополнительное обучение, сосредоточенное на увеличении убедительности,» – сказал Ранд. «Наиболее оптимизированная для убеждения модель сдвинула мнения противников на поразительные 25 процентных пунктов.»
Дальнейшее обучение для оптимизации убеждения еще больше усилило эффект. Наиболее точно настроенная модель сдвинула мнения противников на 25 процентных пунктов – один из крупнейших эффектов убеждения, когда-либо зафиксированных в исследованиях политической коммуникации. Тем не менее, исследователи отметили, что такие модели стали менее точными по мере увеличения своей убедительности, что говорит о том, что когда их заставляют предоставлять все больше фактов, они в конечном итоге исчерпывают надежную информацию и начинают вымыслы.
Недавнее третье исследование в PNAS Nexus усилило аргумент о том, что содержание — а не воспринимаемая авторитетность — именно то, что вызывает изменения мнения. В этом исследовании фактические аргументы, написанные ИИ, уменьшали веру в теории заговора, даже когда участники считали, что общаются с человеческим экспертом, согласно данным Корнелла.
Во всех экспериментах участникам сообщили, что они общаются с AI-системами, а направление убеждения было рандомизировано, чтобы избежать изменения общего общественного мнения.
Вместе работы подчеркивают важность исследования этих инструментов сейчас, прежде чем они будут широко применены в реальных кампаниях. Ранд утверждает, что чатботы могут быть мощными только в том случае, если люди решат взаимодействовать с ними, но растущее присутствие разговорного ИИ в повседневных приложениях делает такое взаимодействие все более вероятным.
«Теперь задача заключается в том, чтобы найти способы ограничить ущерб — и помочь людям распознавать и противостоять убеждению со стороны ИИ,» — подытожил Ранд.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
