Сейчас ваша корзина пуста!
Не доверяйте «GEO» защиту репутации вашего бренда в мире агентного ИИ, предупреждает инсайдер

На этой неделе Google представил новые функции электронной коммерции для режима ИИ в поиске Google и чат‑бота Gemini. Бренды всё активнее стремятся контролировать то, как они представлены в ответах ИИ‑агентов и в запросах, опосредованных ИИ. Однако эксперты предупреждают: не все запросы одинаковы, и модели ИИ несут риски, когда речь идёт о вопросах, связанных с финансами компании или стандартами корпоративного управления. Такие вопросы могут влиять на ключевые решения о закупках.
Новые функции Google: шаг вперёд в агентной коммерции
Google запустил возможность совершать покупки напрямую через режим ИИ в поиске Google и приложение чат‑бота Gemini. Одним из первых партнёров стала розничная гигантская компания Walmart. В основе ИИ‑кассы лежит новый «Универсальный протокол коммерции» (Universal Commerce Protocol), который призван упростить поддержку продаж через агентный ИИ для ритейлеров.
Кроме того, Google Cloud анонсировал ряд функций ИИ для поддержки агентной коммерции, включая продукт Gemini Enterprise for Customer Experience. Он объединяет возможности покупок и поддержки клиентов. Home Depot стала одним из первых клиентов этого нового облачного продукта.
Что такое GEO и почему он не всегда эффективен
В связи с развитием агентной коммерции появляется всё больше компаний, предлагающих услуги по оптимизации генеративных двигателей (Generative Engine Optimization, GEO) или оптимизации генеративного ИИ (Generative‑AI Optimization, GAIO). Эти услуги отчасти напоминают стратегии оптимизации интернет‑поиска, но имеют ряд ключевых отличий.
На текущий момент GEO кажется сложнее для манипулирования, чем SEO. Чат‑боты и ИИ‑агенты уделяют большое внимание продуктам, которые получили положительные упоминания в авторитетных СМИ, а также тем, которые занимают высокие позиции на сайтах с отзывами клиентов.
Риски, связанные с ИИ‑опосредованной коммерцией
По словам Тима де Розена, основателя компании AIVO Standard, мир ИИ‑опосредованной коммерции таит в себе значительные риски в области корпоративного управления. Многие компании могут не до конца осознавать эти риски.
Де Розен отмечает, что, хотя различные модели ИИ обычно последовательно описывают товарные предложения бренда (корректно указывая характеристики продукта и сравнивая их с конкурентами), они демонстрируют непоследовательность и склонность к ошибкам при ответах на вопросы о:
- финансовой устойчивости компании;
- стандартах корпоративного управления;
- технических сертификатах.
Такая информация может играть существенную роль при принятии решений о крупных закупках.
Примеры проблем с ответами ИИ
AIVO Standard провела оценку того, как передовые модели ИИ отвечают на вопросы о компании Ramp — быстрорастущем разработчике ПО для управления бизнес‑расходами. Выяснилось, что модели не могут надёжно отвечать на вопросы о сертификатах кибербезопасности и стандартах управления Ramp.
В некоторых случаях это могло незаметно подталкивать предприятия к выбору более крупных, публично торгуемых компаний — даже если частные стартапы соответствовали тем же стандартам. Причина в том, что модели ИИ не могли точно ответить на вопросы о финансовой устойчивости и управлении частных компаний или привести источники информации.
Другой пример — анализ того, что модели ИИ говорят о факторах риска конкурирующих препаратов для похудения. Выяснилось, что ИИ не просто перечисляет риски, но и даёт рекомендации о том, какой препарат является «более безопасным выбором» для пациента.
Почему GEO — это скорее искусство, чем наука
Существует несколько важных выводов:
- GEO может неэффективно работать с различными аспектами информации о бренде. Компании не должны безоговорочно доверять фирмам, предлагающим услуги GEO, которые утверждают, что могут показать, как бренд представлен в ответах чат‑ботов.
- Результаты запросов могут значительно варьироваться — даже в течение нескольких минут — в зависимости от типа оцениваемой информации о бренде.
- Пока нет достаточных доказательств того, как можно целенаправленно влиять на ответы чат‑ботов в отношении информации, не связанной с продуктами.
Серьёзные риски в рабочих процессах с участием ИИ
Ключевая проблема заключается в том, что во многих рабочих процессах с участием ИИ (даже при наличии человека в цикле) информация, предоставленная ИИ, становится основой для принятия решений. При этом большинство компаний не контролируют границы между информацией, суждениями и принятием решений.
Компании не имеют системы отслеживания:
- какого именно запроса был использован;
- какой ответ дала модель;
- как этот ответ повлиял на окончательное решение.
В регулируемых отраслях (например, в финансах или здравоохранении) при возникновении проблем регуляторы будут требовать именно эти данные. Если компании не внедрят системы для сбора такой информации, они столкнутся с серьёзными трудностями.
Выводы и рекомендации
Развитие агентного ИИ открывает новые возможности для бизнеса, но также несёт значительные риски. Компании должны:
- осознавать ограничения моделей ИИ, особенно в вопросах финансов и корпоративного управления;
- не полагаться исключительно на услуги GEO для формирования образа бренда в ответах ИИ;
- разрабатывать системы отслеживания и контроля информации, предоставляемой ИИ, чтобы минимизировать риски при принятии решений.
В условиях растущей роли ИИ в бизнес‑процессах важно находить баланс между использованием новых технологий и обеспечением прозрачности и ответственности в принятии решений.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
