Сейчас ваша корзина пуста!
Прогнозы экспертов: что окажется на кону в политике регулирования ИИ в 2026 году

Искусственный интеллект (ИИ) и другие формы машинного обучения способны работать с огромными массивами данных и открывать новые горизонты знаний. Например, они помогают астрономам обнаруживать далёкие галактики, а учёным — разрабатывать новые соединения для создания лекарств.
Однако эти технологии могут причинить и значительный вред. Среди потенциальных угроз:
- использование персональных данных для принятия автоматизированных решений, влияющих на жизнь людей;
- отсутствие должной прозрачности в работе алгоритмов;
- недостаток этических ориентиров при разработке и внедрении технологий;
- дефицит демократического контроля за развитием и применением ИИ.
Возможности и риски генеративного ИИ
Генеративный ИИ открывает новые возможности для свободного самовыражения в искусстве и музыке, делает информацию более доступной. Вместе с тем он несёт в себе ряд рисков:
- вытеснение профессиональных художников и других творческих работников — автоматизированные системы могут заменить людей в создании контента;
- усиление дезинформации — генеративный ИИ способен автоматизировать распространение ложной информации, что может подорвать доверие к медиа и институтам.
Как политики могут сбалансировать выгоды и риски
Политики стоят перед сложной задачей — найти баланс между преимуществами и угрозами, которые несёт развитие ИИ. Для этого им необходимо:
- адаптировать существующие регуляции, чтобы защитить интересы общества;
- разработать более конкретные правила, учитывающие уникальные вызовы, связанные с ИИ и машинным обучением.
Актуальные вызовы и дискуссии в сфере регулирования ИИ
В последние годы наблюдается активизация дискуссий о регулировании ИИ на международном и национальном уровнях. Среди ключевых вопросов, вызывающих озабоченность, можно выделить:
- маркировка дипфейков и борьба с их распространением (например, новый кодекс практики ЕС в области ИИ);
- защита когнитивной свободы в эпоху корпоративного ИИ;
- разработка стратегий по использованию ИИ для решения климатических проблем (на примере Индии);
- регулирование приложений, использующих ИИ для «раздевания» изображений (анализ функций и политик 29 подобных приложений).
Кроме того, продолжаются судебные разбирательства и законодательное регулирование в США, связанные с использованием ИИ. Среди значимых инициатив:
- закон TAKE IT DOWN Act (S.146), принятый в январе 2025 года;
- исполнительный указ о безопасном, надёжном и заслуживающем доверия развитии и использовании ИИ (отменён в январе 2025 года);
- закон Калифорнии о защите демократии от обмана с помощью дипфейков (California Defending Democracy From Deepfake Deception Act of 2024 — A.B.2655), подписанный губернатором в ноябре 2024 года.
Перспективы регулирования ИИ в 2026 году
В 2026 году политики столкнутся с необходимостью:
- углубления международного сотрудничества в области регулирования ИИ, поскольку технологии не знают границ, а их воздействие может иметь глобальные последствия;
- разработки более тонких механизмов контроля за генеративным ИИ, чтобы минимизировать риски дезинформации и нарушения авторских прав;
- обеспечения прозрачности алгоритмов и права граждан на объяснение решений, принятых с помощью ИИ;
- создания правовых рамок для защиты персональных данных в контексте всё более сложных и масштабных моделей машинного обучения.
Успех в решении этих задач будет зависеть от способности политиков, технологов и общества найти общий язык и выработать согласованные подходы к регулированию ИИ. От этого будет зависеть, сможет ли человечество в полной мере воспользоваться преимуществами новых технологий, минимизировав при этом связанные с ними риски.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
