HLS Beyond и BKC представляют: управление ИИ и согласование с человеческими ценностями — Гарвардская школа права

12 марта 2026 года в Гарвардской школе права (HLS) пройдёт важная сессия в рамках серии мероприятий TechReg in AI. Мероприятие организовано совместно с BKC и посвящено вопросам управления передовыми технологиями искусственного интеллекта (ИИ) и обеспечения их соответствия человеческим ценностям и нормам безопасности.

Основные вопросы сессии

В ходе встречи будет рассмотрен ключевой вопрос: как компании, разрабатывающие передовые технологии ИИ (Frontier AI), обеспечивают контроль со стороны человека и безопасность своих решений. ИИ — это технология с огромным трансформационным потенциалом, развитие которой в значительной степени происходит вне прямого контроля государства.

В рамках текущей стратегии администрации США по регулированию ИИ крупные технологические компании несут основную ответственность за направление и контроль развития передовых ИИ-технологий. В ходе сессии будут проанализированы следующие аспекты:

  • структуры управления, созданные корпоративными субъектами;
  • меры по обеспечению соответствия законодательству и оценки безопасности;
  • системы управления рисками;
  • технические меры (оценки, тестирование на уязвимости — red-teaming, мониторинг);
  • организационные меры (комитеты по рискам, политики ответственного масштабирования, планы реагирования на инциденты).

Контекст мероприятия

Сессия является второй в серии TechReg in AI, которую ведёт профессор Алан Рауль. Предыдущее мероприятие было посвящено анализу федерального ландшафта регулирования ИИ в США в контексте Плана действий по ИИ (июль 2025 года) и Исполнительного указа № 14365 («Обеспечение национальной политики в области искусственного интеллекта», декабрь 2025 года).

Особое внимание будет уделено взаимодействию федеральных и штатных инициатив по регулированию ИИ, а также оценке того, как крупные технологические компании выстраивают внутренние механизмы контроля и надзора за развитием ИИ-технологий.

Почему это важно?

Вопросы управления ИИ и согласования его развития с человеческими ценностями приобретают всё большую актуальность по следующим причинам:

  • Быстрый темп развития ИИ: технологии ИИ развиваются стремительно, опережая формирование регуляторных рамок.
  • Потенциальные риски: неконтролируемое развитие ИИ может привести к серьёзным рискам — от нарушения конфиденциальности до угроз безопасности и этических проблем.
  • Ответственность корпораций: поскольку государство не может напрямую контролировать развитие ИИ, ключевая роль в обеспечении безопасности и этичности технологий ложится на плечи технологических компаний.
  • Необходимость международного диалога: вопросы регулирования ИИ требуют координации на международном уровне, учитывая глобальный характер технологий.

Ожидаемые результаты сессии

Участники сессии смогут:

  • получить представление о текущих подходах к регулированию ИИ в США;
  • узнать о механизмах внутреннего контроля и надзора, используемых ведущими технологическими компаниями;
  • обсудить ключевые вызовы и перспективы в области управления ИИ;
  • понять, как корпоративные структуры обеспечивают соответствие ИИ-решений законодательным и этическим нормам.

Мероприятие станет важной площадкой для обмена мнениями между экспертами в области права, технологий и политики, а также для выработки рекомендаций по совершенствованию механизмов управления ИИ.




Прокомментировать в Телеграм: https://t.me/n8nhow

Подписаться на канал обучения n8n: https://t.me/n8ncoaching