Сейчас ваша корзина пуста!
HLS Beyond и BKC представляют: управление ИИ и согласование с человеческими ценностями — Гарвардская школа права

12 марта 2026 года в Гарвардской школе права (HLS) пройдёт важная сессия в рамках серии мероприятий TechReg in AI. Мероприятие организовано совместно с BKC и посвящено вопросам управления передовыми технологиями искусственного интеллекта (ИИ) и обеспечения их соответствия человеческим ценностям и нормам безопасности.
Основные вопросы сессии
В ходе встречи будет рассмотрен ключевой вопрос: как компании, разрабатывающие передовые технологии ИИ (Frontier AI), обеспечивают контроль со стороны человека и безопасность своих решений. ИИ — это технология с огромным трансформационным потенциалом, развитие которой в значительной степени происходит вне прямого контроля государства.
В рамках текущей стратегии администрации США по регулированию ИИ крупные технологические компании несут основную ответственность за направление и контроль развития передовых ИИ-технологий. В ходе сессии будут проанализированы следующие аспекты:
- структуры управления, созданные корпоративными субъектами;
- меры по обеспечению соответствия законодательству и оценки безопасности;
- системы управления рисками;
- технические меры (оценки, тестирование на уязвимости — red-teaming, мониторинг);
- организационные меры (комитеты по рискам, политики ответственного масштабирования, планы реагирования на инциденты).
Контекст мероприятия
Сессия является второй в серии TechReg in AI, которую ведёт профессор Алан Рауль. Предыдущее мероприятие было посвящено анализу федерального ландшафта регулирования ИИ в США в контексте Плана действий по ИИ (июль 2025 года) и Исполнительного указа № 14365 («Обеспечение национальной политики в области искусственного интеллекта», декабрь 2025 года).
Особое внимание будет уделено взаимодействию федеральных и штатных инициатив по регулированию ИИ, а также оценке того, как крупные технологические компании выстраивают внутренние механизмы контроля и надзора за развитием ИИ-технологий.
Почему это важно?
Вопросы управления ИИ и согласования его развития с человеческими ценностями приобретают всё большую актуальность по следующим причинам:
- Быстрый темп развития ИИ: технологии ИИ развиваются стремительно, опережая формирование регуляторных рамок.
- Потенциальные риски: неконтролируемое развитие ИИ может привести к серьёзным рискам — от нарушения конфиденциальности до угроз безопасности и этических проблем.
- Ответственность корпораций: поскольку государство не может напрямую контролировать развитие ИИ, ключевая роль в обеспечении безопасности и этичности технологий ложится на плечи технологических компаний.
- Необходимость международного диалога: вопросы регулирования ИИ требуют координации на международном уровне, учитывая глобальный характер технологий.
Ожидаемые результаты сессии
Участники сессии смогут:
- получить представление о текущих подходах к регулированию ИИ в США;
- узнать о механизмах внутреннего контроля и надзора, используемых ведущими технологическими компаниями;
- обсудить ключевые вызовы и перспективы в области управления ИИ;
- понять, как корпоративные структуры обеспечивают соответствие ИИ-решений законодательным и этическим нормам.
Мероприятие станет важной площадкой для обмена мнениями между экспертами в области права, технологий и политики, а также для выработки рекомендаций по совершенствованию механизмов управления ИИ.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
