Сейчас ваша корзина пуста!
Европейская комиссия смягчает правила по ИИ на фонеWarns ОРИСов о рисках для пациентов

Европейская комиссия предлагает смягчение части цифровых правил ЕС, включая элементы, связанные с искусственным интеллектом (ИИ), в то время как ВОЗ предупреждает о growing regulatory gap in healthcare.
Согласно отчету ВОЗ, основанному на ответах 50 из 53 стран региона, были выявлены два основных препятствия для внедрения ИИ: правовая неопределенность (86% стран) и финансовая доступность (78%).
Без четкой ответственности и регуляций риски перекладываются на пациентов и медицинский персонал. Лиабилити (ответственность) является основной проблемой. Только четыре страны имеют специфические для здравоохранения стандарты ответственности за ИИ, и три находятся в стадии разработки. Это оставляет больницы и врачей беззащитными, когда алгоритм допускает ошибку, а пациенты становятся жертвами неправильной диагностики или лечения.
Комиссия утверждает, что пакет предложений упростит цифровые правила и снизит расходы, особенно для малых и средних предприятий (МСП). Критики предупреждают, что это может ослабить защиту данных о здоровье. Предложенные изменения включают поправки к GDPR (Общий регламент по защите данных), включая изменения в определениях чувствительных данных и расширенную обработку данных в интересах «легитимного интереса».
Задержка в правилах ИИ для медицинских устройств
Комиссия также стремится отложить внедрение правил ИИ, которые применяются специально к медицинским устройствам, до 16 месяцев после августа 2026 года. Защитники пациентов утверждают, что это ослабляет условия безопасности для высокорисковых клинических ИИ.
Причины, по которым это важно для безопасности пациентов
- Без четких правил ответственности ответ на инциденты становится неясным.
- Если ИИ-инструмент неверно классифицирует пациента, кто несет ответственность — поставщик, больница, врач?
- Предвзятости в данных могут усугублять проблему. Непредставительные обучающие наборы делают некоторые группы «невидимыми» для алгоритмов.
- Рост рисков конфиденциальности требует создания механизмов явного согласия и прав на отказ.
Регуляторный разрыв
Регулирование ИИ разрознено по всему региону. Богатые страны, такие как Великобритания, тестируют ИИ медицинские инструменты в контролируемых условиях, в то время как многие другие опираются на широкие мультисекторные правила.
Что могут сделать лидеры в области здравоохранения
- Создать группу клинического управления ИИ, которая будет включать врачей, информатиков, юристов и представителей пациентов.
- Требовать доказательств: внешнюю проверку, производительность по подгруппам, определение назначения и планы на будущее.
- Определить правила работы с данными: минимизация данных, анонимизация, ведение журналов доступа и права на аудит.
- Определить ответственность в контрактах: отчетность об инцидентах в установленные сроки, страховое покрытие.
- Обеспечить человеческий контроль над ИИ-инструментами с четкими протоколами эскалации.
Заключение
Ключевым вызовом является создание прочной правовой базы, позволяющей безопасно применять ИИ в медицинской практике. Как отметил Ханс Клуге из ВОЗ, «быстрый рост ИИ в здравоохранении происходит без основных правовых сетей безопасности, необходимых для защиты пациентов и работников здравоохранения». Все участники процесса обязаны спросить себя: как мы можем построить такую сеть безопасности, и что необходимо сделать, чтобы минимизировать риски для пациентов?
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
