Европейская комиссия смягчает правила по ИИ на фонеWarns ОРИСов о рисках для пациентов

Европейская комиссия предлагает смягчение части цифровых правил ЕС, включая элементы, связанные с искусственным интеллектом (ИИ), в то время как ВОЗ предупреждает о growing regulatory gap in healthcare.

Согласно отчету ВОЗ, основанному на ответах 50 из 53 стран региона, были выявлены два основных препятствия для внедрения ИИ: правовая неопределенность (86% стран) и финансовая доступность (78%).

Без четкой ответственности и регуляций риски перекладываются на пациентов и медицинский персонал. Лиабилити (ответственность) является основной проблемой. Только четыре страны имеют специфические для здравоохранения стандарты ответственности за ИИ, и три находятся в стадии разработки. Это оставляет больницы и врачей беззащитными, когда алгоритм допускает ошибку, а пациенты становятся жертвами неправильной диагностики или лечения.

Комиссия утверждает, что пакет предложений упростит цифровые правила и снизит расходы, особенно для малых и средних предприятий (МСП). Критики предупреждают, что это может ослабить защиту данных о здоровье. Предложенные изменения включают поправки к GDPR (Общий регламент по защите данных), включая изменения в определениях чувствительных данных и расширенную обработку данных в интересах «легитимного интереса».

Задержка в правилах ИИ для медицинских устройств

Комиссия также стремится отложить внедрение правил ИИ, которые применяются специально к медицинским устройствам, до 16 месяцев после августа 2026 года. Защитники пациентов утверждают, что это ослабляет условия безопасности для высокорисковых клинических ИИ.

Причины, по которым это важно для безопасности пациентов

  • Без четких правил ответственности ответ на инциденты становится неясным.
  • Если ИИ-инструмент неверно классифицирует пациента, кто несет ответственность — поставщик, больница, врач?
  • Предвзятости в данных могут усугублять проблему. Непредставительные обучающие наборы делают некоторые группы «невидимыми» для алгоритмов.
  • Рост рисков конфиденциальности требует создания механизмов явного согласия и прав на отказ.

Регуляторный разрыв

Регулирование ИИ разрознено по всему региону. Богатые страны, такие как Великобритания, тестируют ИИ медицинские инструменты в контролируемых условиях, в то время как многие другие опираются на широкие мультисекторные правила.

Что могут сделать лидеры в области здравоохранения

  • Создать группу клинического управления ИИ, которая будет включать врачей, информатиков, юристов и представителей пациентов.
  • Требовать доказательств: внешнюю проверку, производительность по подгруппам, определение назначения и планы на будущее.
  • Определить правила работы с данными: минимизация данных, анонимизация, ведение журналов доступа и права на аудит.
  • Определить ответственность в контрактах: отчетность об инцидентах в установленные сроки, страховое покрытие.
  • Обеспечить человеческий контроль над ИИ-инструментами с четкими протоколами эскалации.

Заключение

Ключевым вызовом является создание прочной правовой базы, позволяющей безопасно применять ИИ в медицинской практике. Как отметил Ханс Клуге из ВОЗ, «быстрый рост ИИ в здравоохранении происходит без основных правовых сетей безопасности, необходимых для защиты пациентов и работников здравоохранения». Все участники процесса обязаны спросить себя: как мы можем построить такую сеть безопасности, и что необходимо сделать, чтобы минимизировать риски для пациентов?




Прокомментировать в Телеграм: https://t.me/n8nhow

Подписаться на канал обучения n8n: https://t.me/n8ncoaching