Сейчас ваша корзина пуста!
AI Act — Формирование цифрового будущего Европы

AI Act представляет собой первую в мире правовую базу для искусственного интеллекта (ИИ), которая направлена на решение рисков, связанных с ИИ, и обеспечивает Европе возможность занять ведущую роль на мировой арене.
Целями AI Act являются предоставление разработчикам и пользователям ИИ четких требований и обязательств относительно конкретных применений ИИ. В то же время регламент пытается снизить административные и финансовые нагрузки для бизнеса, в частности, для малых и средних предприятий.
AI Act является частью более широкой программы политических мер, направленных на содействие развитию надежного ИИ, которая также включает AI Innovation Package и Coordinated Plan on AI. Эти меры направлены на гарантию безопасности и соблюдения основных прав людей и бизнеса в контексте ИИ. Они также направлены на укрепление внедрения, инвестиций и инноваций в ИИ по всей территории Европейского Союза (ЕС).
Почему нам нужны правила для ИИ?
AI Act гарантирует, что жители Европы могут доверять возможностям, которые предлагает ИИ. Хотя большинство ИИ-систем представляют собой ограниченный или отсутствующий риск и могут помочь в решении многих социальных проблем, определённые ИИ-системы создают риски, которые необходимо учитывать, чтобы избежать нежелательных последствий.
Например, часто невозможно выяснить, почему ИИ-система приняла то или иное решение или осуществила прогноз. Это может усложнить оценку, были ли какие-либо люди подвергнуты несправедливому помещению вне процесса, как, например, в процессе найма или при подаче заявления на получение социальной помощи.
Хотя существующее законодательство предоставляет некоторую защиту, его недостаточно для решения специфических вызовов, которые могут возникнуть из-за применения ИИ. Поэтому предлагаются новые правила:
- Учёт рисков, создаваемых ИИ-приложениями.
- Запрет практик ИИ, представляющих неприемлемые риски.
- Определение списка высокорисковых приложений.
- Установление четких требований к ИИ-системам для высокорисковых приложений.
- Определение конкретных обязательств для развертывателей и поставщиков высокорисковых ИИ-приложений.
- Требование оценки соответствия перед введением ИИ-системы в эксплуатацию или её размещением на рынке.
- Реализация контроля после выхода ИИ-системы на рынок.
- Создание структуры управления на европейском и национальном уровнях.
Подход, основанный на оценке рисков
Регуляторная база определяет четыре уровня риска для ИИ-систем. Все ИИ-системы, представляющие явную угрозу безопасности, жизни и правам людей, будут запрещены, включая социальный рейтинг, применяемый правительствами, и игрушки с голосовыми помощниками, которые провоцируют опасное поведение.
Высокий риск
К высокорисковым относятся ИИ-системы, используемые в следующих областях:
- Критическая инфраструктура (например, транспорт), которая может угрожать жизни и здоровью граждан.
- Образование или профессиональное обучение, что может определять доступ к образованию и профессиональному развитию (например, оценка экзаменов).
- Безопасностные компоненты продукции (например, ИИ в роботизированной хирургии).
- Нанимание, управление работниками и доступ к самозанятости (например, ПО для сортировки резюме при наборе персонала).
- Основные частные и публичные услуги (например, кредитный рейтинг, отказывающий гражданам в получении кредита).
- Правоохранительные органы, которые могут вмешиваться в основные права людей (например, оценка надежности доказательств).
- Управление миграцией, убежищем и контролем границ (например, автоматизированная проверка визовых заявлений).
- Администрация правосудия и демократические процессы (например, ИИ-решения для поиска судебных решений).
Искусственный интеллект с высоким риском подлежит следующим строгим требованиям перед выходом на рынок:
- Адекватная оценка рисков и системы снижения рисков.
- Высокое качество наборов данных, чтобы минимизировать риски и дискриминационные последствия.
- Логирование активности для обеспечения прослеживаемости результатов.
- Подробная документация, содержащая всю необходимую информацию о системе и её целях для оценки соответствия властями.
- Ясная и достаточная информация развертывателю.
- Соответствующие меры человеческого контроля для минимизации рисков.
- Высокий уровень устойчивости, безопасности и точности.
Все системы удаленной биометрической идентификации считаются высокорисковыми и подлежат строгим требованиям. Использование такой идентификации в публичных местах для правоохранительных органов, в принципе, запрещено.
Заранее определенные узкие исключения, такие как необходимость розыска пропавшего ребенка, предотвращение конкретной и непосредственной террористической угрозы или выявление, локализация, идентификация или уголовное преследование лица, подозреваемого в серьезном уголовном правонарушении, должны быть разрешены судебным или иным независимым органом и находиться под соответствующими ограничениями по времени, географическому охвату и базам данных.
Ограниченный риск
Ограниченный риск относится к рискам, связанным с отсутствием прозрачности в использовании ИИ. AI Act вводит специальные обязательства по прозрачности, чтобы обеспечить информирование людей в необходимых случаях, что способствует доверию. Например, при использовании систем ИИ, таких как чат-боты, людям следует знать, что они взаимодействуют с машиной, чтобы принимать обоснованные решения о продолжении или прекращении общения.
Поставщики также должны обеспечить идентификацию контента, созданного ИИ. Более того, текст, сгенерированный ИИ, который предназначен для информирования общественности по вопросам общественного интереса, должен быть обозначен как искусственно созданный. Это также касается аудио и видео контента, представляющего собой deep fakes.
Минимальный или отсутствующий риск
AI Act допускает свободное использование минимально рискованного ИИ. Это включает такие приложения, как ИИ-видеоигры или фильтры спама. Большинство ИИ-систем, используемых в ЕС, попадают в эту категорию.
Как это все работает на практике для поставщиков высокорисковых ИИ-систем?
После выхода ИИ-системы на рынок органы власти отвечают за рыночный надзор, развертыватели обеспечивают человеческий контроль и мониторинг, а поставщики внедряют систему пострыночного мониторинга. Поставщики и развертыватели также должны сообщать о серьезных инцидентах и сбоях.
Решение для надежного использования больших ИИ-моделей
Все чаще универсальные модели ИИ становятся составной частью ИИ-систем. Эти модели могут выполнять и адаптировать бесчисленное количество различных задач. Хотя универсальные модели ИИ могут обеспечивать более лучшие и мощные ИИ-решения, сложно контролировать все их возможности.
В связи с этим AI Act вводит требования к прозрачности для всех универсальных моделей ИИ, позволяя лучше понять эти модели и добавляя обязательства по управлению рисками для очень способных и значительных моделей. Эти дополнительные обязательства включают самодиагностику и уменьшение системных рисков, сообщение о серьезных инцидентах, проведение тестирования и оценки моделей, а также требования к кибербезопасности.
Будущее в законодательстве
Поскольку ИИ – это быстро развивающаяся технология, предложение имеет подход, защищенный от будущих изменений, позволяющий правилам адаптироваться к технологическому прогрессу. Применения ИИ должны оставаться надежными даже после выхода на рынок. Это требует постоянного управления качеством и рисками со стороны поставщиков.
Исполнение и реализация
Европейский ИИ-офис, созданный в феврале 2024 года в рамках Европейской комиссии, осуществляет контроль за исполнением и реализацией AI Act с государствами-членами. Он стремится создать среду, в которой ИТ-технологии будут уважать человеческое достоинство, права и доверие. Он также способствует сотрудничеству, инновациям и исследованиям в области ИИ среди различных заинтересованных сторон. Более того, он ведет международный диалог и сотрудничество по вопросам ИИ, признавая необходимость глобальной согласованности в управлении ИИ. Благодаря этим усилиям Европейский ИИ-офис стремится определить Европу как лидера этичного и устойчивого развития ИТ-технологий.
Следующие шаги
В декабре 2023 года Европейский парламент и Совет ЕС достигли политического соглашения по AI Act. Текст сейчас проходит процесс официального утверждения и перевода. AI Act вступит в силу через 20 дней после публикации в Официальном журнале и будет полностью применим через два года, с несколькими исключениями: запреты вступят в силу через 6 месяцев, правила управления и обязательства для универсальных ИИ-моделей станут применимыми через 12 месяцев, а правила для ИИ-систем, встроенных в регулируемые продукты, начнут действовать через 36 месяцев. Чтобы облегчить переход к новому регуляторному режиму, Европейская комиссия запустила AI Pact, добровольную инициативу, направленную на поддержку будущей реализации и приглашающую разработчиков ИИ из Европы и других стран соблюдать ключевые обязательства AI Act заранее.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
