Сейчас ваша корзина пуста!
AI Watch: Глобальный регуляторный трекер — Австралия

В конце октября Департамент промышленности, науки и ресурсов вместе с Национальным центром искусственного интеллекта опубликовали новое руководство по усыновлению искусственного интеллекта («GfAA»). Причиной выхода нового руководства стала необходимость адаптации к быстрым изменениям в технологиях и элементы управления за последний год, а также отзывы отрасли.
Основные изменения
Ранее существовавший добровольный стандарт по безопасности ИИ («VAISS»), выпущенный в сентябре 2024 года, был основным (хотя и необязательным) источником лучших практик и управленческих решений для развертывания систем ИИ в Австралии. Новое руководство преобразует десять охранных механизмов VAISS в шесть основных практик.
Сравнение VAISS и GfAA
- VAISS:
- Установить, реализовать и опубликовать процесс подотчетности, включая управление, внутренние возможности и стратегию соблюдения норм.
- Установить и реализовать процесс управления рисками для выявления и смягчения рисков.
- Защитить системы ИИ и применить меры по управлению данными.
- Тестировать модели ИИ для оценки их работы.
- Обеспечить возможность контроля человеком в системе ИИ для достижения значимого человеческого контроля.
- Информировать конечных пользователей о решениях, принимаемых с использованием ИИ.
- Создать процессы для трудностей, связанных с использованием ИИ.
- Поддерживать прозрачность в отношении данных и моделей в цепочке поставок ИИ.
- Хранить и поддерживать записи для оценки соблюдения норм.
- Взаимодействовать с заинтересованными сторонами.
- GfAA:
- Определите, кто отвечает – установите подотчетность по всей цепи.
- Понимание последствий и планирование соответственно – обеспечить удовлетворительное обращение с заинтересованными сторонами.
- Измерять и управлять рисками – применять конкретное управление рисками для ИИ.
- Делиться важной информацией – обеспечивать надлежащую прозрачность.
- Тестировать и контролировать – гарантировать качество и надежность.
- Сохранять человеческий контроль – интегрировать человеческий контроль, обеспечивая ему возможность вмешательства.
Двойная версия GfAA
Выпущено две версии GfAA:
- «Основы» — для организаций, начинающих путь усыновления ИИ.
- «Практики реализации» — более расширенная версия с подприменениями для каждой из шести основных практик.
Интересно, что обе версии GfAA не различают маленькие и крупные компании, но акцентируют внимание на уровне владения ИИ независимо от размера организации.
Проверка внедрения стандартов
В период публикации VAISS правительство также предложило проект, касающийся введения обязательных охранных механизмов для ИИ в высокорисковых условиях. Однако судьба этих обязательных правил остается неопределенной, так как нового обязательного аналога GfAA не предусмотрено.
Куда двигаться дальше?
GfAA уже доступна для всех организаций, при этом она является необязательной. Причем в течение следующего года Национальный центр искусственного интеллекта планирует запуск дополнительных инструментов и ресурсов. Для организаций, которые уже адаптировали свои политики управления ИИ к VAISS, подтверждено, что версия GfAA по практикам реализации интегрирует и развивает принципы VAISS.
С переходом в 2026 год остается маловероятным, что в Австралии будут введены технологические законы, регулирующие разработку и внедрение ИИ. На данный момент организациям необходимо соблюдать уже существующие нейтральные к технологиям законы.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
