Сейчас ваша корзина пуста!
Проблемы доверия к искусственному интеллекту в USAF

Согласно заявлениям руководителя инноваций ВВС США, Джо Чапы, ВВС сталкиваются с растущими проблемами в области внедрения искусственного интеллекта (ИИ), так как системы становятся всё более мощными, но менее понятными. Выступая на саммите по вопросам государственного сектора компании SAP в Вашингтоне 16 декабря, он подчеркнул необходимость создания доверия через лидерство, культуру и управление рисками, а не полагаться исключительно на техническую прозрачность.
Основные вызовы внедрения ИИ
С точки зрения ВВС, эти проблемы коренятся в быстром развитии современных ИИ-систем. Чапа отметил, что современные системы ИИ, особенно те, которые основаны на глубоком обучении, становятся всё более сложными, поскольку они опираются на огромные объёмы данных, вычислительную мощность и множество слоёв искусственных нейронов. Хотя такая сложность улучшила производительность, это также привело к созданию «чёрных ящиков», чьи процессы принятия решений невозможно объяснить.
Проблема объяснимости ИИ
Чапа сообщил, что исследователи изначально разрабатывали инструменты объяснимого ИИ для повышения прозрачности таких систем. Однако стремительный рост генеративного ИИ привёл к тому, что сложность моделей стала расти быстрее, чем исследовательские инструменты успевали адаптироваться. В результате требование полной объяснимости фактически помешает организациям использовать многие из наиболее продвинутых ИИ-систем на сегодняшний день.
Управление рисками как способ установления доверия
Вместо полной объяснимости Чапа призвал организации полагаться на управление, защитные механизмы и управление рисками для установления доверия. Он добавил, что принципы инноваций и ответственного использования ИИ, такие как целостность, защитные меры и надзор, могут сосуществовать, но только если руководство согласует мотивацию в крупных учреждениях.
Конфликт между инновациями и безопасностью
Чапа описал напряжение между лидерами инноваций, которые вознаграждаются за быстрое движение, и лидерами кибербезопасности, которые стремятся предотвратить неудачу, замедляя внедрение. Эта динамика неоднократно откладывала усилия по развертыванию генеративных инструментов ИИ внутри ВВС.
Роль культуры в принятии ИИ
Он подчеркнул, что успех внедрения ИИ — это в первую очередь проблема культуры и людей, а не чисто техническая. Чапа описал, как скрытое использование генеративного ИИ может подорвать доверие среди сотрудников и между экспертами и пользователями. «У нас есть немного страха быть пойманным за использование генеративного ИИ», — отметил он. Это противоречит культуре, которую хочется создать.
Создание здоровой культуры ИИ
Чапа заявил, что здоровая культура ИИ — это та культура, в которой сотрудники открыто обсуждают, когда и как они используют инструменты ИИ, и несут ответственность за результаты. Он подчеркнул, что организация «достигает успеха в ИИ» не тогда, когда инструменты широко внедрены, а когда доверие строится через прозрачность и общие нормы. «Это не доверие к системам, это доверие между людьми», — заключил он.
Выводы
Таким образом, для успешного внедрения ИИ в ВВС необходимо учитывать множественные аспекты, включая управление рисками, развитие культуры доверия и интеграцию инструментов ИИ в повседневную практику. Четкая стратегия, направленная на устранение напряженности между инновациями и безопасностью, а также на создание открытой среды для обсуждения использования ИИ станет важным шагом к успешной интеграции искусственного интеллекта в организацию.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
