Anthropic запускает ПАК для формирования политики в области ИИ перед средними выборами — Технологический форум

Ваш главный источник новостей, аналитики и знаний в области технологий. Освещение последних новостей в области искусственного интеллекта, стартапов, кибербезопасности и инноваций.

Эксперты по обороне оспаривают черный список Пентагона Anthropic

Бывшие должностные лица потребовали расследования Конгрессом поставки оборонных рисков от DoD.

Вот основные моменты:

  • Бывшие должностные лица направили письмо Конгрессу с требованием провести расследование по поводу включения Пентагоном Anthropic в список оборонных рисков.
  • Эксперты предупреждают, что действия ДоD создают ‘опасный прецедент’, который может повредить конкурентоспособности США в области ИИ и инновациям.
  • Эта проблема возникла после того, как государственные подрядчики вынуждены были отказаться от использования AI Anthropic’s Claude после черного списка Пентагона.
  • Конгресс может изменить способ взаимодействия военных с коммерческими компаниями ИИ и повлиять на более широкий ландшафт партнерства в области ИИ и обороны.

Как происходит это событие:

Группа бывших должностных лиц в сфере обороны и разведки призывает Конгресс расследовать спорное решение Пентагона пометить Anthropic как риск в цепочке поставок, выражая небывалый отпор против недавнего шага Департамента обороны, который уже заставил государственных подрядчиков отказаться от использования встроенного чат-бота AI компании.

Буря разразился после того, как Пентагон тихонько добавил Anthropic в свой список рисков в цепочках поставок, фактически запретив государственным подрядчикам использовать ассистент AI компании Claude. Этот шаг вызвал шок в экосистеме оборонных технологий, заставив подрядчиков спешно удалять интеграции с Claude и переключаться на альтернативы. Некоторые компании сообщили CNBC, что они получили менее 72 часов на выполнение требований или рискнули потерять федеральные контракты на сумму миллионы долларов.

Этот случай выглядит необычно из-за профиля Anthropic. В отличие от компаний, принадлежащих Китаю, с которыми связаны аналогичные ограничения, Anthropic — это компания из Сан-Франциско, финансируемая Google и крупными инвесторами из Кремниевой долины. Компания позиционирует себя как лидера в безопасности ИИ, часто ссылаясь на свой конституциональный подход к ИИ, направленный на увеличение управляемости и соответствия человеческим ценностям.

В письме бывших должностных лиц говорится, что Пентагон не дал достаточного обоснования для такой пометки. Они отмечают, что у Anthropic нет очевидных связей с враждебными нациями, компания соблюдает строгие стандарты безопасности и активно ищет партнерства с правительством. Один из подписавших письмо должностных лиц заявил репортерам, что решение, похоже, вызвано бюрократической путаницей, а не обоснованными проблемами безопасности, что, возможно, отражает более глубокую дисфункцию в оценке Пентагоном коммерческих поставщиков ИИ.

Время выбрано дурное для конкуренции в области ИИ между США и Китаем. В то время, как Пентагон ограничивает доступ к американским компаниям ИИ, Пекин вкладывает миллиарды в военные приложения ИИ, минуя бюрократические препятствия. Бывшие должностные лица предупреждают, что чрезмерно строгая политика может дать Китаю стратегическое преимущество, особенно поскольку НОАК быстро интегрирует ИИ в системы вооружения, логистику и анализ разведданных.

Коммерческие последствия были быстрыми и серьезными. Подрядчики в сфере обороны, которые значительно вложили в системы, работающие на основе AI от Claude, начиная от анализа документов и заканчивая генерированием кода, теперь сталкиваются с затратными миграциями на альтернативные платформы. Некоторые переходят на модели GPT от Open AI, а другие исследуют услуги Azure AI от Microsoft. Но внезапная дисрупция привела к задержкам проектов и напряжению бюджетов.

Индустрия наблюдает более широкие последствия для партнерства между ИИ и обороной. Если Пентагон может заблокировать уважаемую американскую компанию ИИ с минимальной прозрачностью, какое сообщение это отправляет другим технологическим фирмам, рассматривающим работу с правительством? Некоторые венчурные капиталисты уже советуют компаниям своих портфелей дважды подумать перед привлечением оборонных контрактов, опасаясь, что бюрократическое капризное поведение могло бы за один день уничтожить бизнес-модели.

Сотрудники Конгресса подтверждают, что несколько комитетов изучают вопрос. Комитет по вооруженным силам Палаты представителей и комитет по разведке Сената запросили у Пентагона разъяснения по поводу причиной пометки Anthropic. Один из старших сотрудников описал ситуацию как потенциальный поворотный момент для того, как Конгресс будет осуществлять надзор за процессами закупок и отбора ИИ в вооруженных силах.

Подписавшие письмо требуют проведения официальных слушаний и настоятельно требуют, чтобы Пентагон раскрыл свои критерии для оценки рисков в цепочках поставок. Они утверждают, что существующие процессы лишены прозрачности и ответственности, создавая среду, где политические соображения или межагентские ривалитеты могут влиять на решения, которые должны быть исключительно на основе безопасности. Ставки распространяются за пределы Anthropic на все партнерство между Кремниевой долиной и Вашингтоном.

В зависимости от того, что произойдет дальше, могут измениться технологические ландшафты обороны на многие годы. Если Конгресс выступит в защиту бывших должностных лиц и надавит на Пентагон, чтобы тот изменил свою позицию, это станет сигналом о том, что у коммерческих компаний ИИ есть политическое покрытие для оспаривания подозрительных обозначений безопасности. Но если решение ДоD останется неизменным, ожидай охлаждения во всей отрасли, так как компании взвесят репутационные и финансовые риски глубокого участия в государственной сфере по сравнению с неопределенностью произвольного включения в черный список.

Редкий публичный вызов руководства Пентагона в сфере защиты обороны от Anthropic подчеркивает более глубокие напряжения в вопросе, как Америка управляет инновациями в ИИ в эпоху стратегической конкуренции. Вне зависимости от того, будет ли проводить расследование Конгресс или ДоD усилит свои действия, это столкновение определит правила взаимодействия между коммерческими разработчиками ИИ и агентствами национальной безопасности на следующее десятилетие. Для Anthropic, репутация компании в качестве лидера по безопасности ИИ сталкивается с жестокой реальностью бюрократии Вашингтона, где восприятие и процесс могут оказаться важнее технических заслуг. Решение либо будет подтверждать опасения, связанные с чрезмерным регулированием технологий в правительстве, либо подтвердит, что даже выдающиеся американские компании ИИ не застрахованы от контроля безопасности.




Прокомментировать в Телеграм: https://t.me/n8nhow

Подписаться на канал обучения n8n: https://t.me/n8ncoaching

Контент соцсетей за 5 минут в день, n8n автоматизация
Обзор конфиденциальности

На этом сайте используются файлы cookie, что позволяет нам обеспечить наилучшее качество обслуживания пользователей. Информация о файлах cookie хранится в вашем браузере и выполняет такие функции, как распознавание вас при возвращении на наш сайт и помощь нашей команде в понимании того, какие разделы сайта вы считаете наиболее интересными и полезными.