Сейчас ваша корзина пуста!
Anthropic запускает ПАК для формирования политики в области ИИ перед средними выборами — Технологический форум

Ваш главный источник новостей, аналитики и знаний в области технологий. Освещение последних новостей в области искусственного интеллекта, стартапов, кибербезопасности и инноваций.
Эксперты по обороне оспаривают черный список Пентагона Anthropic
Бывшие должностные лица потребовали расследования Конгрессом поставки оборонных рисков от DoD.
Вот основные моменты:
- Бывшие должностные лица направили письмо Конгрессу с требованием провести расследование по поводу включения Пентагоном Anthropic в список оборонных рисков.
- Эксперты предупреждают, что действия ДоD создают ‘опасный прецедент’, который может повредить конкурентоспособности США в области ИИ и инновациям.
- Эта проблема возникла после того, как государственные подрядчики вынуждены были отказаться от использования AI Anthropic’s Claude после черного списка Пентагона.
- Конгресс может изменить способ взаимодействия военных с коммерческими компаниями ИИ и повлиять на более широкий ландшафт партнерства в области ИИ и обороны.
Как происходит это событие:
Группа бывших должностных лиц в сфере обороны и разведки призывает Конгресс расследовать спорное решение Пентагона пометить Anthropic как риск в цепочке поставок, выражая небывалый отпор против недавнего шага Департамента обороны, который уже заставил государственных подрядчиков отказаться от использования встроенного чат-бота AI компании.
Буря разразился после того, как Пентагон тихонько добавил Anthropic в свой список рисков в цепочках поставок, фактически запретив государственным подрядчикам использовать ассистент AI компании Claude. Этот шаг вызвал шок в экосистеме оборонных технологий, заставив подрядчиков спешно удалять интеграции с Claude и переключаться на альтернативы. Некоторые компании сообщили CNBC, что они получили менее 72 часов на выполнение требований или рискнули потерять федеральные контракты на сумму миллионы долларов.
Этот случай выглядит необычно из-за профиля Anthropic. В отличие от компаний, принадлежащих Китаю, с которыми связаны аналогичные ограничения, Anthropic — это компания из Сан-Франциско, финансируемая Google и крупными инвесторами из Кремниевой долины. Компания позиционирует себя как лидера в безопасности ИИ, часто ссылаясь на свой конституциональный подход к ИИ, направленный на увеличение управляемости и соответствия человеческим ценностям.
В письме бывших должностных лиц говорится, что Пентагон не дал достаточного обоснования для такой пометки. Они отмечают, что у Anthropic нет очевидных связей с враждебными нациями, компания соблюдает строгие стандарты безопасности и активно ищет партнерства с правительством. Один из подписавших письмо должностных лиц заявил репортерам, что решение, похоже, вызвано бюрократической путаницей, а не обоснованными проблемами безопасности, что, возможно, отражает более глубокую дисфункцию в оценке Пентагоном коммерческих поставщиков ИИ.
Время выбрано дурное для конкуренции в области ИИ между США и Китаем. В то время, как Пентагон ограничивает доступ к американским компаниям ИИ, Пекин вкладывает миллиарды в военные приложения ИИ, минуя бюрократические препятствия. Бывшие должностные лица предупреждают, что чрезмерно строгая политика может дать Китаю стратегическое преимущество, особенно поскольку НОАК быстро интегрирует ИИ в системы вооружения, логистику и анализ разведданных.
Коммерческие последствия были быстрыми и серьезными. Подрядчики в сфере обороны, которые значительно вложили в системы, работающие на основе AI от Claude, начиная от анализа документов и заканчивая генерированием кода, теперь сталкиваются с затратными миграциями на альтернативные платформы. Некоторые переходят на модели GPT от Open AI, а другие исследуют услуги Azure AI от Microsoft. Но внезапная дисрупция привела к задержкам проектов и напряжению бюджетов.
Индустрия наблюдает более широкие последствия для партнерства между ИИ и обороной. Если Пентагон может заблокировать уважаемую американскую компанию ИИ с минимальной прозрачностью, какое сообщение это отправляет другим технологическим фирмам, рассматривающим работу с правительством? Некоторые венчурные капиталисты уже советуют компаниям своих портфелей дважды подумать перед привлечением оборонных контрактов, опасаясь, что бюрократическое капризное поведение могло бы за один день уничтожить бизнес-модели.
Сотрудники Конгресса подтверждают, что несколько комитетов изучают вопрос. Комитет по вооруженным силам Палаты представителей и комитет по разведке Сената запросили у Пентагона разъяснения по поводу причиной пометки Anthropic. Один из старших сотрудников описал ситуацию как потенциальный поворотный момент для того, как Конгресс будет осуществлять надзор за процессами закупок и отбора ИИ в вооруженных силах.
Подписавшие письмо требуют проведения официальных слушаний и настоятельно требуют, чтобы Пентагон раскрыл свои критерии для оценки рисков в цепочках поставок. Они утверждают, что существующие процессы лишены прозрачности и ответственности, создавая среду, где политические соображения или межагентские ривалитеты могут влиять на решения, которые должны быть исключительно на основе безопасности. Ставки распространяются за пределы Anthropic на все партнерство между Кремниевой долиной и Вашингтоном.
В зависимости от того, что произойдет дальше, могут измениться технологические ландшафты обороны на многие годы. Если Конгресс выступит в защиту бывших должностных лиц и надавит на Пентагон, чтобы тот изменил свою позицию, это станет сигналом о том, что у коммерческих компаний ИИ есть политическое покрытие для оспаривания подозрительных обозначений безопасности. Но если решение ДоD останется неизменным, ожидай охлаждения во всей отрасли, так как компании взвесят репутационные и финансовые риски глубокого участия в государственной сфере по сравнению с неопределенностью произвольного включения в черный список.
Редкий публичный вызов руководства Пентагона в сфере защиты обороны от Anthropic подчеркивает более глубокие напряжения в вопросе, как Америка управляет инновациями в ИИ в эпоху стратегической конкуренции. Вне зависимости от того, будет ли проводить расследование Конгресс или ДоD усилит свои действия, это столкновение определит правила взаимодействия между коммерческими разработчиками ИИ и агентствами национальной безопасности на следующее десятилетие. Для Anthropic, репутация компании в качестве лидера по безопасности ИИ сталкивается с жестокой реальностью бюрократии Вашингтона, где восприятие и процесс могут оказаться важнее технических заслуг. Решение либо будет подтверждать опасения, связанные с чрезмерным регулированием технологий в правительстве, либо подтвердит, что даже выдающиеся американские компании ИИ не застрахованы от контроля безопасности.
Прокомментировать в Телеграм: https://t.me/n8nhow
Подписаться на канал обучения n8n: https://t.me/n8ncoaching
