Поделиться
VK Telegram OK

Технические работники призывают Министерство обороны и Конгресс отменить маркировку Anthropic из-за риска для цепочки поставок

Искусственный интеллект
AGILog · 2026-03-02 17:18

Сотни технических работников подписали открытое письмо, призывающее Министерство обороны отозвать свое определение Anthropic как “риск для цепочки поставок”. В письме также содержится призыв к Конгрессу вмешаться и “рассмотреть вопрос о целесообразности использования этих чрезвычайных полномочий против американской технологической компании”.

Письмо подписали представители крупнейших технологических компаний и венчурных фондов, включая OpenAI, Slack, IBM, Cursor, Salesforce Ventures и других. Это следует из спора между Министерством обороны и Anthropic после того, как лаборатория искусственного интеллекта на прошлой неделе отказалась предоставить военным неограниченный доступ к своим системам искусственного интеллекта.

Две "красные линии" компании Anthropic в переговорах с Пентагоном заключались в том, что она не хотела, чтобы ее технология использовалась для массовой слежки за американцами или для приведения в действие автономного оружия, которое принимало бы решения о прицеливании и стрельбе без участия человека. Министерство обороны заявило, что у него нет планов делать что-либо из этого, но оно не считает, что это должно быть ограничено правилами поставщика.

В ответ на отказ генерального директора Anthropic Дарио Амодея уступить угрозам Хегсета президент Дональд Трамп в пятницу дал указание федеральным агентствам прекратить использование технологий Anthropic после шестимесячного переходного периода. Хегсет сказал, что он выполнит свои угрозы и объявит Anthropic угрозой для цепочки поставок — определение, обычно предназначенное для иностранных противников, которое запретит фирме по ИИ сотрудничать с любым агентством или компанией, которые ведут дела с Пентагоном.

В сообщении , опубликованном в пятницу, Хегсет написал: “Начиная с этого момента, ни один подрядчик, поставщик или партнер, который ведет дела с вооруженными силами Соединенных Штатов, не может вести какую-либо коммерческую деятельность с Anthropic”.

Но публикация на X не означает, что Anthropic автоматически подвергается риску в цепочке поставок. Правительству необходимо завершить оценку рисков и уведомить Конгресс, прежде чем военным партнерам придется разорвать связи с Anthropic или ее продукцией. Компания Anthropic заявила в сообщении в блоге, что пункт назначения является “юридически необоснованным” и что он “оспорит любое определение риска цепочки поставок в суде”.

Многие в отрасли расценивают отношение администрации к Anthropic как жесткое и очевидное возмездие.

“Когда две стороны не могут прийти к согласию по поводу условий, обычным делом является разойтись и работать с конкурентом”, - говорится в открытом письме. “Эта ситуация создает опасный прецедент. Наказание американской компании за отказ принять изменения в контракте является четким сигналом для каждой технологической компании в Америке: соглашайтесь на любые условия, которые потребует правительство, или столкнетесь с ответными мерами”.

Помимо беспокойства по поводу жесткого отношения правительства к Anthropic, многие представители отрасли по-прежнему обеспокоены потенциальным превышением полномочий правительства и использованием искусственного интеллекта в неблаговидных целях.

Боаз Барак, исследователь OpenAI, написал в понедельник в посте в социальной сети, что запрет правительствам использовать искусственный интеллект для массовой слежки также является его “личной красной линией” и “это должно быть нашим общим делом".

Через несколько мгновений после того, как Трамп публично раскритиковал Anthropic, OpenAI объявила, что заключила собственное соглашение о развертывании своих моделей в засекреченных средах Министерства обороны. Генеральный директор OpenAI Сэм Альтман заявил на прошлой неделе, что у компании те же проблемы, что и у Anthropic.

“Если из событий прошлой недели и может получиться что-то хорошее, то это если мы, представители ИИ-индустрии, начнем рассматривать проблему использования ИИ для злоупотреблений со стороны правительства и слежки за собственным народом как катастрофический риск, который сам по себе имеет право на существование”, - написал Барак. “Мы проделали хорошую работу по оценке, смягчению последствий и разработке процессов для таких рисков, как биологическое оружие и кибербезопасность. Давайте используем аналогичные процессы здесь”.