Поделиться
VK Telegram OK

Сотрудники OpenAI и Google бросаются на защиту Anthropic в судебном процессе Министерства обороны

Искусственный интеллект
AGILog · 2026-03-09 21:15

Более 30 сотрудников OpenAI и Google DeepMind подали в понедельник заявление в поддержку иска Anthropic против Министерства обороны США после того, как федеральное агентство назвало компанию, создающую ИИ, угрозой для цепочки поставок, согласно судебным документам.

“Отнесение правительством Anthropic к категории рисков для цепочки поставок было неправомерным и произвольным использованием полномочий, которое имеет серьезные последствия для нашей отрасли”, - говорится в отчете, подписанном главным научным сотрудником Google DeepMind Джеффом Дином.

В конце прошлой недели Пентагон назвал антропный риск для цепочки поставок, который обычно присущ иностранным противникам, после того, как компания по ИИ отказалась разрешить Министерству обороны использовать свою технологию для массовой слежки за американцами или автономной стрельбы из оружия. Министерство обороны утверждало, что оно должно иметь возможность использовать искусственный интеллект для любых “законных” целей и не быть стесненным частным подрядчиком.

Заявление amicus в поддержку Anthropic появилось на рассмотрении через несколько часов после того, как Claude maker подала два иска против Министерства обороны и других федеральных агентств. Wired первым сообщил об этой новости.

В судебном иске сотрудники Google и OpenAI подчеркивают, что если бы Пентагон “больше не был удовлетворен согласованными условиями своего контракта с Anthropic”, агентство могло бы “просто расторгнуть контракт и приобрести воспользуйтесь услугами другой ведущей компании в области искусственного интеллекта.”

Министерство обороны действительно подписало соглашение с OpenAI сразу после того, как признало Anthropic угрозой для цепочки поставок — шаг, против которого протестовали многие сотрудники производителя ChatGPT.

“Если будет позволено продолжить, эти усилия по наказанию одной из ведущих американских компаний в области искусственного интеллекта, несомненно, будут иметь последствия для промышленной и научной конкурентоспособности Соединенных Штатов в области искусственного интеллекта и за ее пределами”, - говорится в записке. “И это охладит открытые дискуссии в нашей области о рисках и преимуществах современных систем искусственного интеллекта”.

В заявке также подтверждается, что заявленные компанией Anthropic "красные линии" являются обоснованными опасениями, требующими серьезных мер предосторожности. В нем утверждается, что без публичного законодательства, регулирующего использование ИИ, договорные и технические ограничения, налагаемые разработчиками на свои системы, являются важнейшей гарантией от катастрофического неправильного использования.

Многие из сотрудников, подписавших это заявление, также за последние пару недель подписали открытые письма, призывающие Министерство обороны отозвать этот ярлык, и , призывающие руководителей своих сотрудников. компаниям следует поддерживать антропный подход и отказываться от одностороннего использования своих систем искусственного интеллекта.