Поделиться
VK Telegram OK

Антропный подход против Пентагона: что на самом деле поставлено на карту?

Искусственный интеллект
AGILog · 2026-02-27 19:11

Последние две недели были отмечены столкновением между генеральным директором Anthropic Дарио Амодеем и министром обороны Питом Хегсетом, которые спорили о применении ИИ в военных целях.

Anthropic отказывается разрешать использование своих моделей искусственного интеллекта для массовой слежки за американцами или для создания полностью автономного оружия, которое атакует без участия человека. В то же время министр Хегсет утверждал, что Министерство обороны не должно быть ограничено правилами поставщика, и любое «законное использование» технологии должно быть разрешено.

В четверг Амодей публично заявил, что Anthropic не отступает, несмотря на угрозы того, что в результате его компания может быть отнесена к группе риска в цепочке поставок. Но поскольку новостной цикл развивается стремительно, стоит ещё раз задуматься о том, что именно поставлено на карту в этой борьбе.

По сути, эта борьба заключается в том, кто контролирует мощные системы искусственного интеллекта — компании, которые их создают, или правительство, которое хочет их внедрить.

О чём беспокоится Anthropic?

Как мы уже говорили выше, Anthropic не хочет, чтобы её модели искусственного интеллекта использовались для массовой слежки за американцами или для создания автономного оружия без участия человека, принимающего решения о прицеливании и стрельбе. Традиционные оборонные подрядчики, как правило, не имеют большого влияния на то, как будут использоваться их продукты, но Anthropic с самого начала утверждала, что технология искусственного интеллекта сопряжена с уникальными рисками и, следовательно, требует уникальных мер предосторожности. С точки зрения компании, вопрос заключается в том, как обеспечить эти меры предосторожности, когда технология используется военными.

Вооружённые силы США уже полагаются на высокоавтоматизированные системы, некоторые из которых являются смертоносными. Решение о применении смертоносной силы исторически принималось людьми, но существует несколько юридических ограничений на использование автономного оружия в военных целях. Министерство обороны не запрещает полностью автономные системы вооружения. Согласно директиве Министерства обороны от 2023 года, системы искусственного интеллекта могут выбирать цели и поражать их без вмешательства человека, если они соответствуют определённым стандартам и проходят проверку высокопоставленными должностными лицами Министерства обороны.

Именно это заставляет Anthropic нервничать. Военные технологии по своей природе являются секретными, поэтому, если бы американские военные предпринимали шаги по автоматизации принятия решений, связанных с летальным исходом, мы могли бы не знать об этом, пока они не заработали. И если бы компания использовала модели Anthropic, это могло бы считаться «законным использованием».

Позиция Anthropic заключается не в том, что такое использование должно быть навсегда запрещено. Дело в том, что её модели пока недостаточно эффективны для их безопасной поддержки. Представьте себе автономную систему, неправильно определяющую цель, обостряющую конфликт без разрешения человека или принимающую за доли секунды смертельное решение, которое никто не может отменить. Назначьте менее компетентный ИИ ответственным за оружие, и вы получите очень быструю и уверенную в себе машину, которая не справляется с принятием решений по высоким ставкам.

ИИ также может в значительной степени усилить законную слежку за американскими гражданами. В соответствии с действующим законодательством США слежка за американскими гражданами уже возможна, будь то посредством сбора текстовых сообщений, электронных писем или других средств связи. Искусственный интеллект меняет ситуацию, позволяя автоматически выявлять крупномасштабные закономерности, выделять объекты в наборах данных, прогнозировать риски и проводить непрерывный поведенческий анализ.

Чего хочет Пентагон?

Аргумент Пентагона заключается в том, что он должен иметь возможность использовать технологии Anthropic для любого законного использования, которое он сочтёт необходимым, а не ограничиваться внутренней политикой Anthropic в таких вопросах, как автономное оружие или наблюдение.

Более конкретно, министр Хегсет утверждал, что Министерство обороны не должно быть ограничено правилами поставщика и что оно будет заниматься «законным использованием» технологии.

Шон Парнелл, главный пресс-секретарь Пентагона, заявил в своём сообщении в четверг, что министерство не заинтересовано в проведении массовой внутренней слежки или развёртывании автономного оружия.

«Вот о чём мы просим: разрешите Пентагону использовать модель Anthropic для всех законных целей», — сказал Парнелл. «Это простое, основанное на здравом смысле требование, которое не позволит Anthropic ставить под угрозу важнейшие военные операции и потенциально подвергать риску наших бойцов. Мы не позволим ни одной компании диктовать условия относительно того, как мы принимаем операционные решения».

Он добавил, что у Anthropic есть время до 17:01 по восточному времени в пятницу, чтобы принять решение. «В противном случае мы прекратим наше партнёрство с Anthropic и сочтём их угрозой для цепочки поставок DOW», — сказал он.

Несмотря на позицию Министерства, заключающуюся в том, что оно просто не считает, что это должно быть ограничено политикой использования корпорации, опасения госсекретаря Хегсета по поводу Anthropic временами казались связанными с культурным недовольством. В речи в офисах SpaceX и xAI в январе Хегсет выступил против «пробуждённого ИИ» в речи, которую некоторые восприняли как предварительный просмотр его вражды с Anthropic.

«Искусственный интеллект военного министерства не будет разбужен», — сказал Хегсет. «Мы создаём оружие и системы, готовые к войне, а не чат-ботов для факультетской гостиной Лиги Плюща».

И что теперь?

Пентагон пригрозил либо объявить Anthropic «рискованной компанией в цепочке поставок», что фактически запрещает Anthropic вести бизнес с правительством, либо сослаться на Закон об оборонном производстве (DPA), чтобы заставить компанию адаптировать свою модель к потребностям военных. Хегсет дал Anthropic время до 17:01 в пятницу для ответа. Но с приближением крайнего срока остаётся только гадать, выполнит ли Пентагон свою угрозу.

Это не та битва, от которой любая из сторон может легко отказаться. Сачин Сет, венчурный инвестор из Trousdale Ventures, специализирующийся на оборонных технологиях, говорит, что оценка рисков в цепочке поставок для Anthropic может означать «отбой» для компании.

Однако, по его словам, если Anthropic будет исключена из Министерства обороны, это может стать проблемой национальной безопасности.

«[Департаменту] пришлось бы ждать от шести до 12 месяцев, пока OpenAI или xAI догонят его», — сказал Сет AGI_LOG. «Это оставляет промежуток времени до года, в течение которого они могут работать не по лучшей модели, а по второй или третьей из лучших».

xAI готовится перейти на засекреченный уровень и заменить Anthropic, и справедливо будет сказать, что, учитывая риторику владельца Илона Маска по этому вопросу, у компании не возникнет проблем с предоставлением Министерству обороны полного контроля над своей технологией. Недавние отчёты указывают на то, что OpenAI может придерживаться тех же правил, что и Anthropic.