Anthropic обвиняет три китайские ИИ-компании в создании более 24 000 поддельных аккаунтов с использованием своей модели Claude AI для улучшения своих собственных моделей.
Лаборатории — DeepSeek , Moonshot AI и MiniMax — предположительно произвели более 16 миллионов обменов вместе с Клодом мы просматривали эти записи, используя технику, называемую “дистилляция”. Компания Anthropic заявила, что лаборатории “нацелились на наиболее дифференцированные способности Клода: аналитическое мышление, использование инструментов и кодирование”.
Обвинения прозвучали на фоне дебатов о том, насколько строго следует соблюдать экспортный контроль за передовыми чипами искусственного интеллекта, политику, направленную на сдерживание развития искусственного интеллекта в Китае.
Дистилляция - это распространенный метод обучения, который лаборатории искусственного интеллекта используют на своих моделях для создания уменьшенных и дешевых версий, но конкуренты могут использовать его, чтобы, по сути, скопировать домашнюю работу других лабораторий. Ранее в этом месяце OpenAI направила в Палату представителей докладную записку, в которой обвинила DeepSeek в использовании дистилляции для имитации своих продуктов.
Впервые DeepSeek произвела фурор год назад, когда выпустила свою логическую модель R1 с открытым исходным кодом, которая по производительности почти сравнялась с американской frontier labs, но за меньшую стоимость. Ожидается, что DeepSeek вскоре выпустит DeepSeek V4, свою последнюю модель, которая по сообщениям может превзойти Claude от Anthropic и ChatGPT от OpenAI в области программирования.
Масштабы каждой атаки отличались по масштабу. Anthropic отследил более 150 000 обменов сообщениями из DeepSeek, которые, по-видимому, были направлены на улучшение базовой логики и согласованности, в частности, в отношении безопасных с точки зрения цензуры альтернатив запросам, чувствительным к политике.
В Moonshot AI было проведено более 3,4 миллиона обменов информацией, направленных на аналитическое мышление и использование инструментов, кодирование и анализ данных, разработку агентов для использования на компьютере и компьютерное зрение. В прошлом месяце фирма выпустила новую модель с открытым исходным кодом Kimi K2.5 и средство программирования.
13 миллионов обменов MiniMax были нацелены на программирование агентов, использование инструментов и оркестрацию. Компания Anthropic заявила, что смогла понаблюдать за работой MiniMax в действии, поскольку она перенаправила почти половину своего трафика на возможности siphon с последней модели Claude, когда она была запущена.
В Anthropic заявляют, что продолжат инвестировать в средства защиты, которые затрудняют выполнение и идентификацию подобных атак, но призывают к “скоординированному реагированию со стороны индустрии искусственного интеллекта, облачных провайдеров и политиков”.
Атаки на дистилляцию происходят в то время, когда Экспорт американских чипов в Китай все еще горячо обсуждается. В прошлом месяце администрация Трампа официально разрешила американским компаниям, таким как Nvidia, экспортировать передовые чипы искусственного интеллекта (например, H200) в Китай. Критики утверждают, что это ослабление экспортного контроля увеличивает вычислительные мощности ИИ в Китае в критический момент в глобальной гонке за доминирование ИИ.
Anthropic утверждает, что масштаб добычи DeepSeek, MiniMax и Moonshot “требует доступа к передовым чипам”.
“Таким образом, атаки на дистилляцию усиливают обоснование экспортного контроля: ограниченный доступ к чипам ограничивает как непосредственное обучение моделей, так и масштабы незаконной дистилляции”, - говорится в блоге Anthropic.
Дмитрий Альперович , председатель аналитического центра Silverado Policy Accelerator и соучредитель CrowdStrike, сказал AGI_LOG, что он не удивлен этими атаками.
“Уже давно стало ясно, что одной из причин быстрого развития китайских моделей искусственного интеллекта стало воровство путем переработки передовых моделей США. Теперь мы знаем это точно”, - сказал Альперович. “Это должно дать нам еще более веские основания отказаться от продажи любых чипов ИИ любой из этих [компаний], что только принесет им дополнительную выгоду”.
Anthropic также заявила, что дистилляция не только угрожает доминированию американского ИИ, но и может создать угрозу национальной безопасности.
“Anthropic и другие американские компании создают системы, которые не позволяют государственным и негосударственным субъектам использовать искусственный интеллект, например, для разработки биологического оружия или осуществления вредоносных кибератак”, - говорится в сообщении в блоге Anthropic. “Модели, созданные путем незаконной перегонки, вряд ли сохранят эти гарантии, а это означает, что опасные возможности могут распространяться при полном отсутствии многих средств защиты”.
Антропик указал на авторитарные правительства, использующие передовой искусственный интеллект для таких целей, как “наступательные кибероперации, кампании по дезинформации и массовая слежка”, риск, который возрастает, если эти модели имеют открытый исходный код.
AGI_LOG обратился к DeepSeek, MiniMax и Moonshot за комментариями.