← Все новости

Секреты Claude утекают в Китай: лаборатории копируют агентное мышление и инструменты

Новость • Категория: Промышленный шпионаж • Автор: Алексей Воронов • Проверил: Екатерина Морозова • 24.02.2026 01:14

Гонка вооружений в сфере ИИ перешла в фазу открытых обвинений в промышленном шпионаже. Компания Anthropic заявила, что ведущие китайские ИИ-лаборатории — DeepSeek, Moonshot AI и MiniMax — использовали многомиллионную сеть фейковых аккаунтов для систематического копирования возможностей модели Claude. Этот инцидент подсвечивает уязвимость американских проприетарных систем перед методом, известным как «дистилляция».

Как утверждает Anthropic, три китайских разработчика создали более 24 тысяч учетных записей, через которые провели порядка 16 миллионов диалогов. Целью этой активности было извлечение наиболее сложных функций Claude: агентного мышления (reasoning), работы с инструментами и написания кода. Ранее в схожих действиях компанию DeepSeek обвинила и OpenAI, направив соответствующий меморандум в Конгресс США. Если говорить просто, китайские компании используют ответы топовых западных моделей как эталонную обучающую выборку для тренировки собственных систем, что позволяет им радикально экономить на исследованиях и разработке.

Масштаб операций различался в зависимости от специализации лабораторий:

MiniMax продемонстрировала наибольшую активность, сгенерировав 13 млн запросов. В моменты релизов новых версий Claude компания перенаправляла до половины своего трафика на «откачку» знаний о программировании и оркестрации инструментов.

Moonshot AI сфокусировалась на создании агентов и компьютерном зрении, совершив 3,4 млн обменов данными.

DeepSeek, несмотря на меньшее число транзакций (150 тысяч), концентрировалась на обходе цензурных ограничений и фундаментальной логике.

Подобная практика «дистилляции» напрямую влияет на геополитическую повестку и экспортный контроль. В США не прекращаются споры о допустимости поставок передовых чипов Nvidia (например, H200) в Китай. В Anthropic подчеркивают: для обработки и внедрения такого колоссального объема данных, полученных путем дистилляции, все равно требуются огромные вычислительные мощности. Таким образом, аргумент в пользу жестких санкций усиливается — без доступа к железу даже украденные через «подсмотренные ответы» технологии будет невозможно эффективно интегрировать в новые китайские модели, такие как готовящаяся DeepSeek V4.

Технологические риски дополняются вопросами безопасности. Американские лаборатории тратят огромные ресурсы на создание «предохранителей», мешающих ИИ помогать в создании биологического оружия или проведении кибератак. При дистилляции эти защитные слои чаще всего теряются. На практике это значит, что на выходе получается модель с возможностями уровня Claude или GPT-4, но без этических и безопасных фильтров, что открывает двери для использования ИИ в дезинформации и кибервойнах.

В будущем этот конфликт может привести к изоляции экосистем. Anthropic уже призывает облачных провайдеров и политиков к скоординированному ответу. Вероятно, мы увидим внедрение новых систем мониторинга трафика, которые будут распознавать паттерны «дистилляционных атак» в реальном времени, а доступ к API ведущих моделей для определенных регионов станет еще более строго регламентированным. В индустрии формируется консенсус: быстрый прогресс китайских моделей — это не только результат инженерных талантов, но и следствие масштабного поглощения данных из американских систем.

Теги: #Anthropic, #ИИ, #Claude, #Китай, #США, #DeepSeek, #экспорт чипов