Гонка за доминирование в области искусственного интеллекта (ИИ) резко обострилась, поскольку американские технологические гиганты обвиняют китайские компании в агрессивном воровстве интеллектуальной собственности. Суть проблемы заключается не просто в конкуренции, а в предполагаемом промышленном шпионаже, направленном на ускорение развития ИИ в Китае путем обхода дорогостоящих многолетних исследований. Это не просто бизнес-конфликт; он подчеркивает стратегическую борьбу за власть, где возможности ИИ считаются критически важными как для экономической, так и для национальной безопасности.
Масштаб обвинений
Anthropic, OpenAI и Google недавно сообщили о случаях, когда китайские ИИ-компании использовали обманные тактики для извлечения информации из их передовых моделей. Наиболее подробные обвинения исходят от Anthropic, которая утверждает, что DeepSeek, Moonshot AI и MiniMax коллективно провели более 16 миллионов разговоров со своим чат-ботом Claude, используя 24 000 поддельных учетных записей. Это было не случайно; это была скоординированная кампания по сбору знаний Claude и обучению конкурирующих моделей за долю от первоначальных затрат на исследования.
Как работает дистилляция ИИ
Техника, лежащая в основе этих обвинений, известна как «извлечение модели» или «дистилляция». Это законный процесс при внутреннем использовании для создания более мелких и быстрых версий ИИ-моделей. Однако в данном случае, как утверждается, он используется как оружие. Дистилляция включает в себя подачу в мощную ИИ-модель тысяч запросов, сбор ее ответов, а затем использование этих ответов для обучения конкурирующей модели. Это позволяет китайским компаниям опережать многолетнюю разработку, используя существующий интеллект американских ИИ-систем.
Последствия для национальной безопасности
Основная проблема заключается не только в экономических потерях, но и в потенциальном отсутствии важнейших мер безопасности в украденных моделях. Anthropic предупреждает, что дистиллированные модели могут быть использованы государственными и негосударственными субъектами в злонамеренных целях, включая исследования биологического оружия или кибератаки. В отличие от законной разработки ИИ, эти украденные модели обходят этические ограничения и протоколы безопасности.
Тактика, используемая китайскими компаниями
Чтобы избежать обнаружения, китайские компании, предположительно, использовали «гидросеть» поддельных учетных записей, направленных через прокси-адреса, для доступа к Claude от Anthropic, который запрещен в Китае. Эти учетные записи не только пассивно собирали данные; они активно разрабатывали запросы для извлечения конкретной информации. Например, DeepSeek инструктировал Claude объяснять свои рассуждения шаг за шагом, генерируя высококачественные обучающие данные. Они также использовали чат-бота для создания цензуроустойчивых ответов на политически чувствительные запросы, потенциально обучая свои модели обходить запрещенные темы.
Опасения Google
Google также зафиксировал злоупотребление своим чат-ботом Gemini, в основном для задач кодирования и сбора разведданных, таких как извлечение учетных данных. Хотя Google утверждает, что эти атаки не угрожают целостности его сервисов, общая картина демонстрирует систематические усилия по эксплуатации американских возможностей ИИ.
Общая картина
Обвинения подчеркивают растущую напряженность в гонке вооружений в сфере ИИ. Способность Китая быстро сократить отставание от США в области ИИ во многом зависит от его способности приобретать существующие знания, не неся полной стоимости исследований. Текущая ситуация подчеркивает необходимость международного сотрудничества и более строгих мер безопасности против шпионажа в сфере ИИ, но также ставит вопрос о возможности полного предотвращения такой деятельности.
В конечном счете, холодная война в области ИИ накаляется, и ставки намного выше, чем простая конкуренция. Это битва за технологическое превосходство с глубокими последствиями для глобальной безопасности и экономической мощи.
