🧠 PRZEŁOM: Amerykańska firma zajmująca się bezpieczeństwem AI, Anthropic, twierdzi, że wiele chińskich firm AI, w tym DeepSeek, Moonshot AI i MiniMax, prowadziło kampanie „destylacji” na jej modelu Claude w skali przemysłowej — generując miliony interakcji za pośrednictwem ~24,000 fałszywych kont w celu wydobycia możliwości dla swoich własnych modeli.
🔎 Co zarzuca Anthropic
Operacje obejmowały generowanie ponad 16 milionów wymian z Claude'em, aby nielegalnie „destylować” jego zaawansowane umiejętności rozumowania, kodowania i korzystania z narzędzi.
Były one nieautoryzowane i naruszały warunki Anthropic, według firmy.
Anthropic twierdzi, że śledził kampanie z „wysokim poziomem pewności” korzystając z IP, metadanych i sygnałów infrastrukturalnych.
Trzy laboratoria są oskarżane o korzystanie z usług proxy i fałszywych kont, aby unikać ograniczeń dostępu.
🧩 Co oznacza „Destylacja” tutaj
Destylacja to legalna technika, w której mniejszy model jest trenowany na wynikach z większego. Ale Anthropic twierdzi, że kampanie nie były łagodne — zamiast tego dążyły do skrócenia lat badań.
To rosnący punkt zapalny w wyścigu AI, gdzie kontrole dostępu i ochrona IP są coraz bardziej napięte.
🛰️ Kontekst geopolityczny i bezpieczeństwa
Anthropic nie oferuje komercyjnie Claude'a w Chinach i twierdzi, że ogranicza dostęp globalnie dla firm będących w chińskich rękach z powodów bezpieczeństwa narodowego.
Poza rywalizacją komercyjną, firma ostrzega, że destylowane modele pozbawione amerykańskich zabezpieczeń mogą być przekształcone do nadzoru, działań cybernetycznych lub narzędzi dezinformacyjnych.
🪪 Reakcje do tej pory
Żadna z wymienionych chińskich firm nie odpowiedziała publicznie na zarzuty.
To następuje po podobnych roszczeniach ze strony innych amerykańskich laboratoriów AI, że chińscy gracze dążyli do replikacji możliwości, trenując na wynikach modeli zachodnich.
#Anthropic #DeepSeek #ClaudeAI #AIRace #ArtificialIntelligence