🧠 CẬP NHẬT: Công ty an toàn AI của Mỹ, Anthropic, cho biết nhiều công ty AI Trung Quốc, bao gồm DeepSeek, Moonshot AI và MiniMax, đã thực hiện các chiến dịch "chưng cất" quy mô công nghiệp trên mô hình Claude của họ — tạo ra hàng triệu tương tác thông qua ~24,000 tài khoản giả mạo để trích xuất khả năng cho các mô hình của riêng họ.
🔎 Những gì Anthropic cáo buộc
Các hoạt động này liên quan đến việc tạo ra hơn 16 triệu trao đổi với Claude để trái phép "chưng cất" khả năng lý luận, lập trình và sử dụng công cụ tiên tiến của nó.
Đây là những hoạt động không được phép và vi phạm các điều khoản của Anthropic, theo công ty.
Anthropic cho biết họ đã truy dấu các chiến dịch với "độ tin cậy cao" bằng cách sử dụng IP, siêu dữ liệu và tín hiệu hạ tầng.
Ba phòng thí nghiệm này bị cáo buộc đã sử dụng dịch vụ proxy và tài khoản giả để né tránh các hạn chế truy cập.
🧩 Ý nghĩa của "Chưng cất" ở đây
Chưng cất là một kỹ thuật hợp pháp, trong đó một mô hình nhỏ hơn được huấn luyện trên các đầu ra từ một mô hình lớn hơn. Nhưng Anthropic tuyên bố rằng các chiến dịch này không vô hại — mà thay vào đó tìm cách rút ngắn hàng năm nghiên cứu.
Đây là một điểm nóng đang gia tăng trong cuộc đua AI, nơi mà các biện pháp kiểm soát truy cập và bảo vệ IP ngày càng bị căng thẳng.
🛰️ Bối cảnh Địa chính trị & An ninh
Anthropic không cung cấp thương mại Claude tại Trung Quốc và cho biết họ hạn chế truy cập toàn cầu cho các công ty thuộc sở hữu Trung Quốc vì lý do an ninh quốc gia.
Ngoài sự cạnh tranh thương mại, công ty cảnh báo rằng các mô hình chưng cất thiếu các biện pháp bảo vệ an toàn của Mỹ có thể bị tái sử dụng cho giám sát, hoạt động mạng, hoặc công cụ thông tin sai lệch.
🪪 Phản ứng cho đến nay
Không có công ty Trung Quốc nào được nêu tên đã công khai phản hồi về các cáo buộc.
Điều này theo sau các tuyên bố tương tự từ các phòng thí nghiệm AI của Mỹ rằng các đối thủ Trung Quốc đã tìm cách sao chép khả năng bằng cách huấn luyện trên các đầu ra mô hình phương Tây.
#Anthropic #DeepSeek #ClaudeAI #AIRace #ArtificialIntelligence