Anthropic cho biết ba công ty AI Trung Quốc đã tạo ra hơn 24.000 tài khoản giả để lấy dữ liệu từ hệ thống Claude của họ. Công ty cho biết mục tiêu là để tăng tốc độ cho các mô hình của riêng họ.

Các công ty được nêu tên là DeepSeek, Moonshot AI và MiniMax. Anthropic cho biết những tài khoản đó đã gửi hơn 16 triệu lời nhắc vào Claude để thu thập phản hồi và mẫu có thể được sử dụng lại để huấn luyện.

Anthropic đã chia sẻ chi tiết trong một bài viết trên blog vào thứ Hai. Công ty cho biết hoạt động này là một hình thức tinh chế. Quy trình đó sử dụng đầu ra từ một mô hình để huấn luyện một mô hình khác. Dario Amodei lãnh đạo Anthropic.

Anthropic được cho là đã nói rằng DeepSeek đã thực hiện khoảng 150,000 tương tác với Claude. Moonshot AI đã ghi lại hơn 3.4 triệu lời nhắc. MiniMax đã đạt hơn 13 triệu lời nhắc. Anthropic cho biết quy mô cho thấy một ý định rõ ràng để trích xuất giá trị một cách nhanh chóng.

OpenAI đánh dấu hành vi tương tự ở Washington

Đầu tháng này, OpenAI đã gửi một bản ghi nhớ tới các nhà lập pháp Hạ viện cáo buộc DeepSeek đã sử dụng cùng một chiến thuật chưng cất để sao chép các hệ thống của mình. Sam Altman điều hành OpenAI. Sau khi đầu tiên đề cập đến OpenAI, công ty đã nói với các nhà lập pháp rằng DeepSeek đã cố gắng bắt chước các sản phẩm của nó thông qua khối lượng lời nhắc lớn.

Anthropic cho biết quá trình chưng cất bản thân có những ứng dụng hợp lệ. Các công ty sử dụng nó để xây dựng các phiên bản nhỏ hơn của các mô hình của riêng họ. Anthropic cũng cho biết phương pháp tương tự có thể tạo ra các hệ thống đối thủ trong một khoảng thời gian ngắn hơn và với chi phí thấp hơn.

Dữ liệu tổng hợp hiện đóng vai trò lớn trong việc đào tạo các mô hình nền tảng lớn. Các nhà phát triển sử dụng nó vì dữ liệu thực có chất lượng cao bị hạn chế. Nhiều phòng thí nghiệm cũng đang xây dựng các hệ thống có khả năng hành động cho người dùng. Trong một báo cáo kỹ thuật vào tháng Bảy, Moonshot cho biết họ đã sử dụng dữ liệu tổng hợp để đào tạo mô hình Kimi K2 của mình.

Anthropic cho biết hoạt động này gây ra lo ngại về an ninh quốc gia. Công ty cho biết rằng các phòng thí nghiệm nước ngoài chưng cất các mô hình của Mỹ có thể cung cấp những khả năng đó vào các hệ thống quân sự, tình báo và giám sát.

Thị trường phản ứng khi Anthropic ra mắt công cụ an ninh mới

Anthropic cũng đã ra mắt một công cụ an ninh mới cho Claude vào thứ Sáu trong một bản xem trước nghiên cứu hạn chế. Công cụ này quét mã phần mềm để tìm điểm yếu và đề xuất sửa chữa. Anthropic dự định tổ chức một buổi thông báo doanh nghiệp vào thứ Ba với nhiều thông báo sản phẩm hơn.

Thị trường phản ứng nhanh. Cổ phiếu an ninh mạng giảm trong ngày thứ hai vào thứ Hai khi các nhà đầu tư lo lắng rằng các công cụ AI mới có thể thay thế các dịch vụ an ninh cũ.

CrowdStrike giảm khoảng 9 phần trăm. Zscaler cũng giảm khoảng 9 phần trăm. Netskope giảm gần 10 phần trăm. SailPoint giảm 6 phần trăm. Okta, SentinelOne và Fortinet mỗi cái giảm hơn 4 phần trăm. Palo Alto Networks giảm 2 phần trăm.

Cloudflare giảm 7 phần trăm sau những đợt tăng gần đây liên quan đến sự quan tâm đến Moltbot. Quỹ ETF An ninh mạng và Công nghệ iShares giảm gần 4 phần trăm. Quỹ ETF An ninh mạng Global X đã đạt mức thấp nhất kể từ tháng 11 năm 2023.

Áp lực mở rộng ra ngoài cổ phiếu an ninh. Các công cụ AI xây dựng ứng dụng và trang web từ các lời nhắc đơn giản đã làm rung chuyển các công ty phần mềm trong năm nay.

Salesforce đã mất khoảng một phần ba giá trị của nó. ServiceNow đã giảm hơn 34 phần trăm. Microsoft đã giảm khoảng 20 phần trăm.

Ngân hàng Mỹ cho biết công cụ Anthropic chủ yếu đe dọa các nền tảng quét mã như GitLab và JFrog. GitLab giảm 8 phần trăm vào thứ Sáu. JFrog giảm 25 phần trăm trong cùng ngày.

Đăng ký chỗ ngồi miễn phí của bạn trong một cộng đồng giao dịch crypto độc quyền - giới hạn cho 1,000 thành viên.