🤖 Claude a fost prins în furtuna geopolitică: Antropic și jocul de conformitate cu Pentagonul

Inteligența artificială a devenit oficial un instrument de război? Ultimul raport de anchetă al „Wall Street Journal” (WSJ) a șocat comunitatea tehnologică.

📍 Evenimentul principal:

Conform unor surse, armata americană a folosit modelul AI Claude de la Antropic în acțiunea de capturare a fostului președinte venezuelean Maduro, desfășurată luna trecută. Se spune că modelul a participat la planificarea misiunii, ajutând armata să lovească țintele din Caracas.

⚠️ Punctul de conflict:

Antropic deține cea mai strictă „constitutie” AI din lume. Compania a stabilit reguli clare care interzic utilizarea lui Claude pentru:

Incitarea la violență. Dezvoltarea de arme. Implementarea de supraveghere.

CEO-ul Antropic a avertizat de mai multe ori cu privire la riscurile armelor autonome. În prezent, contractul companiei cu Pentagonul este contestat, ceea ce ar putea provoca o dezbatere aprinsă despre reglementarea AI.

🗣 Răspuns oficial:

Un purtător de cuvânt al Antropic a declarat: „Nu ne este convenabil să comentăm dacă Claude a fost folosit pentru acțiuni specifice confidențiale. Orice utilizare a lui Claude—fie că este vorba de sectorul privat sau de guvern—trebuie să se conformeze politicii noastre de utilizare.”

📉 Impactul asupra industriei:

Acest eveniment ar putea accelera tendința de reglementare stringentă a inteligenței artificiale la nivel global. Pentru investitori, acest lucru înseamnă că sectorul AI (tokenurile AI) va fi din ce în ce mai influențat de cadrul geopolitic și etic, și nu doar de progresele tehnologice.

Credeți că AI ar trebui să aibă dreptul de a refuza executarea comenzilor militare? Vă invităm să discutați în secțiunea de comentarii! 👇

#AI #Anthropic #Claude #五角大楼 #科技新闻

BTC
BTC
66,424.33
-1.73%