Co-fondatorul Ethereum, Vitalik Buterin, a comentat recent despre una dintre cele mai importante #AI blocaje politice care se desfășoară chiar acum - iar opinia sa atrage atenția.

Într-o postare recentă, Vitalik a spus că ar „crește semnificativ” opinia sa despre #Anthropic dacă compania își menține poziția și acceptă consecințele, mai degrabă decât să își reducă măsurile de protecție sub presiunea Pentagonului.

În centrul disputei? Două linii roșii.

Anthropic a refuzat să permită utilizarea modelului său AI, Claude, pentru arme complet autonome sau supravegherea în masă a americanilor. Conform surselor, secretarul Apărării, Pete Hegseth, a dat companiei un termen limită pentru vineri pentru a se conforma cerințelor de relaxare a acestor restricții - sau riscă să piardă un contract de 200 de milioane de dolari cu Pentagonul. Există, de asemenea, rapoarte despre o posibilă invocare a Legii privind Producția de Apărare și chiar etichetarea companiei ca un „riscuri în lanțul de aprovizionare”.

Încadrarea lui Vitalik este interesantă deoarece el numește poziția Anthropic „de fapt foarte conservatoare și limitată”. Nu este anti-militar. Nu este anti-guvernamental. Pur și simplu trasează o limită în jurul a două domenii despre care mulți oameni se simt inconfortabil: arme controlate de AI și încălcări pe scară largă a intimității.

De asemenea, el face un punct filosofic mai larg. În lumea sa ideală, oricine lucrează la arme autonome sau supraveghere în masă ar avea acces doar la modele AI cu greutate deschisă - nimic mai mult. Fără capabilități speciale. Fără acces privilegiat. Doar aceleași instrumente de bază ca toți ceilalți.

Realist, el recunoaște că nu vom ajunge nicăieri aproape de acea lume. Dar chiar și a obține „cu 10% mai aproape” de limitarea acestor utilizări ar fi un progres. A merge „cu 10% mai departe” ar fi un pas înapoi.

Pentagonul spune că legalitatea este responsabilitatea sa ca utilizator final. Anthropic spune că AI nu este suficient de fiabilă încă pentru controlul armelor și că nu există legi clare care să reglementeze supravegherea masivă cu AI. Între timp, concurenții sunt pregătiți să pătrundă în medii clasificate dacă Anthropic se retrage.

#VitalikButerin #PolicyNews