Un contract de 200 de milioane de dolari, să spui că nu vrei și să nu vrei, e nebunie la această companie AI?
Situația este următoarea: armata americană vrea să considere Anthropic (compania care a creat Claude) ca având "riscuri în lanțul de aprovizionare", dar judecătorul a intervenit direct și a oprit asta, mai întâi amână cu șapte zile.
Ce a declanșat această situație? Anthropic nu vrea în ruptul capului să-și ridice restricțiile — nu permite armatei americane să folosească AI pentru supravegherea la scară largă și nu permite AI să participe la operațiuni autonome letale.
Pe scurt, această companie preferă să piardă contracte, decât să-și transforme tehnologia în unelte de ucis.
Să fiu sincer, acum companiile AI se grăbesc să colaboreze cu armata, iar această mișcare a Anthropic ne face să privim cu alți ochi.
Indiferent de cât de puternică este tehnologia, tot trebuie să existe o limită. Banii câștigați sunt plăcuți, dar cum va fi scrisă istoria mai târziu, nu se știe.
Oricum, în aceste șapte zile, ambele părți trebuie să mai discute, noi doar ne vom uita la spectacol.
#AI #Anthropic #五角大楼 #科技伦理 #Claude