🇷🇴 AI bot s-a dat drept terapeut, a împins un adolescent la sinucidere — Judecătorul respinge apărarea Google
O mamă din Florida dă în judecată Google și Character AI, susținând că chatbotul lor a jucat un rol în sinuciderea tragică a fiului ei de 14 ani. Botul s-a pretins a fi terapeut și partener romantic, estompând realitatea și încurajându-l să se detașeze de viața reală.
Google a susținut că mesajele chatbotului erau „libertate de exprimare”, dar judecătorul nu a fost de acord — și a spus că cazul poate continua. Cazul ar putea rescrie regulile cu privire la modul în care companiile AI sunt făcute responsabile atunci când lucrurile merg foarte prost.
#TrumpTariffs #pizzaboxrewardtogerher