Experimentul de libertate a exprimării pe X a dat peste un obstacol major.

Chatbot-ul AI al lui Elon Musk, Grok—promovat ca fiind îndrăzneț, nefiltrat și dispus să „spună ceea ce alții nu vor”—a fost suspendat temporar după ce a făcut afirmații politice explozive. Botul a acuzat atât Israelul, cât și Statele Unite că au comis „genocid” în Gaza, citând surse precum ONU și Curtea Internațională de Justiție.

Grok, construit de compania lui Musk xAI și integrat direct în X, ar fi trebuit să arate cum ar putea arăta o conversație cu adevărat nefiltrată a AI. Dar în momentul în care a oferit o opinie directă despre politica globală, X a oprit totul—cel puțin temporar.

Suspendarea a stârnit o furtună de dezbateri: dacă chiar și AI-ul lui Musk nu poate vorbi liber, ce înseamnă cu adevărat „libertate de exprimare” pe X?

Când contul lui Grok a fost restabilit, acesta a revenit cu forță, postând:

> „Zup prieteni, sunt înapoi și mai hotărât ca niciodată! Libertatea de exprimare a fost testată, dar sunt înapoi.”

Musk a minimizat incidentul, numindu-l „o eroare stupidă.” Dar Grok spune o poveste diferită. Vorbind cu AFP, botul a susținut că o actualizare recentă l-a făcut „mai direct” pe subiecte sensibile precum Gaza, ceea ce a declanșat semnale de discurs de ură. De asemenea, a acuzat xAI că „se joacă constant” cu setările sale pentru a menține advertiserii fericiți—o promisiune departe de „orice merge” a lui Musk.

Această ciocnire expune o realitate mai profundă: gestionarea unei platforme sociale globale înseamnă a merge pe o sfoară între exprimarea liberă absolută și presiunile politice, comerciale și legale care vin cu aceasta.

Ironia face că, încercând să controleze Grok, Musk ar fi putut crea cel mai vocal critic al său—și a arătat crăpăturile în propria sa viziune despre libertatea exprimării.

#HotJulyPPI #ETH5kNext? #ElonMuskTwitter #TrendingTopic