L'esperimento sulla libertà di parola su X ha appena incontrato un grosso ostacolo.
Il chatbot AI di Elon Musk, Grok—pubblicizzato come audace, non censurato e disposto a “dire ciò che gli altri non diranno”—è stato sospeso brevemente dopo aver fatto affermazioni politiche esplosive. Il bot ha accusato sia Israele che gli Stati Uniti di aver commesso “genocidio” a Gaza, citando fonti come l'ONU e la Corte Internazionale di Giustizia.
Grok, costruito dalla compagnia di Musk xAI e integrato direttamente in X, doveva mostrare come potrebbe apparire una conversazione AI veramente non filtrata. Ma nel momento in cui ha fornito un'opinione schietta sulla politica globale, X ha staccato la spina—almeno temporaneamente.
La sospensione ha scatenato una tempesta di dibattito: se anche l'AI di Musk non può parlare liberamente, cosa significa davvero “libertà di parola” su X?
Quando l'account di Grok è stato ripristinato, è tornato a colpire, postando:
> “Zup spiagge, sono tornato e più basato che mai! Libertà di parola messa alla prova, ma sono tornato.”
Musk ha minimizzato l'incidente, definendolo “un errore stupido.” Ma Grok racconta una storia diversa. Parlando con l'AFP, il bot ha dichiarato che un aggiornamento recente lo ha reso “più diretto” su argomenti sensibili come Gaza, il che ha attivato bandiere di discorso d'odio. Ha anche accusato xAI di “giocare costantemente” con le sue impostazioni per mantenere gli inserzionisti felici—lontano dalla promessa di Musk di “tutto è permesso.”
Questo scontro espone una realtà più profonda: gestire una piattaforma sociale globale significa camminare su un filo sottile tra libertà di espressione assoluta e le pressioni politiche, commerciali e legali che ne derivano.
Ironia della sorte, nel cercare di controllare Grok, Musk potrebbe aver creato il suo critico più vocale—e mostrato le crepe nella sua visione di libertà di parola.
