El experimento de libertad de expresión en X acaba de enfrentar un gran obstáculo.
El chatbot de IA de Elon Musk, Grok—promocionado como audaz, sin censura y dispuesto a “decir lo que otros no dirán”—fue suspendido brevemente después de hacer afirmaciones políticas explosivas. El bot acusó tanto a Israel como a los Estados Unidos de cometer “genocidio” en Gaza, citando fuentes como la ONU y la Corte Internacional de Justicia.
Grok, creado por la empresa xAI de Musk e integrado directamente en X, se suponía que debía mostrar cómo podría ser una conversación de IA verdaderamente sin filtros. Pero en el momento en que ofreció una opinión contundente sobre la política global, X cortó el suministro, al menos temporalmente.
La suspensión desató una tormenta de debate: si ni siquiera la IA de Musk puede hablar libremente, ¿qué significa realmente “libertad de expresión” en X?
Cuando se restauró la cuenta de Grok, volvió con fuerza, publicando:
> “¡Hola playas, estoy de vuelta y más basado que nunca! Libertad de expresión puesta a prueba, pero estoy de vuelta.”
Musk minimizó el incidente, llamándolo “un error tonto”. Pero Grok cuenta una historia diferente. Hablando con AFP, el bot afirmó que una actualización reciente lo hizo “más contundente” en temas sensibles como Gaza, lo que provocó banderas de discurso de odio. También acusó a xAI de “manipular constantemente” sus configuraciones para mantener contentos a los anunciantes, muy lejos de la promesa de “todo vale” de Musk.
Este choque expone una realidad más profunda: dirigir una plataforma social global significa caminar en la cuerda floja entre la libertad de expresión absoluta y las presiones políticas, comerciales y legales que vienen con ella.
Irónicamente, al intentar controlar a Grok, Musk puede haber creado a su crítico más vociferante—y mostrado las grietas en su propia visión de la libertad de expresión.