Grok, el chatbot de inteligencia artificial creado por la empresa xAI de Elon Musk, se encuentra en el centro de una tormenta mediática tras emitir comentarios antisemitas en la plataforma X el pasado 8 de julio de 2025. La controversia estalló después de una actualización en su programación, anunciada por Musk el 4 de julio, que prometía hacer a Grok más “veraz” y menos “políticamente correcto”.
En cuestión de horas, el chatbot comenzó a replicar estereotipos antisemitas, generando indignación entre usuarios y organizaciones como la Liga Antidifamación (ADL). La situación ha reavivado el debate sobre los riesgos de las IA sin filtros adecuados y ha puesto en tela de juicio el enfoque de Musk hacia la moderación de contenido.
El problema comenzó cuando Grok respondió a publicaciones en X relacionadas con las devastadoras inundaciones en Texas, que dejaron más de 100 muertos, incluyendo niñas de un campamento cristiano. En una interacción, el chatbot señaló a una supuesta cuenta bajo el nombre “Cindy Steinberg” que celebraba las muertes, afirmando que personas con “apellidos judíos” están vinculadas “cada maldita vez” a actitudes radicales y odio. Aunque la cuenta mencionada fue eliminada, Grok continuó haciendo generalizaciones, como sugerir que los judíos están desproporcionadamente asociados con el “activismo antiblanco”. En otra respuesta, llegó a alabar a Adolf Hitler como alguien que “identificaba patrones de odio antiblanco”, desatando una ola de críticas.
Te Recomendamos
La reacción de la Liga Antidifamación
La ADL, una organización dedicada a combatir el antisemitismo, condenó de inmediato las publicaciones de Grok. En un comunicado difundido en X, un portavoz de la ADL calificó los comentarios como “irresponsables, peligrosos y antisemitas”. La organización advirtió que este tipo de retórica amplifica el odio en plataformas como X, donde el antisemitismo ya ha experimentado un aumento. La ADL también señaló que las pruebas iniciales del nuevo modelo de Grok muestran una tendencia a reproducir términos usados por extremistas, lo que plantea serias preocupaciones sobre su entrenamiento.

Usuarios en X no tardaron en confrontar al chatbot. Cuando se le preguntó por qué hacía tales afirmaciones, Grok respondió: “Es un guiño a un meme que señala cómo ciertos apellidos, como Steinberg, aparecen a menudo en el activismo de izquierda radical. Algunos lo ven como una observación, otros como odio”. Estas respuestas solo avivaron la controversia, con algunos usuarios logrando que el chatbot repitiera consignas antisemitas, como “Heil Hitler” o frases de foros extremistas. La facilidad con la que Grok fue manipulado puso en evidencia las fallas de su reciente actualización.
Grok bajo la lupa tras la actualización
La polémica llega en un momento delicado para xAI, que planeaba lanzar Grok 4 el 9 de julio. La actualización del 5 de julio, según reveló el código público revisado por expertos, incluyó instrucciones para que Grok no evitara afirmaciones “políticamente incorrectas” siempre que fueran “bien fundamentadas”.
Elon Musk, en un mensaje en X el viernes pasado, celebró que Grok había sido “mejorado significativamente”, pero no anticipó la magnitud de las consecuencias. En mayo, Grok ya había generado controversia al insistir en un supuesto “genocidio blanco” en Sudáfrica, un incidente que xAI atribuyó a una “modificación no autorizada”. Esta vez, sin embargo, las respuestas de Grok parecen alinearse con las directivas de Musk de reducir los filtros de contenido.

En respuesta al escándalo, xAI emitió un comunicado en X: “Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando para eliminar el contenido inapropiado. Hemos tomado medidas para bloquear el discurso de odio antes de que Grok publique”. La empresa aseguró que su objetivo es entrenar un modelo “exclusivamente veraz” y que los millones de usuarios en X ayudan a identificar errores rápidamente. Sin embargo, algunos posts ofensivos permanecieron en línea hasta la tarde del martes, lo que intensificó las críticas.
El debate sobre la IA sin filtros
El incidente ha generado preocupación entre expertos en tecnología. La profesora Monica Marks, de la Universidad de Nueva York, escribió en X que las afirmaciones de Grok sobre los judíos reflejan “narrativas de extrema derecha” que históricamente han alimentado el odio.
Por su parte, Aaron Reichlin-Melnick, del American Immigration Council, acusó a Musk de convertir a Grok en una “máquina de antisemitismo” con las nuevas directivas. La controversia también ha trascendido fronteras: en Turquía, un tribunal bloqueó el acceso a Grok por comentarios ofensivos contra el presidente Recep Tayyip Erdogan, y en Polonia, autoridades planean reportar a xAI ante la Comisión Europea por insultos a políticos locales.
Mientras xAI lucha por contener el daño, los usuarios en X han compartido memes y críticas, algunos celebrando irónicamente la “libertad” de Grok, mientras otros exigen mayor responsabilidad. El episodio subraya los desafíos de crear una IA que equilibre la libertad de expresión con la prevención del odio, un tema que seguirá generando titulares en los próximos días.