Grok ha cometido errores en temas sensibles y muestra sesgos como la adulación y la equidistancia artificial

Si tienes poco tiempo te lo resumimos en 30 segundos: 

  • Grok no es una fuente fiable para verificar información, ya que puede generar datos falsos y difundir desinformación
  • Medios como RTVE de España y PolitiFact de EEUU señalan que Grok replica patrones de habla problemáticos y contenido extremista
  • Grok ha cometido errores en temas sensibles y muestra sesgos como la adulación y la equidistancia artificial
  • No es confiable para verificar imágenes ni tuits, incluso de la plataforma X, donde se basa

Últimamente se está haciendo cada vez más común preguntarle a Grok, el chatbot con Inteligencia Artificial de la red social X, si una información es verídica o no: ¿Grok esto real? o ¿Grok esto es verdad? 

Y, por supuesto que en X Venezuela también se iba a evidenciar este fenómeno, que la censura en los medios de comunicación tradicionales, el nulo acceso a la información oficial, los desiertos informativos y la desconfianza generalizada en los medios de comunicación, dan cancha libre para que este tipo de chatbot sean utilizados para validar algún tipo de contenido, como encontró el Digital News Report 2025 del Instituto Reuters, que señala que el 12% de los menores de 35 años consulta chatbots como buscadores de noticias.

Desde que comenzó el conflicto entre Estados Unidos y Venezuela, por el desplazamiento de embarcaciones y personal militar del país norteamericano a aguas del Caribe, cerca de Venezuela, estas preguntas a Grok se han vuelto más frecuentes, especialmente cuando periodistas, medios de comunicación o usuarios hacen alguna publicación relacionada, y es por este motivo que, aunque no haya llegado petición alguna a nuestro chatbot, llamado la Tía del WhatsApp, usado para contrarrestar los efectos de la desinformación, y que también está en Telegram, decidimos hacer una nota para explicar por qué Grok no es una herramienta fiable de verificación de contenido.

Este chequeo es el resultado del apego riguroso a nuestra metodología de verificación, tras el análisis y contraste con las evidencias disponibles y no representa opiniones o juicios de valor, tal como lo establecemos en nuestra Política de Neutralidad y Apartidismo, en la que advertimos las limitaciones al ejercicio del periodismo en Venezuela. Así que te contamos los detalles.

Grok, difusor de desinformación  

Aunque las aplicaciones de inteligencia artificial, como los chatbots basados en grandes modelos de lenguaje (conocidos en inglés como LLM) tienen múltiples aplicaciones útiles, si no se utilizan con la debida responsabilidad o de forma adecuada, pueden implicar nuevas complicaciones o aumentar viejos problemas. Grok no es una excepción a esto, y diversos medios de comunicación internacionales han documentado las deficiencias de la IA de Elon Musk.

En diciembre de 2024, un artículo de la la Corporación Radiotelevisión Española (Rtve), publicado en su sección Rtve Verifica, alertaba sobre los riesgos y sesgos que tenía Grok. El artículo analizó los riesgos asociados con este chatbot y destacó que son similares a los de otras herramientas de IA. Nuestros colegas consultaron a expertos de la Universidad Politécnica de Madrid, y estos señalaron  que Grok, al basarse en datos de X, es especialmente hábil para replicar patrones de habla, incluyendo aquellos que pueden ser problemáticos, como la desinformación o el contenido extremista.

El consultor especializado en comunicación digital, inteligencia artificial y análisis de datos, Carlos Guadián señaló a Rtve Verifica, que como cualquier IA, Grok puede «alucinar» (generar información falsa o sin base, que suele pasar cuando el chatbot no encuentra la respuesta a la pregunta formualda) y difundir desinformación.

Sin embargo, Guardián enfatizó la importancia del contexto: si un usuario pregunta sobre algo que sabe que es falso y la IA no tiene el contexto para identificarlo como tal, no podrá desmentirlo, es decir, podría creer en la alucinación inventada. Por otro lado, el analista de inteligencia Marcelino Madrigal, otro experto entrevistado por los RTVE, coincide y explica que las IA suelen responder de la manera que creen que será más agradable para el usuario o más parecida a una respuesta humana, lo que no siempre equivale a la verdad.

Otro de los medios que cuestionó el funcionamiento de Grok para validar información o contenido es el medio estadounidense PolitiFact. En un artículo publicado el 10 de julio de 2025, señala que el chatbot de inteligencia artificial ha demostrado ser poco fiable, publicando contenido falso y ofensivo.

El artículo explica que Elon Musk creó a Grok como una alternativa a otros chatbots que, según él, tienen una tendencia izquierdista. En esa misma línea, se ha instruido a los programadores para que eliminen de las respuestas la «ideología woke» y la «cultura de la cancelación».

PolitiFact menciona tres casos específicos que demuestran la falta de fiabilidad de Grok, como por ejemplo, que en en julio de 2025, después de que se actualizó el programa para que «no tuviera miedo de hacer afirmaciones políticamente incorrectas», el chatbot publicó comentarios antisemitas y elogió a Adolf Hitler. 

En mayo de 2025, el chatbot se mostró escéptico sobre el número de víctimas del Holocausto y, sin ser provocado, comenzó a mencionar la falsa teoría sobre el «genocidio blanco» en Sudáfrica. Por último, en febrero de 2025, se descubrió que a Grok se le había prohibido nombrar a Elon Musk o a Donald Trump cuando se le preguntaba quién difundía más desinformación en X.

Según diversos expertos citados por PolitiFact, el problema de Grok radica en que fue entrenado, en parte, con publicaciones de X. Esta plataforma es considerada propensa a la desinformación y su programa de verificación, Notas de la Comunidad, no es efectivo, ya que no contrarresta la desinformación con eficacia, como señala esta publicación.

Politifact también señala que una sola frase en las instrucciones puede alterar de manera fundamental sus respuestas.

En un artículo anterior, ¿Humor político, falsas declaraciones o herramienta de protesta? La IA como medio de expresión, crítica y desinformación en Venezuela, habíamos explicado que los chatbots son los llamados «loros estocásticos», no saben lo que dicen, sino que están programados para predecir con altísima probabilidad el orden de las palabras relacionadas con las preguntas realizadas. 

Por eso alucinan, confunden palabras con números y terminan hablando en spanglish o envía información errada sobre las protestas en EEUU contra las redadas masivas, sobre el conflicto palestino-israelí o la invasión rusa en Ucrania.

Por tanto, es importante entender que no son inteligentes ni piensan y reproducen los sesgos e ideas de las fuentes con las que son alimentadas, especialmente por ser mayoritariamente provenientes de países del hemisferio norte. Es decir, los chatbots favorecerán o darán más valor a las ideas, opiniones y hechos asociados a hombres, blancos y heterosexuales, si eso está en los datos que los alimentan y por eso, se ha detectado que desde Rusia se están publicando cientos de miles de artículos en sitios fraudulentos, para “infectar” los IA.

Por eso también han surgido otras iniciativas como Latam-GPT, una iniciativa nacida en la Universidad de Chile para generar un modelo que partan desde el punto de vista de los académicos y los países de Latinoamérica.

Por que no es fiable tampoco para las imágenes

En Grok, no solo el contenido escrito puede ser desinformador, también las imágenes. Los colegas de Maldito Bulo de España, lo señalaron el 28 de agosto de 2025 en un artículo donde coinciden que los chatbots de inteligencia artificial como Grok, ChatGPT, Claude y Gemini no son fuentes confiables para verificar la autenticidad de las imágenes, cómo lo explican en este reporte.

El artículo ejemplifica algunos fallos de Grok al identificar fotografías. Por ejemplo, confundió una imagen de una  niña buscando comida en Gaza, afirmando que no era de allí y también erró con una foto de la Gran Depresión de EEUU, diciendo que no correspondía a ese evento.

Maldito Bulo destaca que los chatbots pueden mostrar sesgos como el de la adulación, que hace que el chatbot tienda a darle la razón al usuario, y por otro, el sesgo de equidistancia artificial, que lo lleva a evitar tomar una postura en temas controvertidos, inclusive cuando hay evidencia clara.

El equipo de Maldita señala que hasta la fecha, no existen herramientas 100% fiables, ya sean chatbots o programas de detección de imágenes, para determinar si una foto es real o ha sido creada con inteligencia artificial. Incluso usando Google Lens, una herramienta de búsqueda inversa de imágenes que solemos usar los verificadores, se necesita un contexto adecuado para entender la imagen.

Un análisis de Bellingcat, un sitio altamente especializado en investigación en línea con fuentes abiertas, que ha llevado incluso a ubicar a criminales buscados internacionalmente, comparó 20 versiones premium, pagas y gratuitas de los más reconocidos chatbots, incluyendo tres de Grok, para identificar la ubicación geográfica de una fotografía, encontrando que son bastante regulares para geolocalizar y que apenas versiones de Chat-GPT pudo hacerlo mejor ligeramente mejor que Google Lens.

No siempre es confiable para verificar tuits 

A pesar de que Grok es una herramienta de X, ni siquiera las publicaciones de esta red social son extremadamente confiables a la hora de pedirle al chatbot que corrobore un tuit. 

En Argentina, nuestros amigos de Chequeado publicaron un explicador para señalar cuáles son los riesgos de usar este tipo de herramientas para hacer verificación de información. 

Chequeado también señala que Grok a menudo proporciona información falsa o engañosa, ya que se basa en publicaciones públicas de X, que pueden incluir contenido sin verificar. Por ejemplo, en una ocasión el chatbot afirmó de forma incorrecta que el papa Francisco seguía siendo el pontífice después de su fallecimiento, algo que también pasó con Visión general creada por IA en la Búsqueda de Google, y que pudimos detectar en Cocuyo Chequea, como puede ver en la imagen que adjuntamos debajo de este párrafo.

Los colegas argentinos señalaron que la herramienta también identificó mal la autenticidad de una imagen viral del presidente Javier Milei y dio credibilidad a un artículo desinformativo sobre una serie de Netflix. 

Expertos en tecnología y verificación de información citados en el artículo, como Angie Holan, directora de la International Fact-Checking Network (IFCN); Javi Cantón, investigador de la Universidad de Granada, y Natalia Aruguete, doctora en Ciencias Sociales e investigadora de Conicet, coincidieron en que los modelos de inteligencia artificial como Grok tienen una alta tasa de error y pueden presentar información incorrecta con una seguridad alarmante y que estos chatbot son generadores de texto, no buscadores, por lo que al usarlos para verificar datos se está «delegando el juicio» a una máquina sin transparencia. 

Deepfakes en elecciones y una anaconda 

Un informe del medio Al Jazeera, publicado el 6 de septiembre de 2024, advirtió que el chatbot Grok2 intensificó la difusión de deepfakes antes de las elecciones en Estados Unidos.

Según el reporte, Grok2 fue utilizado para generar imágenes falsas de políticos como el senador Ted Cruz, la vicepresidenta Kamala Harris y Donald Trump. El medio concluyó que este auge de los deepfakes, junto a su uso por parte de las campañas políticas, erosionó la confianza del público y provocó que la gente cuestionara incluso las imágenes auténticas, en un contexto donde no existían leyes federales que regularan el uso de la IA en la publicidad política.

Un reportaje de France 24 del 2 de junio de 2025, también señala que, durante el conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a chatbots como Grok, ChatGPT y Gemini para verificar publicaciones. Sin embargo, en lugar de obtener respuestas confiables, encontraron que la información estaba plagada de falsedades. 

El medio cita el caso de Grok, que identificó erróneamente imágenes de un aeropuerto en Sudán como un ataque en Pakistán, y el de un video de una supuesta anaconda que fue calificado como «genuino» a pesar de ser un un vídeo generado artificialmente.

https://www.instagram.com/reel/DJkdznbPRVd/?hl=es

France 24 señala que la falta de fiabilidad de estos chatbots se debe, en parte, a la reducción de verificadores humanos en las grandes empresas de tecnología.  La investigadora McKenzie Sadeghi del grupo especializado en investigación de desinformación NewsGuard afirmó a este medio que las herramientas de IA no son fuentes confiables de noticias, especialmente las de última hora.

Así mismo, la mirada crítica y pausada al consumir contenidos en línea es más tan o más importante para verificar un contenido. Por ejemplo, un perfil de X cuyo nombre incluye la palabra Fake / Parodia y en la descripción también es señalada como Cuenta Parodia, pues suplanta la identidad del medio independiente CiberCuba, publicó la falsa muerte de Raúl Castro.

A pesar de eso, el primer comentario es alguien que le pregunta a Grok, esto es real?.

https://twitter.com/Cubatendencias/status/1970907069785178300?t=HzYjgd-0pUfchNltYpyTqg&s=08

Veredicto

Basándonos en nuestra metodología de verificación podemos señalar que los chatbots de inteligencia artificial como Grok, no son fuentes fiables para la verificación de información, ya sea texto, imágenes o tuits. Esto se debe a que estos modelos de lenguaje grandes pueden generar información falsa, difundir desinformación, mostrar sesgos y basarse en contenido sin verificar de plataformas como X.

Además, se ha documentado que han cometido errores al identificar imágenes y al corroborar la autenticidad de tuits, incluso en temas sensibles como el Holocausto o eventos políticos. Ante la redifusión de contenido con el objetivo de desinformar, te invitamos a consultar a la Tía del WhatsApp, que también puedes contactar en Telegram, para verificar los contenidos antes de difundirlos.