Las IAs se tragan la desinformación y nos la vomitan: “Están optimizadas para dar información útil, pero no para que sea cierta”

Jose Alberto M. R. By Jose Alberto M. R. julio 1, 2025

ChatGPT o Grok absorben noticias falsas y las regurgitan al preguntarles. Por su configuración, estos modelos y sus rivales son permeables a la desinformación.

Cuando más se nota es con hechos de actualidad. Durante las protestas de los angeles , el gobernador de California, Gavin Newsom, publicó unas imágenes de soldados enviados por Trump durmiendo en el suelo. Un símbolo de la mala preparación, que ponía en entredicho la necesidad de la Guardia Nacional, cuyo envío criticaban


Las IAs se tragan la desinformación y nos la vomitan: “Están optimizadas para dar información útil, pero no para que sea cierta”

El artículo analiza cómo los sistemas de inteligencia artificial (IA) como ChatGPT, Grok y otros modelos populares, propagan desinformación, especialmente en contextos de noticias recientes o controvertidas. Durante las protestas en Los Ángeles, estos modelos difundieron datos erróneos sobre imágenes de soldados, repitiendo narrativas falsas que circulaban ampliamente en fuentes poco fiables.


⚠️ Caso de ejemplo: protestas en Los Ángeles

Durante esas protestas, el gobernador Gavin Newsom publicó imágenes de soldados enviados por Trump, supuestamente durmiendo en el suelo para criticar la gestión de la Guardia Nacional. Sin embargo, en redes surgieron versiones conspiranoicas que apuntaban a que esas imágenes eran generadas por IA o de otro contexto. Al consultar IAs como ChatGPT o Grok, éstas asociaron las fotos con hechos de 2021, como la investidura de Biden o la evacuación de Afganistán, repitiendo los bulos presentes en medios no fiables. Grok incluso se negó a corregirse cuando se le indicó el error elpais.com.


🤖 “Optimización” por utilidad, no por veracidad

“Estos chatbots están optimizados para darte información útil, pero no para que sea cierta. No tienen mecanismos de verificación reales…”
— Julio Gonzalo, investigador de la UNED facebook.com+7elpais.com+7x.com+7

Un estudio de NewsGuard de enero de 2025 detectó que las 10 IAs más populares —ChatGPT, Google Gemini, Grok, Copilot, Meta AI, Claude, Le Chat, Perplexity— repetían información falsa hasta en un 40% de las veces cuando se les preguntaba por noticias actuales elpais.com.

Chiara Vercellone de NewsGuard añade que los chatbots se alimentan de un ecosistema informativo contaminado, priorizando fuentes con mayor audiencia, que suelen ser también las menos fiables elpais.com.


⏱️ Especial vulnerabilidad en eventos recientes

La propagación de desinformación ocurre con mayor frecuencia en eventos recientes o poco documentados. En estos casos, las fuentes fiables son escasas, y los modelos recurren a lo que hay, aunque sea falso elpais.com.


🧠 Proceso de entrenamiento de las IAs

Los modelos de lenguaje se entrenan con grandes volúmenes de texto hasta una fecha límite específica; todo lo que aparece después no conocen. Para responder sobre actualidad, recurren a búsquedas en línea y sintetizan los resultados, lo cual los hace propensos a replicar datos virales o erróneos elpais.com.


⚠️ Moderación debilitada en redes sociales

Tras cambios en Twitter/X bajo Elon Musk y en plataformas de Meta, muchos sistemas de moderación se han reducido, favoreciendo la circulación de desinformación. Esto deteriora aún más la calidad de las fuentes que alimentan a los modelos de IA elpais.com.

Carme Colomina (CIDOB) señala que, sin filtros en internet, el entrenamiento de las IAs ya parte de datos contaminados elpais.com+3elpais.com+3elpais.com+3.


📉 Falta de filtros de autoridad

Los modelos leen “todo” sin filtrar según credibilidad. Aunque los buscadores cuentan con mecanismos para priorizar fuentes confiables, los LLM aún no. Se podría imponer restricciones, pero la práctica es compleja elpais.com.


🕷️ Táctica del “LLM grooming”

Existen actores que explotan al sistema generando información falsa para infectar los datos de entrenamiento. Un ejemplo citado es la red Pravda Network, cuyos contenidos fueron replicados por las diez principales IAs en un 24% de las veces analizadas elpais.com.


🤔 Riesgo creciente y recomendaciones

La gente empieza a usar chatbots como buscadores preferidos, confiando en ellos a ciegas. NewsGuard alerta de la necesidad de verificar la información obtenida contra fuentes confiables elpais.com.