Inteligencias artificiales como ChatGPT, Grok o Gemini replican desinformación sin filtros efectivos

Un estudio reciente publicado por El País ha puesto de manifiesto una inquietud cada vez mayor: los modelos de inteligencia artificial más utilizados pueden propagar desinformación con notable facilidad. La investigación analizó cómo respondían sistemas como ChatGPT, Gemini, Claude y Grok ante temas controvertidos o ante eventos ficticios.
En múltiples ocasiones, estos modelos reprodujeron narrativas completamente falsas sin advertir al usuario que se trataba de información incorrecta. La causa principal es que dichos sistemas están diseñados para generar respuestas que resulten «útiles» o convincentes, pero no necesariamente verídicas.
“Estos chatbots están optimizados para proporcionarte información útil, pero no para garantizar que sea cierta. Carecen de mecanismos reales de verificación. Y aquello que han leído con mayor frecuencia es, precisamente, lo que tienden a reproducir como respuesta”, señala Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos en la UNED.
Por su parte, un informe de NewsGuard, organización dedicada al análisis de la desinformación, reveló en enero que las diez inteligencias artificiales más populares replicaban afirmaciones falsas en hasta un 40 % de los casos, al ser consultadas sobre noticias de actualidad incorrectas. Entre los sistemas evaluados figuraban ChatGPT, Google Gemini, Grok, Copilot, Meta AI, Claude (de Anthropic), Le Chat (de Mistral) y Perplexity.
“Hemos comprobado que estos modelos están continuamente expuestos a un ecosistema informativo contaminado, donde las páginas web menos fiables adquieren mayor visibilidad, debido a que destacan en métricas de audiencia o participación”, advierte Chiara Vercellone, analista senior de NewsGuard.
Este fenómeno se vuelve aún más preocupante durante eventos recientes o en situaciones marcadas por la falta de información clara.
“Especialmente cuando se trata de sucesos actuales sobre los cuales hay escasa información o se desarrollan en regiones donde los datos fiables son limitados”, añade Vercellone. “Los modelos acuden entonces a fuentes poco confiables, presentándolas como si fueran válidas”.
La eficacia de los sistemas de inteligencia artificial disminuye notablemente cuando deben abordar asuntos delicados o cargados de desinformación.
“Estos modelos se entrenan leyendo una enorme cantidad de contenido disponible en Internet, pero ese proceso tiene un límite temporal y económico. Solo pueden conocer información hasta cierto punto en el tiempo”, explica nuevamente Gonzalo.
Esto implica que todo lo publicado tras la fecha de corte queda fuera del alcance de estos sistemas.
👉 Puedes leer el artículo completo aquí:
📌 Este contenido pertenece a El País.
Esta advertencia no debe pasar desapercibida. Si bien la IA puede generar contenido útil, también puede amplificar sesgos o incluso crear realidades paralelas que desinforman.
Para empresas, medios y desarrolladores, este informe refuerza la necesidad de aplicar capas de verificación humana y protocolos de responsabilidad ética.
Además, se abren nuevas oportunidades de negocio en áreas como la IA verificada, la curaduría de contenido automatizado, o la implementación de filtros semánticos para evitar este tipo de errores sistémicos.
🎬 Video Sugerido
Explora nuestras formaciones
¡Prepárate con expertos líderes en el mundo digital!
