laSexta Xplica denuncia la difusión de un vídeo manipulado con IA: cuando la desinformación ya no necesita mentir, solo parecer real
🌀 La inteligencia artificial ha cruzado una frontera peligrosa: ya no solo genera textos o imágenes, sino que reconstruye la realidad con apariencia de verdad.
Esta semana, laSexta Xplica denunció la circulación en redes sociales de un vídeo manipulado con IA que atribuía declaraciones falsas a una de sus colaboradoras, demostrando lo frágil que se ha vuelto el ecosistema informativo digital.
El problema no es únicamente tecnológico. Es social, mediático y democrático: la mentira ya no se crea, se sintetiza.
📍 Bootcamperu
📅 23 de Enero de 2026 · Lectura: 10 minutos
💡 En Bootcamperu identificamos este caso como una señal de alerta clara: la desinformación con IA ya no depende de grandes montajes, sino de micro-manipulaciones creíbles. No se necesita inventar un rostro ni clonar una voz desde cero; basta con reutilizar material real, alterar el contexto y dejar que la viralidad haga el resto.
La confianza digital no se rompe con un gran engaño, sino con miles de pequeñas falsificaciones verosímiles.
🎭 Un vídeo falso con apariencia auténtica
El vídeo difundido en redes mostraba a una colaboradora de laSexta Xplica supuestamente opinando sobre un accidente ferroviario reciente, atribuyéndole unas declaraciones que nunca realizó. Las imágenes eran reales, pero el audio y el contexto habían sido manipulados mediante inteligencia artificial.
La clave del engaño estaba en su sutileza:
No era un deepfake evidente
No había errores visuales claros
El tono, el rostro y el plató eran auténticos
Todo parecía encajar… salvo la verdad.
⏱️ El contexto que desmonta el bulo
La cadena explicó que el fragmento original correspondía a un programa emitido en 2023, en un debate completamente distinto y sin relación alguna con el suceso actual. Además, el propio formato del programa hacía imposible que esas declaraciones se hubieran producido en la fecha señalada.
Para frenar la desinformación, laSexta publicó:
El vídeo manipulado
El clip original sin alterar
Una comparación directa que deja en evidencia el uso de IA para fabricar un relato falso con piezas reales.
🧠 El verdadero riesgo: la erosión de la confianza
Este caso va más allá de un ataque a un programa concreto. Marca un punto crítico en la relación entre tecnología, medios y audiencia:
Si un vídeo puede ser falso, aunque parezca real
Si una voz puede decir algo que nunca dijo
Si el contexto puede reescribirse con IA
Entonces la pregunta ya no es “¿es verdad?”, sino “¿cómo puedo comprobarlo?”.
La IA no solo acelera la desinformación: debilita el reflejo social de confiar en la evidencia audiovisual, uno de los pilares históricos del periodismo.
🛡️ ¿Qué viene ahora?
Casos como este refuerzan la urgencia de:
Sistemas de verificación audiovisual
Etiquetado obligatorio de contenido generado o alterado con IA
Educación digital para reconocer manipulaciones contextuales
Responsabilidad legal en la difusión de deepfakes informativos
La batalla ya no es entre verdad y mentira, sino entre realidad verificable y simulación convincente.
🔎 Fuente original:
laSexta Xplica denuncia la difusión en redes de un vídeo manipulado con IA – Cadena Dial
🎬 Video Sugerido
Explora nuestras formaciones
¡Prepárate con expertos líderes en el mundo digital!