PEN PEN
  • Perú S/ - Perú
  • Ecuador $ - Ecuador
  • Colombia $COP - Colombia
  • México $MXN - México
  • Chile $CLP - Chile
  • Argentina $ARS - Argentina

laSexta Xplica denuncia la difusión de un vídeo manipulado con IA: cuando la desinformación ya no necesita mentir, solo parecer real

🌀 La inteligencia artificial ha cruzado una frontera peligrosa: ya no solo genera textos o imágenes, sino que reconstruye la realidad con apariencia de verdad.

Esta semana, laSexta Xplica denunció la circulación en redes sociales de un vídeo manipulado con IA que atribuía declaraciones falsas a una de sus colaboradoras, demostrando lo frágil que se ha vuelto el ecosistema informativo digital.

El problema no es únicamente tecnológico. Es social, mediático y democrático: la mentira ya no se crea, se sintetiza.

📍 Bootcamperu
📅 23 de Enero de 2026 · Lectura: 10 minutos

💡 En Bootcamperu identificamos este caso como una señal de alerta clara: la desinformación con IA ya no depende de grandes montajes, sino de micro-manipulaciones creíbles. No se necesita inventar un rostro ni clonar una voz desde cero; basta con reutilizar material real, alterar el contexto y dejar que la viralidad haga el resto.
La confianza digital no se rompe con un gran engaño, sino con miles de pequeñas falsificaciones verosímiles.

🎭 Un vídeo falso con apariencia auténtica

El vídeo difundido en redes mostraba a una colaboradora de laSexta Xplica supuestamente opinando sobre un accidente ferroviario reciente, atribuyéndole unas declaraciones que nunca realizó. Las imágenes eran reales, pero el audio y el contexto habían sido manipulados mediante inteligencia artificial.

La clave del engaño estaba en su sutileza:

No era un deepfake evidente

No había errores visuales claros

El tono, el rostro y el plató eran auténticos

Todo parecía encajar… salvo la verdad.

⏱️ El contexto que desmonta el bulo

La cadena explicó que el fragmento original correspondía a un programa emitido en 2023, en un debate completamente distinto y sin relación alguna con el suceso actual. Además, el propio formato del programa hacía imposible que esas declaraciones se hubieran producido en la fecha señalada.

Para frenar la desinformación, laSexta publicó:

El vídeo manipulado

El clip original sin alterar

Una comparación directa que deja en evidencia el uso de IA para fabricar un relato falso con piezas reales.

🧠 El verdadero riesgo: la erosión de la confianza

Este caso va más allá de un ataque a un programa concreto. Marca un punto crítico en la relación entre tecnología, medios y audiencia:

Si un vídeo puede ser falso, aunque parezca real

Si una voz puede decir algo que nunca dijo

Si el contexto puede reescribirse con IA

Entonces la pregunta ya no es “¿es verdad?”, sino “¿cómo puedo comprobarlo?”.

La IA no solo acelera la desinformación: debilita el reflejo social de confiar en la evidencia audiovisual, uno de los pilares históricos del periodismo.

🛡️ ¿Qué viene ahora?

Casos como este refuerzan la urgencia de:

Sistemas de verificación audiovisual

Etiquetado obligatorio de contenido generado o alterado con IA

Educación digital para reconocer manipulaciones contextuales

Responsabilidad legal en la difusión de deepfakes informativos

La batalla ya no es entre verdad y mentira, sino entre realidad verificable y simulación convincente.

🔎 Fuente original:

laSexta Xplica denuncia la difusión en redes de un vídeo manipulado con IA – Cadena Dial

🎬 Video Sugerido

Explora nuestras formaciones

¡Prepárate con expertos líderes en el mundo digital!

Carrito de compra
Asistente Virtual IA
Chat de Soporte
Scroll al inicio