El video tuvo un alcance de 2.9 millones de visualizaciones
El video fue difundido mediante la red social TikTok, pero tambien se encontró en X y Facebook
  • El video se hizo viral en plataformas como TikTok pero circuló también en X y Facebook
  • Los desinformadores crearon un nuevo deepfake de Delcy Rodríguez, el tercero que detectamos en Cocuyo Chequea en abril
  • Antes detectamos avatares creados con IA que desinformaban sobre geopolítica de Latinoamérica, China y Estados Unidos

La difusión de noticias falsas sobre la muerte de figuras públicas, como famosos o políticos, se ha intensificado en las redes sociales, captando gran atención. Esta forma de desinformación, amplificada por plataformas digitales, es utilizada por cuentas que buscan aumentar seguidores y engañar a las audiencias, manipulando sus emociones para generar reacciones virales y desorientar a los usuarios.

En esta oportunidad usuarios pidieron a nuestra Tía del WhatsApp y Telegram, que verificaremos una desinformación relacionada con la supuesta muerte del gobernante Nicolás Maduro, pero esto es falso y en esta nota explicaremos el por qué. 

Este chequeo es el resultado del apego riguroso a nuestra metodología de verificación, tras el análisis y contraste con las evidencias disponibles y no representa opiniones o juicios de valor, tal como lo establecemos en nuestra Política de Neutralidad y Apartidismo, en la que advertimos las limitaciones al ejercicio del periodismo en Venezuela.

La desinformación 

La desinformación fue difundida en distintas redes sociales. A nuestros chatbots llegó un video de la red social TikTok, en la cuenta de @delaguardatv, que tiene más de 15 mil seguidores y busca posicionarse como una cuenta informativa. 

En el video desinformador distribuido por la cuenta de TikTok, aparece Delcy Rodríguez, vicepresidenta del gobierno de Maduro, anunciando la supuesta muerte de Maduro.

“Lamentamos informarles sobre el fallecimiento de nuestro presidente Nicolás Maduro. Esta mañana nuestro comandante murió feliz, rodeado de su esposa Cilia Flores”, dice la desinformación atribuida falsamente a Rodríguez.

El bulo, que tiene 41 segundos de duración, también señala que la falsa muerte de Maduro se produjo por un infarto fulminante, que el Consejo de Estado se reunió de emergencia para el traspaso del poder y que los ciudadanos se aglomeraron en calles y plazas para lamentar la falsa muerte. 

La desinformación se hizo viral en esta red social, donde alcanzó los 2.9 millones de reproducciones, más de 29 mil me gustas, 22 mil compartidos, 4.867 comentarios y 2.773 guardados. La mayoría de las personas que comentaron se mostraron incrédulos ante este bulo.

La información falsa también la hallamos en redes sociales como X desde el perfil Rudy Ferman Benítez, quien difunde distintos contenidos en contra del presidente salvadoreño, Nayib Bukele, y también en un perfil de Facebook (que ya borró el vídeo).

Esta cuenta de TikTok también publicó un video falso donde supuestamente Rodríguez anuncia que los tatuajes están prohibidos en Venezuela y que el equipo de Cocuyo Chequea verificó aquí. Cuentas similares a esta anteriormente también habían desinformado usando IA sobre una supuesta ley promulgada por Rodríguez donde se prohibía tener dos hijos.

Se trata de un Deepfake

La desinformación sobre la supuesta muerte del presidente Nicolás Maduro, difundida a través de un video falso, se puede desmentir al revisar sus redes sociales y las de Delcy Rodríguez, donde no hay indicios de tal evento. 

El 22 de abril de 2025 Rodríguez publicó un video en el que durante un evento público junto a funcionarios policiales y de tránsito a Maduro por su apoyo al Operativo Semana Santa Segura 2025.

Mientras que el 21 de abril, Maduro posteó en Instagram un video para celebrar a los ganadores de una competencia hípica llamada “Clásico Internacional “Presidente de la República”. Además Maduro también publicó un mensaje tras la muerte del papa Francisco y este lunes 22 de abril de 2025, un video a propósito del día del árbol.

A través de la herramienta Deepware, un software avanzado que utiliza tecnologías de inteligencia artificial y aprendizaje automático para reconocer contenidos generados de forma sintética, pudimos verificar que el video utilizado para imitar las declaraciones de Rodríguez fueron manipulados por una inteligencia artificial generativa para crear lo que se conoce como un deepfake, en este caso de Delcy Rodríguez anunciando la muerte del mandatario chavista. 

Un deepfake -falso profundo en su traducción literal- es un video, audio o imagen de alta calidad creado mediante herramientas de inteligencia artificial generativa (como Grok de X, ChatGTP de OpenAI o Stable Diffusion) que puede ser usado para mostrar a una persona haciendo o diciendo algo que en realidad no hizo o dijo. 

Se basa en la tecnología de inteligencia artificial llamada aprendizaje profundo, que permite crear contenidos muy realistas, como es el caso del video analizado. Con esta misma tecnología crearon los dos avatares de TikTok que se usaron para desinformar y que fueron analizados por nuestro equipo en aquí y acá

Ética e IA

La inteligencia artificial (IA) plantea un debate ético en la ONU, donde se discute su potencial para el desarrollo humano frente a los riesgos de su mal uso. La Asamblea General adoptó en 2024 una resolución liderada por EE.UU. para promover una IA segura y confiable, mientras que la UNESCO y el Consejo de Europa impulsaron principios éticos y un tratado vinculante sobre derechos humanos, destacando la necesidad de regulación para evitar desigualdades y abusos. 

La IA puede acelerar el desarrollo sostenible, como en salud o educación, pero también genera preocupaciones éticas, como el uso en conflictos armados o la desinformación, como se utilizó para crear el video analizado.

El video original 

El video que fue utilizado para hacer el deepfake de la vicepresidenta Rodríguez, data del 8 de enero de 2025, cuando la dirigente chavista recibió a una caravana de motorizados en apoyo a Nicolás Maduro, a dos días de su polémica juramentación. 

YouTube video

Verificado anteriormente

Nuestros colegas de Cazadores de Fake News también hicieron la verificación de esta desinformación y llegaron a la conclusión de que se utilizó inteligencia artificial para crear este video que se hizo viral en redes sociales. 

“No hay evidencias de que el bulo esté siendo impulsado como parte de una campaña en contra de Nicolás Maduro; es obra de una única cuenta aislada y no hay evidencia de que ha sido amplificada de forma coordinada”, se lee. 

Conclusión 

Nuestra metodología de verificación confirma que es falso el rumor sobre la muerte de Nicolás Maduro por un infarto, difundido por una cuenta desinformadora en TikTok. El video, creado con inteligencia artificial generativa, utiliza imágenes manipuladas de la vicepresidenta Delcy Rodríguez para dar credibilidad a la desinformación, buscando engañar a la audiencia con un tono serio.

Ante cualquier duda te invitamos a consultar a la Tía del WhasApp o la Tía del Telegram, los chatbots de verificación de información de Efecto Cocuyo.