- Los cambios legislativos y diplomáticos han traído una ola de especulaciones, “escenarios ficticios” y falsos anuncios que circulan en cuentas de TikTok sin historial noticioso o creados para desinformar
Un “nuevo momento político” fue el término usado por la presidenta encargada Delcy Rodríguez y repetido por su hermano, el presidente de la Asamblea Nacional, Jorge Rodríguez, en su entrevista con Luis Olavarrieta, para describir los escenarios post-3E, tras la captura y presentación en tribunales de Nueva York de Nicolás Maduro y Cilia Flores.
El tutelaje del gobierno de Estados Unidos sobre Venezuela, el cual ha llevado a sucesivos cambios legislativos que desarman la política económica impulsada por Hugo Chávez y Nicolás Maduro, como la Ley de Hidrocarburos y la destitución de Alex Saab como Ministro de Industrias y Producción Nacional, quien podría enfrentar una segunda extradición a Estados Unidos, han llevado a varias malas interpretaciones, falsedades y bulos que se viralizan ampliamente.
Ni bajaron los cuadros ni se robaron las medicinas de EEUU
Hay que empezar por lo que se hizo más viral. Tanto que llevó a que mucha gente opinara sobre hechos ficticios. Como la falsa orden de bajar los retratos de Chávez, Maduro y la recreación que ordenó Hugo Chávez sobre Bolívar. Muchos rieron y celebraron. Irónicamente, no pudimos encontrar ni una sola persona chavista que se quejara o lo denunciara porque en alguna alcaldía, gobernación o institución pasara. Hasta conseguimos vídeos de los retratos en Miraflores y uno de nuestros chequeadores tomó una foto de los tres retratos en una sede del Saime en la Isla de Margarita.
Y recordamos cuando Ramos Allup, como presidente de la Asamblea Nacional electa en diciembre de 2015, sí ordenó sacar los cuadros de Chávez. Hubo fotos, reportajes y quejas, denuncias y celebraciones. Ahora, sólo imágenes de Inteligencia Artificial.
La encargada de negocios de Estados Unidos en Venezuela, y por ahora la embajadora actuante, Laura Dogu, nunca denunció que el cargamento de medicinas que llegó de Estados Unidos fue desviado o robado hacia Cuba. Este bulo se hizo tan viral que cuando llegó el segundo cargamento, muchísima gente dijo “pero que ahora no se lo roben”. Pero Dogu jamás denunció el robo ni hubo denuncias públicas. Ninguna evidencia.
Rapidito: la embajada tampoco habilitó un número de teléfono ni correo para venezolanos que se sientan amenazados, y no lo ha hecho antes.
Otra que fue altamente viral, de un hecho real pero no reciente. La página web del ICE (migración de Estados Unidos) no actualizó los perfiles de Tareck El Aissami ni Samark López en febrero de 2026. Una revisión con Wayback Machine, que permite ver versiones viejas de páginas web, lo dejó claro: al menos desde septiembre de 2025 tenían su cartelito de CAPTURADO.
La web del ente estadounidense también lo dice a pie de página. Algunos volvieron a especular y opinar sobre un hecho ficticio: que ICE había asegurado que los había capturado (o extraditado).
Mentiras de cuentas dudosas
La emoción puede nublar la razón. Como creer en lo publicado por una cuenta llamada NotiTóxico por medio de montajes fotográficos, que confunden el nombre del ministro de Educación, Héctor Rodríguez, con el del presidente de la Asamblea Nacional, Jorge Rodríguez para hacer falsos anuncios.
Como este que desmentimos, sobre un bono de 600 dólares que recibirían todos los docentes de instituciones públicas de Venezuela, y que sería proveniente de fondos encontrados en Bulgaria a nombre de Nicolás Maduro.
NotiTóxico también publicó falsedades sobre farándula y se describe como satírico. Aún así, su post fue compartido y comentado ampliamente. Un truco de alfabetización mediática: el algoritmo siempre nos muestra lo que causa más reacciones emocionales, así que ante cada publicación que nos dispare sentimientos de furia, alegría o tristeza, respirar y revisar el perfil de quién lo dice antes de tomar una decisión, incluso una que parece inofensiva, como compartir el contenido.
Ahora, no siempre es fácil. Una y otra vez hemos desmentido a Luis Quiñónez, un supuesto asesor de Donald Trump que especuló sucesivamente sobre cómo sería la operación militar de Estados Unidos sobre Venezuela. Habló de cortes de luz y señal de Internet (que son tan frecuentes y no pasó el 3 de enero), de operaciones de 24 a 48 horas (fue mucho más breve) y ahora volvió a mentir asegurando que Venezuela se dolarizaría desde el 1° de marzo.
Quiñonez, el favorito de los noticieros de Youtube y TikTok, no sólo no acertó, sino que volvió a soltar un bulo, sensual y apetecible, como suele ser la desinformación que ama el algoritmo, pero sin explicar que ese proceso pasa por una ley nacional (como en Panamá, Ecuador y El Salvador) y no es solo dejar de usar o eliminar la moneda local, sino algo mucho más extenso, planificado e informado (similar a cuando la Unión Europea cambió sus monedas nacionales por el euro, tras un proceso de inserción de dos años), como explicamos acá (y de nuevo acá cuando con IA hicieron que Delcy lo anunciara en una cuenta de TikTok recién creada).
Porque las emociones sí pagan en el algoritmo. Así puedes inventar la historia de una enfermera que vengó la muerte de su esposo y su hijo envenenando a cuatro funcionarios de Maduro que habrían huido a México tras su captura.
Detallitos que pasaron por alto: ella dice haber cometido el delito en 2023, tres años antes de la captura de Maduro. Todas las imágenes son generadas por Inteligencia Artificial, cuando presuntamente hizo pública la declaración desde la cárcel. Y para rematar, no existe nadie en Venezuela con esa combinación de nombres.
Aún hay más: el perfil de Youtube que lo publicó, una vez más, se identifica como un perfil que recrea historias ficticias, mientras que las que lo replicaron en Instagram no son informativas ni noticiosas, sino incluso de marketing, en las que se pueden leer comentarios que apoyan la decisión de la presunta enfermera: “cualquier cosa por un hijo”.
Respira, haz clic en el perfil, revísalo con cuidado, especialmente su descripción.
Corrupción sí, pero así no
Se han hecho muy comunes las historias de revelaciones escandalosas otra vez, que siempre se basan en medias verdades. Tergiversaron entrevistas verdaderas y acusaciones de corrupción, como la falsa “confesión del poder infinito del Cartel de Los Soles” y la falsa compra de un banco suizo “para esconder 50 mil millones de dólares”.
Usaron como fuente a un estadounidense investigado y acusado de extorsionar a venezolanos buscados en Estados Unidos, como Hugo “El Pollo” Carvajal. Este enredo lo desmenuzamos en esta explicación sobre una receta con un pizca de verdad y una tonelada de ficción.
Bendita IA
Grok nos jugó una muy mala pasada el 28 de febrero. Aseguró que la fotografía de una escuela en Minab, Irán, era falsa. El chatbot de IAx, empresa de X (antiguo Twitter), hizo un falso desmentido, señalando que se trataba de una imagen en Afganistán de 2021.
La locura se desató. Se viralizó el desmentido, fue tomado por influencers de derecha y luego pasó a la “sabiduría popular” de Internet, como una presunta prueba del engaño de los grandes medios. El chatbot se desdijo el mismo día y al siguiente, hizo una corrección pero no fue lo mismo. Verificada de RTVE hizo un recuento: 148 mil veces fue visto el falso desmentido y solo 135 veces la corrección.
Así que recuperamos la explicación sobre porqué no es confiable ni aconsejable usar chatbots de IA para comprobar o verificar imágenes o informaciones, así como el historial de errores y desinformaciones impulsadas por Grok, muchas similares a las dichas por su dueño, Elon Musk.
Incluso se comportan de forma sicofante, es decir, que siempre te dicen que todo es una buena idea, que les alegra que les plantees esa idea y que lo tuyo no es duda, sino cautela informada.
En Venezuela les decimos de otra manera, pero tú entiendes.
Un tip para quienes usen muchísimos a los chatbots, cada vez que les des prompts o instrucciones, agrega que use el “modo crítico” o que “no sea sicofante” para que elimine los halagos y te de resultados que incluyan debilidades o fallas en tus ideas.
Chatbot, miénteme amablemente
Vale recordar, que los chatbots de IA son lo que se llama “loros estocásticos”, porque son buenísimos para simular que piensan y parecer inteligentes, pero como los animales domesticados, no saben lo que dicen ni lo entienden, solo procesan y predicen muy bien las palabras. Por eso la agencia EFE lo dejó claro, en un comunicado en que denunció la intermediación algorítmica de Grok de forma errónea: los periodistas hacemos algo que los chatbots no hacen ni pueden: verificar, contrastar e ir al terreno a reportar.
Además, republicamos un extraordinario trabajo de nuestras colegas de Ecuador Chequea, que geolocalizaron la escuela, buscando pistas, evidencias y testimonios, para revelar que efectivamente habían bombardeado una escuela femenina un sábado, que es lectivo en Irán.
También lo verificó BBC Verify, Maldito Bulo (y las mentiras alrededor como que Irán confesó el ataque), The New York Times, Verificat y Fact Chequeado. Todos usaron herramientas y enfoques diversos para llegar a la misma conclusión: la cercanía de la escuela a una clínica militar, que hasta 2016 estaba separada de la escuela por una pared, pudo llevar a una calificación errónea del lugar.
Nosotros también descubrimos nuestro par de mentiritas usando IA. Como la falsa cédula venezolana (sin número) del narcotraficante mexicano conocido como El Mencho (y que otra vez viene de una cuenta que se describe como humorística) y la falsa pancarta contra Diosdado Cabello en el Distribuidor de Plaza Venezuela en Caracas, que hasta cambió la dirección de los carriles de la autopista (y fue distribuido por un desinformante serial).
Y marzo no empezó suave. Como dijo Cristina Tardágila, una de nuestras heroínas del fact-checking el 28 de febrero, quien fue directiva de la Red Internacional de Verificadores (IFCN), múltiples veces galardonada y cofundadora de la Agencia Lupa de Brasil: “¿Sabes a quienes les toca verificar otra guerra más?”.

