• Fallas en la apariencia o la anatomía humana, como dedos incompletos, asimetría en las extremidades o texturas extrañas en la piel son señales del contenido generado por IA
  • Palabras incompletas o mal escritas y objetos con inconsistencias visuales, como sombras o reflejos incorrectos, son indicadores de contenidos digitales creados con IA
  • Los videos creados con IA suelen tener movimientos artificiales y voces sintéticas, que no replican de manera natural las expresiones o tonos humanos

Aunque no lo creas, la Inteligencia Artificial (IA) es parte de nuestra vida desde hace años, facilitando tareas tan simples como completar la frase en un buscador de Internet o recomendarte la mejor ruta a tu destino. No obstante, cada vez se crean nuevas herramientas (aplicaciones y softwares) que no solo ayudan a desarrollar actividades digitales, sino que pueden recrear acciones o hechos que no sucedieron.

Esto no sería grave si usas IA para generar música, logos para marcas o diseños arquitectónicos, pero recientemente se han viralizado contenidos generados sintéticos que pretenden desinformar por mostrar falsos hechos, a través de imágenes, videos o audios.

Por ello, los sobrinos humanos de la Tía del WhatsApp, el chatbot de verificación de información de Efecto Cocuyo que puedes consultar acá, decidimos enseñarte a cómo reconocer desinformación generada con IA.

Pilas con los detalles

A simple vista los contenidos generados con IA parecen auténticos, así que afina tus sentidos y presta atención a los siguientes elementos:

Rasgos corporales: Las partes del cuerpo suelen delatar estos contenidos por evidencias como asimetría en las extremidades, falta de dedos en las manos, partes del cuerpo sin unir, piel extremadamente lisa (como cuando retocas una foto con filtros), entre otros detalles como el brillo que se refleja en la piel.

En marzo de 2023 se viralizaron varias fotos de Donald Trump, cuando fue acusado por un presunto pago que realizó a la actriz de cine para adultos Stormy Daniels antes de las elecciones presidenciales de 2016. Aunque Trump fue declarado culpable de 34 delitos, las imágenes que se difundieron en ese momento (Trump arrodillado orando, y Trump huyendo o siendo atrapado por la policía) eran falsas y fueron creadas con IA.

El expresidente de EE.UU. Donald Trump publicó esta imagen de sí mismo generada por inteligencia artificial, pero una mirada más cercana muestra que le faltan dedos. Tomada de BBC
Esta imagen parece borrosa a simple vista, pero si detallas las caras de la multitud, realmente son personas sin rostro. Tomada de BBC

Palabras u objetos incompletos: De la misma manera que faltan partes del cuerpo, las imágenes producidas con IA suelen tener palabras u objetos incompletos que pueden pasar desapercibidos si no analizas con calma la imagen.

En mayo de 2024 se viralizaron burlas y críticas al presidente de Colombia, Gustavo Petro, por errores en fotos de apoyo a la marcha del primero de mayo (Día Internacional del Trabajador ) generadas por IA; pues las frases de los carteles que sostenían las personas (algunas con rostros deformados o sin dedos), tenían palabras o frases sin sentido como: “Coombia” en vez de Colombia y “Columi potenica DL A vuda” en vez de “Colombia potencia mundial de la vida”.

Imagen tomada de Infobae. Intervenida por Cocuyo Chequea

Además de estos detalles, debes prestar atención a las sombras de las personas u objetos, observar en dónde están apoyados (ya que a veces flotan), las luces y brillos o los reflejos en superficies espejadas. Todos estos elementos podrán darte pistas sobre si una imagen fue creada con Inteligencia Artificial

Otro caso viral en el mundo fueron las imágenes creadas con IA del Papa Francisco vistiendo abrigos de moda; aunque muchos usuarios comentaron que no eran fotos reales, se hicieron tendencia por personas que pensaron que sí. El autor explicó que siempre hace arte psicodélico o gracioso y tuvo esta idea; mientras que el Papa, una semana después, afirmó el potencial del uso de la IA siempre y cuando se actúe de forma ética y responsable.

Imágenes virales del Papa Francisco vistiendo a la moda. Tomada de CNN en español

Movimientos robóticos

Los audiovisuales creados con IA suelen tener errores similares a los descritos anteriormente, agregando que los movimientos de las personas u objetos no son de forma orgánica, es decir, movimientos naturales como parpadear suelen ser lentos y los rostros tener pocas expresiones. Aunque estas herramientas logran que los labios se sincronicen con la locución, los movimientos suelen ser muy similares a la hora de pronunciar  diferentes palabras.

A través de una plataforma de IA llamada Synthesia, el gobierno venezolano creó la firma The House of News para reportar a través de dos avatares la “mejora” de la economía venezolana, tras la celebración del carnaval y de la Serie del Caribe en febrero del 2023. Los reportes de este noticiero se difundieron en el canal estatal Venezolana de Televisión (VTV), tomados como fuentes confiables, hasta que nuestros colegas de Cazadores de Fake News, detectaron la generación del noticiero con uso de IA.

Presentador creado con IA para el falso noticiero a favor del gobierno venezolano

Este año 2024, se hizo tendencia una aplicación móvil que, a través de las fotografías de dos personas, se puede simular un beso entre ellas. Aunque se hizo viral en plataformas como TikTok, donde los usuarios difundían videos besándose con personajes famosos, algunos de estos contenidos se convirtieron en desinformación.

Este es el caso del falso video del beso entre Nicolás Maduro y el cantante Servando Primera, el cual se difundió en un video junto a la supuesta opinión de la líder opositora María Corina Machado al respecto. Todo el audiovisual fue creado y ensamblado con varias técnicas de IA, explicadas por los colegas de Cazadores de Fake News.

Por otra parte, con IA se generan escenarios surrealistas que, aunque en ocasiones su objetivo no es desinformar, terminan circulando como verdaderos, alarmando a la población sobre hechos que no han sucedido.

Así sucedió con el video ficticio de una supuesta fábrica de bebés, viralizado en abril de 2024 lo que alarmó a la sociedad tras desinformar que una aparente empresa llamada EctoLife pondrá en funcionamiento un útero artificial que permite imitar las condiciones del útero materno y producir una «fábrica de bebés» que geste hasta 30 mil bebés al año, pero fue creado por un productor y comunicador especializado en ciencia, Hashem Al-Gaili, «para imaginar el futuro».

De igual manera sucedió con las fotos creadas con IA sobre falsos incendios forestales en cerros de Bogotá, desmentidas por el medio de verificación ColombiaCheck; en las que el propio autor reconoció horas después que las produjo con IA, y advirtió sobre el peligro de esta tecnología.

Capturas tomadas de ColombiaCheck

De igual forma sucedió con la viralización de la falsa mansión que supuestamente pertenecía a Diosdado Cabello, ubicada en la ciudad de Managua, capital de Nicaragua; cuando en realidad era un audiovisual creado con IA por un usuario de la India que comparte repetidamente fotos y videos de mansiones lujosas y animales mitológicos.

Voces sintéticas

En los audiovisuales, es importante que tomes en cuenta el tono de la voz de los interlocutores, ya que con IA resulta sencillo simular la voz de las personas. No obstante, estas voces tienen un tono sintético (como hablan los robots en las películas) que se aleja de la voz real y suelen repetir palabras claves. Por ello, recomendamos buscar alocuciones recientes emitidas en medios de comunicación oficiales para que compares la voz del interlocutor con la que se emite en el video en cuestión.

En torno a las protestas postelectorales, se viralizó un video de Nicolás Maduro, cuya voz fue manipulada para denunciar que «daba la orden de matar a quien proteste», lo cual es falso como explicamos acá. Aunque algunos usuarios advirtieron que esa no era la voz de Maduro, algunos sí creyeron en esta desinformación.

Es importante mencionar que el video original fue publicado en la cuenta de X del mandatario, mostrando su conversación con un grupo de militares tras un recorrido que realizó Maduro la noche del 31 de julio en Caracas. Por lo que en este caso, solo la voz fue generada con IA.

Otro caso postelectoral, fue el del falso audio de María Corina Machado acusando de soborno a Nicolás Maduro, quien supuestamente había ofrecido “1.000 millones de dólares al presidente Edmundo González, para que abandone el país y renuncie a su cargo”. Sin embargo, a través de una herramienta de IA para verificar voces, detectamos que la alocución no era la voz de Machado y fue creada digitalmente.

La IA como herramienta de verificación e información

Así como se usa la IA para desinformar, desde el periodismo de verificación, como el que hacemos el equipo de Cocuyo Chequea, usamos esta tecnología para chequear información. Herramientas como VerificAudio nos ayudan a comparar voces con alocuciones reales para establecer coeficientes de similitud a través de tecnología de machine learning, como la falsa llamada filtrada entre Edmundo González y Juan Guaidó, o los falsos audios de Nicolás Maduro y Elvis amoroso coordinando un supuesto fraude electoral.

Asimismo, nuestra querida Tía del WhatsApp, es un chatbot automatizado que envía verificaciones a los usuarios según las palabras claves de sus solicitudes, y que, en caso de no tener información al respecto, hace llegar las solicitudes a sus sobrinos humanos para futuras verificaciones.

Además, hay iniciativas periodísticas como Operación Retuit, que a través de avatares creados con IA narran información verificada por reconocidos medios de comunicación venezolanos, con la finalidad de no exponer a los periodistas de carne y hueso, ante el actual escenario de represión contra la prensa. 

Conclusión

La desinformación generada por Inteligencia Artificial (IA) se difunde con rapidez en las redes sociales y cada vez es más sofisticada, por lo que es crucial estar atentos a los detalles que revelan su falsedad. 

A través de nuestro método de verificación, hemos identificado aspectos comunes en los contenidos creados con IA, como la asimetría de los rasgos corporales, partes incompletas, rostros deformes, la falta de coherencia en las palabras u objetos, y los movimientos inorgánicos en los videos, así como detalles en los brillos, sombras o reflejos de los objetos. 

Es por ello que, recomendamos observar detenidamente un contenido que te haga dudar de su veracidad, ya que a simple vista estos detalles pasan desapercibidos. También puedes consultar a la Tía del WhatsApp, nuestro chatbot de verificación de información para corroborar cualquier contenido viral. Para que estés atento a estos detalles de contenido generado con IA y que también puedas identificar cuando un audiovisual o las voces fueron manipuladas, te compartimos cinco señales para identificar videos desinformativos, desarrolladas por el equipo de Cocuyo Chequea.