Imágenes creadas con inteligencia artificial despiertan varias alarmas en cuanto al riesgo de desinformación y manipulación de masas
Niños en la biblioteca de la escuela, recibiendo clases dictadas por el mismísimo Diablo, falsas imágenes de desnudos frontales de artistas y una supuesta bomba que no existió pero sí produjo una caída en el mercado… Así de variada fue la oferta de deepfakes que dejó el mes de mayo en las redes sociales.
Imágenes virales no son reales, fueron creadas con Midjourney por un usuario de Facebook
Proteger a los niños y a las mujeres
Este mes circularon en redes sociales varias fotografías creadas con IA en las que se ve supuestos grupos de niños en lo que parecen bibliotecas, acompañados de símbolos satánicos o guiados por personas ataviadas como el Diablo y de textos alarmistas que implicaban “adoctrinamiento satánico” en las escuelas.
“Proteja a sus hijos, ahora se están infiltrando en los niños como jóvenes satanistas y presentan a Baphomet como Dios”.
Texto del bulo
En este paso, las inconsistencias en las personas son bastante claras (manos y rostros deformes). Sin embargo, Reuters rastreó las imágenes y así consiguió al autor de las fotografías: un usuario de Facebook llamado “The Pumpkin Empress” quien confirmó que las fotografías habían sido creadas en Midjourney.
La vulnerabilidad femenina
En el contexto hispanoparlante, la cantante Rosalía y la periodista Johanna Villalobos fueron víctimas de un flagelo del que ya habían sido víctimas artistas de Hollywood como Scarlett Johanson en el 2015: el fake porn.
La semana pasada, una falsa fotografía desnuda de la periodista costarricense, Johanna Villalobos se hizo viral en redes sociales y Whatsapp. La foto compartida es la manipulación de una foto real de ella en la playa y con IA la hicieron aparecer desnuda.
Poco tiempo después, el rapero JC Reyes publicó en sus historias de Instagram una pieza similar en la que se veía sin ropa a la cantante española Rosalía. Lo que avivó el debate sobre la ética y el consentimiento necesarios para producir imágenes de este tipo de una tercera persona.
Además de las figuras públicas, varias usuarias de las redes sociales han denunciado este tipo de violencia en su contra. No son famosas, no son conocidas ni tienen muchos seguidores, pero han sabido que existen fotos suyas manipuladas para parecer fake porn gracias a la cantidad de mensajes directos que reciben de interesados en las fotos que no son reales.
«No puedo describir lo que me ha pasado en las últimas 48 horas (…) un usuario de Twitter me envió fotografías en las que originalmente estaba vestida, totalmente vestida y las colocaron a través de una inteligencia artificial para editarme desnuda».
Víctima de fake porn
Pasa en Terminator: ¿pasa en la realidad?
En una entrevista reciente publicada por Hipertextual, James Cameron, el reconocido cineasta y creador de la franquicia Terminator, advirtió sobre los peligros de los avances tecnológicos al afirmar que una inteligencia artificial como “Skynet” no necesitaría armas nucleares para destruir a la humanidad, sino que podría aprovechar los deepfakes —tecnología que permite falsificar rostros y voces en videos— para enfrentar a las personas entre sí y difundir desinformación a gran escala.
“Si Skynet quisiera tomar el control y eliminarnos, se vería bastante como lo que ocurre actualmente. No tendría que aniquilar toda la biosfera y el medio ambiente con armas nucleares para lograrlo. Sería mucho más fácil y requeriría menos energía para volver nuestras mentes contra nosotros mismos. Todo lo que “Skynet” tendría que hacer es hacer deepfakes de algunas personas, enfrentarlas entre sí, instigarlas, y simplemente ejecutar esta falsificación gigante en la humanidad”.
James Cameron
La ficción se volvió realidad cuando se viralizó en redes sociales una imagen —generada por IA— en la que se veía una amplia columna de humo junto a las instalaciones del Pentágono, sede del Departamento de Defensa de Estados Unidos.
“La imagen apareció por primera vez en Facebook y luego se difundió a las cuentas de Twitter, incluida la red de medios estatales rusa RT. El primer tuit encontrado con la imagen del Pentágono ardiendo provino de una cuenta del grupo de ultraderecha QAnon”.
La Razón
Una de las cuentas de Twitter responsable de la difusión del bulo fue @BloombergFeed (actualmente suspendida), que está suscrita a Twitter Blue y con marca de verificación azul podía ser confundida con una cuenta del conglomerado editorial Bloomberg.
“En la difusión de la imagen tuvieron un papel fundamental webs de noticias financieras como ZeroHedge o cuentas como OSINTDefender en Twitter, especializada en el manejo de información sobre conflictos bélicos de fuentes libres que cuenta con más de 335.000 seguidores”.
The Huffington Post
La imagen llamó la atención de expertos en desinformación como Nick Waters, exmiembro del ejército y periodista de Bellingcat, quien señaló errores (glitch) presentes en la imagen. El más evidente: en la base del faro de luz que está al centro de la imagen.
Muchas de las cuentas que amplificaron el bulo, borraron sus publicaciones al notar que sólo existía una imagen como registro del supuesto bombardeo al Pentágono, pero esto no evitó que se produjera un flash crash en la bolsa de valores.
“Estos son caídas del mercado que ocurren en cuestión de minutos, y son causadas por IA que interpretan erróneamente información, o que las fuentes de información verificadas comparten sin verificar que se tratan de datos erróneos, o mentiras”.
Criptonoticias
En este contexto, el riesgo de desinformación gracias al fácil acceso a los distintos sistemas de inteligencia artificial para la creación de textos, imágenes estáticas, video y voz y a la posibilidad de que sean usados por actores maliciosos para desestabilizar a una sociedad, es compartido por comunicadores como Fernando Núñez-Noda, periodista y consultor de medios digitales.
Sea cual sea el autor de estas imágenes o sus motivos particulares, el efecto siempre es apelar a las emociones humanas más básicas: el instinto de supervivencia y, a partir de allí, lograr una reacción en la audiencia. ¿Estamos preparados para no dejarnos manipular?
Cazadores de Fake News investiga a detalle cada caso, mediante la búsqueda y el hallazgo de evidencias forenses digitales en fuentes abiertas. En algunos casos, se usan datos no disponibles en fuentes abiertas con el objetivo de reorientar las investigaciones o recolectar más evidencias.