La tecnología sigue perfeccionándose, mientras la humanidad se prepara ética y conceptualmente para incorporarla a su día a día
¿Qué tienen en común el Papa Francisco, Michael Schumacher, Nicolás Maduro y Mickey Mouse? Estas personalidades fueron los protagonistas de los deepfakes de abril. Los ejercicios creativos con el uso de la Inteligencia Artificial siguen explorando nuevas fronteras y, con ellas, dilemas éticos acerca de sus aplicaciones.
Las Redes Generativas Antagónicas (GAN, por sus siglas en inglés) son una técnica de aprendizaje automático que utiliza dos redes neuronales para crear imágenes, audio, video o texto generados por computadora, lo que permite a los usuarios crear nuevos contenidos desde cero. Mientras una de las redes genera el producto, la otra la evalúa para determinar si es auténtico o no, así se entrenan mutuamente utilizando una gran cantidad de datos para generar, por ejemplo, imágenes de alta calidad y detalladas.
A medida que estas redes mejoran, se vuelve cada vez más difícil distinguir las imágenes generadas por GAN de las fotografías reales. Sin embargo, a pesar de este constante entrenamiento y las mejoras de los sistemas sigue habiendo pistas claras que permiten diferenciar una imagen hiperrealista creada con IA de una fotografía real:
- El hiperrealismo de las imágenes creadas por IA tiende a una iluminación artística que se parece más a una pintura hiperrealista que una fotografía con la iluminación natural en exteriores o iluminación artificial en interiores.
- La piel de los personajes tiene una textura aterciopelada, con sombras dramáticas.
- La IA se centra en el perfeccionamiento del personaje principal, por lo que los glitches se pueden ver disimulados en partes del cuerpo que quedan en segundo plano, en los fondos o en detalles como sombras en diferentes direcciones.
El diablo está en los detalles, de izquierda a derecha: el agarre de la taza no es natural, las sombras van en posiciones distintas, los símbolos de Venezuela no son reales.
¿Cuál es el límite entre el uso creativo y la manipulación cuando se usan imágenes creadas con IA?
A primera vista, fotos como la del Papa Francisco estrechando la mano de un demonio o abrazando a Mickey Mouse sólo parecen tener fines de entretenimiento y sátira. Mientras que fotografías como las de Nicolás Maduro, no parecen más que ejercicios creativos.
Hasta aquí, todo va bien. El problema se presentaría si imágenes hiperrealistas de personalidades se tratan de hacer pasar por fotografías reales o, peor aún, si se creara por completo un artículo con fotografías (o video) en nombre de una persona real sin su consentimiento.
Por ejemplo, las imágenes de Nicolás Maduro que ilustran este artículo forman parte de un conjunto de no menos de 20 imágenes de personajes venezolanos generadas con IA por Pedro Carvajalino, representante del portal desinformativo Venezuela News. Entre las imágenes publicadas por Carvajalino en su cuenta de Twitter resaltan las del presidente de Venezuela, así como algunas del exministro de Petróleo, Rafael Ramírez o del líder opositor Juan Guaidó en contextos favorables a las narrativas del gobierno de Maduro.
Varios tuiteros influyentes han publicado en Twitter grupos de imágenes sintéticas creadas con IA sin que haya una aparente intención de engañar a sus seguidores o desinformar, como ocurrió con el set de fotografías de “El falso arresto de Trump” publicadas por Elliot Higgins, fundador de Bellingcat, que reseñamos en la primera entrega de esta serie.
Sin embargo, parece inevitable que estas imágenes generadas “por curiosidad” se hagan virales fuera del contexto original y terminen engañando a algunos usuarios, tal como demostró el propio Carvajalino al confirmar que una de las imágenes de Nicolás Maduro que había generado con IA había sido usada para crear un meme propagandístico, sin que su diseñador advirtiera que la cinta con la bandera que porta el presidente no es una verdadera representación del Pabellón Nacional.
Una entrevista engañosamente real
Esta semana, la revista alemana “Die Aktuelle” dedicó su portada y páginas centrales a “la primera entrevista de Michael Schumacher después de su accidente”. El artículo “Mi vida cambió por completo” y sus fotos fueron generados por una Inteligencia Artificial que simuló las posibles respuestas de el “Káiser” ante preguntas que ahondaban en su vida después del accidente que sufrió en diciembre de 2013.
“El texto se elaboró con la aplicación ‘character.ai’, que permite hablar de forma simulada con personajes famosos, respondiendo a las preguntas de la forma en la que esta Inteligencia Artificial considera que hablaría el personaje en cuestión usando información de anteriores declaraciones de estas personalidades”.
Sport.es
Die Aktuelle también fue la revista que en 2014 publicó unas fotos antiguas de Schumacher haciéndolas pasar como de su recuperación tras el accidente.
“En 2014, a pocos meses de su accidente en esquí, la misma publicación se animó a presentar una foto de Schumacher bajo el título “¡Qué suerte! se sienta al sol” que parecía haber sido tomada en plena recuperación”.
Infobae
Con este antecedente, las reacciones negativas contra el artículo sensacionalista no se hicieron esperar y la familia del astro de fórmula 1 emprenderá acciones legales contra el semanario por haber violado la intimidad del corredor y su familia, tomando en cuenta que existe un acuerdo tácito que han acatado la mayoría de los medios de alemanes, pero no Die Aktuelle.
Por su parte, Funke, la casa editorial a la que pertenece Die Aktuelle, se vio en la necesidad de publicar una disculpa a la familia y despedir a la editora que autorizó la publicación porque no cumple los estándares periodísticos de la editorial.
“Este artículo de mal gusto y engañoso nunca debería haber aparecido. De ninguna manera cumple con los estándares periodísticos que nosotros y nuestros lectores esperamos de una editorial como Funke”.
Bianca Pohlmann, directora general de Funke
Y es que, en general, la creación de toda una pieza comunicacional a nombre de un personaje famoso utilizando inteligencia artificial (IA) plantea algunas interrogantes éticas:
- ¿Es imprescindible la autorización del uso del nombre e imagen de la persona?
- ¿El contenido generado por IA podría ser usado manipulado o falsificado para difamar o extorsionar?
- ¿Cómo establecer la responsabilidad legal del personaje sobre los contenidos simulados a su nombre?
- ¿A quién pertenece la propiedad intelectual de las “declaraciones” generadas por una IA a nombre de un tercero?
- Por ser una suerte de “proyección” del personaje real, ¿el contenido generado por Inteligencia Artificial puede ser considerado auténtico?
Para responder estas interrogantes, es necesario el consenso de especialistas técnicos, legales y comunicacionales, así como el fortalecimiento de una audiencia crítica y alfabetizada tecnológicamente que pueda servir de contralor para regular, a través del uso y consumo, la creación y difusión de este tipo de contenidos.
Cazadores de Fake News investiga a detalle cada caso, mediante la búsqueda y el hallazgo de evidencias forenses digitales en fuentes abiertas. En algunos casos, se usan datos no disponibles en fuentes abiertas con el objetivo de reorientar las investigaciones o recolectar más evidencias.