Logo El Cierre Digital
Personas abrazándose en un entorno de protesta, con policías usando equipo antidisturbios.
INVESTIGACIÓN

La IA amenaza a la información: Manipulan imágenes de una manifestación

La Inteligencia Artificial de generación de imágenes se está usando para engañar al público sobre temas políticos.

Nuevo golpe a los intentos de acabar con la desinformación política. La IA de generación de imágenes ha pasado rápido a formar parte de las herramientas que se utilizan para engañar al público sobre temas políticos. Ha ocurrido en Francia donde se han publicado unas supuestas fotografías de las huelgas francesas en las que aparece un policía abrazando a una manifestante. La bonita imagen es ficticia, ha sido creada mediante Inteligencia Artificial

Este intento de desinformación política preocupa por la multitud de posibilidades que puede ofrecer los diferentes tipos de IA que se han desarrollado en los últimos años. Ahora se han utilizado para manipular la opinión pública con las huelgas que se están desarrollando en territorio francés contra la reforma propuesta por presidente Emmanuel Macron en las pensiones que, entre otras cuestiones, pretende extender la edad legal de retiro de los 62 a los 64 años. El martes fue el tercer día de huelga y manifestación, con una participación masiva de al menos dos millones de personas convocadas por los sindicatos.

Es común que las fuerzas de seguridad que se utilizan para controlar disturbios en el país vecino sean las CRS (Compañías Republicanas de Seguridad), lo que en España sería el cuerpo de antidisturbios. En estas famosas fotografías, un miembro de las CRS aparece consolando a tres manifestantes distintas en pleno corazón de las protestas.

El perfil de Twitter que las difundió, @WebCrooner, comentaba que las imágenes eran “una locura” y que no se habían publicado, "para variar", por el fotógrafo francés @OdieuxBoby que acostumbra a publicar fotografías de las manifestaciones. Apenas unas horas después de hacerse viral las imágenes, la experta en fact checking Nina Lamparski, directora de la plataforma de verificación de datos AFP FastCheck, compartía en su perfil personal que las imágenes virales habían sido creadas por una Inteligencia Artificial (IA). La clave para desmentir las fotografías fue que el policía tenía seis dedos en la mano izquierda.

Lamparski explica que “estas fotos supuestamente tomadas ayer en una manifestación de protesta en Francia parecen casi reales, si no fuera por el guante de seis dedos del oficial”. Además, añade varios ejemplos en los que las creaciones de las IA fallan recreando manos humanas y un interesante artículo titulado “¿Por qué las IA tienen dificultades para dibujar manos realistas?”.

Uno de los seguidores de la experta le señalaba que una de las manifestantes contaba con una tercera oreja, otro fallo de la IA. La llegada de las fotografías creadas con inteligencia artificial plantea muchos y diversos problemas para los periodistas y para los usuarios, que tendrán que hacer un doble esfuerzo para filtrar informaciones, posiblemente, contando orejas y dedos.

Otros usos peligrosos de la IA

El último 'juguete' de internet que ha seducido a toda la población es capaz de responder a todas tus preguntas, pero admite que su respuesta no es perfecta y puede tener errores. Es una herramienta diseñada para responder preguntas a través de un diálogo. En una publicación en su blog, OpenAi afirma que el ChatGPT “responde a las preguntas de seguimiento, admite sus errores, desafía supuestos incorrectos y rechaza solicitudes inapropiadas”.

Una mano humana y una mano robótica acercándose para tocarse en un fondo oscuro.
Los errores del chatGPT | El Cierre Digital

Es cierto que esta inteligencia artificial puede solucionar alguno de estos problemas, pero no llega a tener una solución completa. No realiza una búsqueda web para obtener información sobre hechos recientes, por lo que no es capaz de resolver las dudas sobre la actualidad debido a que sus conocimientos tan sólo llegan hasta un tiempo específico, el año 2021. OpenAi también programó a este chatbot para rechazar “peticiones inapropiadas”.

Esta inteligencia artificial genera una respuesta que hace que parezca “humano”. Sin embargo, hay que tener en cuenta que ChatGPT no razona, no es capaz de entender en su totalidad la complejidad del lenguaje humano y no comprende el significado de las palabras. Tan sólo crea frases en base a un patrón estadístico para que gramaticalmente concuerden.

➡️ Investigación

Más noticias: