‘Detectores’ de imágenes con IA dan falsos positivos sobre la guerra en Israel y Palestina

Alberto R. Aguiar | Business Insider
0
824
detectores de IA deepfake

El auge de los modelos fundacionales, esas inteligencias artificiales generativas capaces de crear imágenes, audios, vídeos y texto, conllevan una siniestra e inquietante consecuencia sobre cómo los seres humanos se van a relacionar durante los próximos años. El resumen es que en internet ya no va a ser posible creerse absolutamente nada.

En esta ocasión no se trata por la proliferación de deepfakes, esas piezas gráficas en las que una IA es capaz de suplantar el rostro e incluso la voz de una persona con resultados muy creíbles. Tampoco tiene que ver con el hecho de que sistemas de generación de texto se pongan a escribir en cuestión de segundos amplios reportajes con declaraciones absolutamente alucinadas.

Ni siquiera se puede comparar con la repercusión que tuvo la aparición de la suite creativa de Photoshop hace exactamente 20 años, que junto con el auge de internet popularizó y democratizó los montajes fotográficos.

Se trata de que en el momento actual del estado del arte sobre las IA generativas es imposible discernir cuándo una imagen, por ejemplo, ha sido generada o no por una máquina. Y lo que es peor: los supuestos “detectores de imágenes generadas por inteligencia artificial” están arrojando falsos positivos… sobre imágenes del conflicto entre Israel y Palestina.

Te puede interesar: Confluencias (invisibles) entre la inteligencia artificial y la desinformación

Es lo que cuenta 404 Media, un digital fundado por periodistas de Vice y Motherboard especializados en tecnología. En este artículo recogen una imagen de unos supuestos bebés calcinados durante los ataques que Hamás perpetró en Israel este mismo mes.

La imagen fue compartida en redes por conservadores estadounidenses en los últimos días. Con ella trataban de amparar la información inicial de que Hamás decapitó a decenas de bebés en sus ataques, un extremo cuya confirmación acabó siendo desmentida por el Gobierno de EEUU primero y luego, con menor intensidad, por las propias Fuerzas de Defensa Israelíes.

La polémica surgió en Twitter, la plataforma de Elon Musk ahora conocida como X, después de que un tertuliano estadounidense conservador, Ben Saphiro, publicara la imagen la semana pasada diciendo: “¿Queríais pruebas gráficas de bebés judíos asesinados? Aquí las tenéis, patéticos haters de judíos”.

Horas después, un usuario de la misma red social, Jackson Hinkle, con cerca de 800.000 seguidores, compartió sus hallazgos tras introducir la controvertida imagen en una herramienta que promete detectar si una fotografía ha sido generada por un modelo de IA generativa. La herramienta, llamada Optic AI Or Not, fue contundente entonces.

“Esta imagen ha sido generada con IA”

404 Media también hizo su comprobación a la hora de preparar su reportaje. Obtuvo el mismo resultado. Business Insider España también ha sometido la imagen a examen. La respuesta, en este caso, fue distinta. “Parece hecha por humanos”. Llama la atención la contundencia con la que se expresa para un resultado y la prudencia que muestra para el otro.

La polémica en redes no tuvo más recorrido. Saphiro acusó al tuitero de mentiroso. Los usuarios de X aprobaron una nota de verificación y debajo del tuit se puede leer, desde entonces, la siguiente aclaración: “La imagen ha sido generada por IA. Subir la imagen a un detector de redes neuronales adversarias prueba este veredicto”.

El problema es que el veredicto del detector ya no es el mismo y ahora es imposible saber qué es verdad y qué es mentira.

Hany Farid, profesor de la Universidad de California Berkeley y uno de los mayores expertos del globo en retoque digital y manipulación fotográfica, cree que esta imagen en concreto es auténtica. En declaraciones a 404, destaca que la iluminación de la imagen es perfectamente real, y los generadores de imágenes por IA no suelen arrojar resultados tan conseguidos.

Pero el que esta imagen sea o no real ya es lo de menos. Optic AI Or Not promete ser capaz de “identificar” imágenes generadas por modelos como Stable Diffusion, MidJourney, DALL-E, o rostros creadores a través de redes neuronales adversarias.

Sin embargo, sus resultados son tan contundentes como escuetos. Destacan si una imagen es generada por una IA o “parece” creada por un humano sin detallar cómo su propio modelo de inteligencia artificial ha podido llegar a esa conclusión. Genera un problema de incertidumbre y falta de confianza que se ha convertido en un estándar dentro de la industria de la IA.

Los problemas de los detectores que no siempre aciertan

El problema no es único ni exclusivo de este detector. 404 ha hecho un experimento similar con una imagen publicada por The New York Times sobre un fotógrafo palestino asesinado por las bombas israelíes. Otro detector, este Maybe’s AI Art Detector, indicaba que la fotografía había sido generada con una IA con un 52% de probabilidades.

Al menos en ese caso la respuesta en términos porcentuales permite a los usuarios seguir dudando de que el detector IA haya podido tener éxito en su análisis.

Cada cierto tiempo aparece un nuevo detector de imágenes IA o de deepfakes. Sin embargo, su eficacia real dista de ser plena y absoluta. Tal vez no lo sea nunca. Esa situación preocupa especialmente en el mundo de la ciberseguridad.

En la última edición de la RootedCON de Madrid, el mayor evento de ciberseguridad del país, fueron 2 ponentes, como Ángela Barriga, ingeniera en Mobbeel, ahora Sia, parte de Indra o Chema Alonso, ejecutivo de Telefónica, los que pusieron el acento en esta situación. Alonso, mediático hacker, fue lacónico: detectar a estos nuevos “replicantes” no es una tarea sencilla.

La propia Policía Nacional lanzaba hace unas semanas una consulta preliminar al mercado para saber si ya existen detectores de deepfakes. La respuesta corta es que no. La larga es que todavía no, y los que ya están en el mercado pueden acabar generando más desinformación.

A esta incertidumbre hay que sumar las respuestas completamente alucinadas que están dando los chatbots basados en IA, como Google Bard, Bing Chat o ChatGPT Plus: a pesar de que algunos de estos servicios se conectan a internet para buscar información y ofrecerla, aportan detalles llenos de inexactitudes e incluso hablan de treguas que nunca han existido en Oriente Medio.

La IA, hoy por hoy, es el mayor desafío al que se deben enfrentar quienes desean acabar con la desinformación y las noticias falsas en la red.