ChatGPT y otras herramientas de IA similares están demostrando su utilidad en muchos contextos diferentes, y a Europol le preocupa que puedan ser igual de útiles para los delincuentes.
ChatGPT, la aplicación que más rápido ha crecido de todos los tiempos, ha puesto en manos de los usuarios el poder de la inteligencia artificial (IA) de un gran modelo lingüístico inteligente -formado a partir de una base de datos masiva de información procedente de Internet- en sus manos.
Este nuevo poder ya ha provocado cambios en la forma en que muchas personas realizan su trabajo o buscan información en Internet, y la tecnología de OpenAI inspira tanto entusiasmo por la promesa del futuro que puede verse a la IA con miedo por los cambios que está introduciendo.
Uno de los temores en torno a la tecnología de IA como ChatGPT es qué podrían hacer con ese poder los delincuentes.
Eso es lo que Europol, la agencia policial de la Unión Europea, ha analizado en su reciente informe sobre ChatGPT titulado “The impact of Large Language Models on Law Enforcement” (El impacto de los grandes modelos lingüísticos en la aplicación de la ley).
ChatGPT, que se basa en la tecnología de modelos de lenguaje GPT3.5 de OpenAI, podría “facilitar considerablemente a los delincuentes la comprensión y posterior comisión de diversos tipos de delitos”, según el informe.
Esto se debe a que, aunque la información con la que se entrena a ChatGPT ya está disponible libremente en Internet, la tecnología es capaz de proporcionar instrucciones paso a paso sobre todo tipo de temas, si se le hacen las preguntas adecuadas.
Estos son los tipos de delitos que Europol advierte que los chatbots, o LLM, podrían ayudar a los delincuentes.
Fraude, suplantación de identidad e ingeniería social
ChatGPT y otros chatbots como Bard, de Google, han asombrado a los usuarios con su capacidad para escribir como un humano sobre cualquier tema, basándose en las indicaciones del usuario.
Pueden imitar estilos de escritura de famosos y aprender un estilo de escritura a partir del texto introducido, antes de crear más escritos en ese estilo aprendido. De este modo, el sistema puede ser utilizado por delincuentes que quieran suplantar el estilo de escritura de alguien o de una organización, lo que podría utilizarse en estafas de phishing.
Europol también advierte de que ChatGPT podría utilizarse para dar legitimidad a diversos tipos de fraude en línea, como por ejemplo mediante la creación masiva de contenidos falsos en las redes sociales para promocionar una oferta de inversión fraudulenta.
Una de las señales inequívocas de un posible fraude en las comunicaciones por correo electrónico o en las redes sociales son los errores ortográficos o gramaticales evidentes cometidos por los delincuentes que escriben el contenido.
Con el poder de los LLM al alcance de la mano, incluso los delincuentes con escaso dominio del inglés podrían generar contenidos que ya no presentaran estas señales de alarma.
La tecnología también está madura para ser utilizada por aquellos que buscan crear y difundir propaganda y desinformación, ya que es experta en la elaboración de argumentos y narrativas a gran velocidad.
Ciberdelincuencia para principiantes
ChatGPT no sólo es bueno escribiendo palabras, sino que también domina varios lenguajes de programación. Según Europol, esto significa que podría tener un impacto en la ciberdelincuencia.
“Con la versión actual de ChatGPT, ya es posible crear herramientas básicas para diversos fines maliciosos”, advierte el informe.
Se trataría de herramientas básicas para producir páginas de phishing. Por ejemplo, permite a los delincuentes con escasos o nulos conocimientos de codificación crear cosas que antes no podían.
Las inevitables mejoras en las capacidades de LLM hacen que la explotación por parte de los delincuentes “ofrezca un panorama sombrío” en los próximos años.
El hecho de que la última versión del transformador de OpenAI, GPT-4, comprenda mejor el contexto del código y corrija los errores, significa que “se trata de un recurso inestimable” para los delincuentes con escasos conocimientos técnicos.
Europol advierte de que la tecnología de la IA, cada vez más avanzada, puede llegar a ser “mucho más peligrosa”.
Los deepfakes ya tienen consecuencias en el mundo real
Los casos de uso de ChatGPT sobre los que advirtió Europol son sólo un área de la IA que podría ser explotada por los delincuentes.
Ya se han dado casos de falsificaciones profundas de IA utilizadas para estafar y perjudicar a personas. En un caso, una mujer dijo que tenía sólo 18 años cuando descubrió que circulaban por Internet fotos pornográficas suyas, a pesar de que nunca las había tomado ni compartido.
Su rostro había sido añadido digitalmente a imágenes del cuerpo de otra persona. La víctima dijo a Euronews Next que era “una sentencia de por vida”. Un informe de Deeptrace Labs de 2019 descubrió que el 96% del contenido deepfake en línea es pornografía no consentida.
Otro caso vio cómo se utilizaba IA para imitar el sonido de la voz de alguien para estafar a su familiar, utilizando una técnica de deepfake de audio.
Europol concluye su informe afirmando que es importante que las fuerzas de seguridad “se mantengan a la vanguardia de estos avances” y se anticipen y prevengan el uso delictivo de la IA.