¿Debe saber el lector si una noticia ha sido escrita con IA? El reto ético del periodismo moderno

The Conversation
0
215
ia y periodismo

¿Debe saber un lector de prensa que lo que está leyendo ha sido escrito con la ayuda de una inteligencia artificial (IA)? ¿Pueden garantizar los periodistas que un texto generado con esta tecnología no contenga sesgos machistas? Estos y otros dilemas éticos van a ser cada vez más frecuentes en las redacciones de los medios de comunicación, que necesitan innovar y, a la vez, mantener los principios periodísticos. De hecho, la dimensión ética de la irrupción de la IA es uno de los retos más importantes para los medios de comunicación debido a su compromiso social y su servicio a la democracia.

La IA está presente en cada vez más ámbitos de nuestras vidas, incluida la información que recibimos constantemente de los medios de comunicación. Muchos periodistas ya usan estas herramientas para todo tipo de tareas, entre ellas la de generar textos, imágenes y sonido.

Gracias a la conocida como IA generativa, los profesionales pueden redactar titulares, hacer resúmenes, traducir textos, transcribir entrevistas, buscar información para añadir contexto a las noticias que escriben, crear gráficos e imágenes, e incluso generar noticias de forma automatizada.

Códigos éticos

Conscientes de las implicaciones que puede tener la incorporación de la IA, algunos medios de comunicación han empezado a crear sus propios códigos éticos, una especie de guías con directrices para ayudar a los periodistas a hacer un uso responsable de ella. Sin embargo, aunque la mitad de las redacciones ya utilizan IA generativa, solo el 20 % tienen estos códigos, según una encuesta mundial.

En nuestro estudio, localizamos 40 de estos documentos que, además de contener pautas sobre cómo utilizar la IA periodística de una forma ética, son de acceso público para mantener la confianza de los usuarios. Pertenecen a un total de 84 medios de comunicación, agencias de noticias, revistas, grupos mediáticos y alianzas de medios procedentes de 15 países de Europa –entre ellos, España–, América y Asia.

¿Qué pueden aportar los académicos?

Los investigadores procedentes del ámbito académico pueden contribuir indirectamente a la implantación y al uso correcto de la IA en las redacciones. Prueba de ello es que un 90 % de los periodistas participantes en una encuesta mundial ve positivamente que las universidades tengan más protagonismo en este proceso. De ese modo, los medios de comunicación se beneficiarían de sus conocimientos, sus estudios, su colaboración y su visión crítica de esta tecnología.

No obstante, algunos trabajos muestran que las conexiones entre periodistas y académicos suelen ser pobres. De hecho, como recoge nuestro estudio, hay propuestas académicas para el uso ético de la IA periodística que los códigos existentes no contemplan, probablemente por falta de conocimiento.

Recogemos aquí una síntesis que fusiona las propuestas académicas y las directrices de los documentos profesionales examinados en el estudio, además de algunas pautas sobre cómo ponerlas en marcha.

  1. Seguir los principios de precisión y credibilidad. Verificar la exactitud y la credibilidad de la información que ofrece la IA; simplificar el proceso por el que el usuario puede informar al medio si detecta errores derivados del uso de IA.
  2. Mejorar la accesibilidad. Hacer las noticias adaptables a distintas plataformas, mejorar su legibilidad y comprobar que el estilo de los textos automatizados sea similar al resto.
  3. Ofrecer contenidos relevantes. Usar la IA no solo para encontrar temas populares y tendencias, sino para que la información que se publica tenga significado para la vida de las personas; los servicios de personalización y recomendación de contenidos mediante IA no deben ir en detrimento del interés público.
  4. Promover la diversidad. Mostrar diversidad social, de perspectivas y de puntos de vista; evitar los estereotipos y los sesgos.
  5. Garantizar la transparencia. Indicar cuándo se ha usado un algoritmo para crear una pieza periodística y hacer saber al usuario si está interactuando con un humano o con una IA.
  6. Hacer una gestión responsable de datos y de privacidad. Los proveedores de datos deben tener el derecho legal a enviarlos a los periodistas, y estos a procesarlos y publicarlos; recoger solo los datos personales necesarios; anonimizar información irrelevante y garantizar un almacenamiento seguro de las bases de datos; evaluar si merece la pena ceder a terceros datos privados y potencialmente competitivos sobre la audiencia; el usuario de una IA conversacional debe poder decidir qué datos se recopilan, para qué se utilizan, de dónde proceden y cómo se comparten.
  7. Potenciar la presencia humana. Revisar regularmente el algoritmo para evitar que escriba información fuera de contexto; tener en cuenta las posibles implicaciones negativas que puede generar la delegación de la toma de decisiones editoriales en los algoritmos.
  8. Contar con equipos interdisciplinares. Tener equipos que combinen conocimientos técnicos y principios éticos, y que investiguen de qué manera puede la IA fomentar los principios que rigen el periodismo.

Estas ocho recomendaciones pueden ser de utilidad para los medios de comunicación que quieran crear sus propios códigos éticos o mejorar los que ya tienen.

Función social del periodismo

Mientras los medios y sus profesionales continúan dando pasos hacia la integración de herramientas de IA en la labor periodística, tendrán que ir enfrentándose a cada vez más dilemas éticos no siempre fáciles de resolver.

Tarde o temprano, todos se verán en la necesidad de tomar medidas para guiar a los periodistas en el uso responsable de la IA sin perder de vista la función social que ejerce el buen periodismo. Y en esta tarea, los investigadores tienen mucho que aportar.

 

Este artículo fue publicado originalmente por The Conversation.

"Estudio y practico la tecnología para odiarla mejor"

Nan June Paik (artista e investigador)
Si quieres apoyar nuestro periodismo aporta aquí
Qr dat0s