El problema con la influencia de Facebook y sus burbujas de información

0
334
Foto: ERIC RISBERG -ASSOCIATED PRESS

Los simpatizantes de Donald Trump probablemente se alegraron mucho en septiembre cuando el candidato recibió el respaldo del papa Francisco, según un artículo que se compartió cerca de un millón de veces en Facebook. Las opiniones negativas de estos sobre Hillary Clinton tal vez se acrecentaron después de leer un artículo del Denver Guardian, que también se difundió ampliamente en Facebook, en el cual se señalaba que días antes de la elección se había encontrado muerto, en un aparente homicidio-suicidio, a un agente del FBI sospechoso de haber filtrado los correos electrónicos de Clinton.

Pero hay un problema con estos artículos: son completamente falsos.

El papa nunca respaldó a nadie. El Denver Guardian no existe. Sin embargo, gracias a Facebook, es probable que millones de personas hayan leído ambos artículos. A pesar de que también circularon correcciones en la red social, en comparación con el alcance de las mentiras originales aquellas apenas fueron registradas.

Esto no es una anomalía: el año pasado me encontré con miles de estas historias falsas en las redes sociales, así como lo hicieron los votantes estadounidenses, 44 por ciento de los cuales utiliza Facebook para obtener noticias.

Mark Zuckerberg, el director y creador de Facebook, dice que es “una idea muy descabellada” que “las noticias falsas que se encuentran en Facebook -las cuales representan una cantidad muy pequeña de contenido- hayan influido de algún modo en las elecciones”. Si Zuckerberg cree ciegamente que su empresa tiene poco efecto en cómo decide la gente, está haciendo un daño a la democracia estadounidense y al mundo.

También está contradiciendo las propias investigaciones de Facebook.

En 2010, unos investigadores que trabajaban con Facebook llevaron a cabo un experimento con 61 millones de usuarios en Estados Unidos, justo antes de las elecciones para el congreso y gobernadores. A un grupo se le mostraba un mensaje dentro de una caja que solo decía “ve a votar”, mientras que otro grupo vio el mismo mensaje con una pequeña incorporación: fotos miniatura de sus amigos de Facebook que habían dado clic en “yo voté”. Los investigadores concluyeron que la segunda publicación había ayudado a que cientos de miles de personas salieran a votar; lo comprobaron usando el padrón para comparar los grupos después de las elecciones.

En 2012, los investigadores de Facebook alteraron en secreto el suministro de noticias para realizar un experimento: mostraron publicaciones positivas a algunas personas, mientras que a otras les mostraron negativas. Los que vieron publicaciones más optimistas difundieron a su vez significativamente más del mismo tipo; los que vieron publicaciones pesimistas respondieron de la misma manera, pero con este tipo de publicaciones. Las investigaciones que se han llevado a cabo durante décadas coinciden en que la gente recibe la influencia de sus pares y las redes sociales.

Si se toma en cuenta todo lo anterior, se vuelve absurda la declaración de Zuckerberg al respecto de que Facebook, un gran conducto de información en nuestra sociedad, “no influye”.

El problema con la influencia de Facebook en el discurso político no se limita a la diseminación de noticias falsas. También tiene que ver con las cámaras de resonancia. El algoritmo de la empresa escoge cuáles actualizaciones aparecen en la parte superior del servicio de noticias del usuario y cuáles no lo hacen. Los humanos tendemos a agruparnos con gente que piensa como nosotros y buscamos noticias que confirmen nuestras inclinaciones. La investigación de Facebook muestra que el algoritmo de la empresa fomenta esto priorizando de algún modo las actualizaciones que los usuarios encuentran reconfortantes.

He sido testigo de esto. Aunque muchos de mis amigos de Facebook en Estados Unidos se inclinan hacia los demócratas, sí tengo amigos que votaron por Trump. Sin embargo, tuve que irme de cacería para ver sus publicaciones porque el algoritmo de Facebook nunca me las enseñaba; por la razón que sea, el algoritmo supuso de manera errónea que no me interesaban sus opiniones.

El contenido que se dirige hacia estas burbujas alimentadas de algoritmos es provechoso financieramente. Por eso YouTube tiene una característica similar en la que recomienda videos con base en lo que ya vio el visitante.

Según un reportaje de BuzzFeed News, un grupo de jóvenes en un pueblo de Macedonia operan más de cien sitios web a favor de Trump llenos de noticias falsas. Por ejemplo, el artículo que inventaron, en el cual citan que fuentes anónimas del FBI señalan que Clinton debiera ser procesada, se compartió más de 140.000 veces en Facebook y probablemente lo vieron millones de personas, ya que cada vez que algo se comparte lo ven potencialmente cientos de usuarios. Aun si cada vista generara solo una fracción de centavo, sigue siendo mucho dinero.

Por supuesto, las noticias falsas por sí solas no explican el resultado de las elecciones. La gente vota como vota por varias razones, pero su dieta informativa es crucial.

Después de las elecciones, Zuckerberg señaló que las noticias falsas eran un problema para “los dos lados” de la contienda. Evidentemente, hay memes virales falsos en contra de Trump, pero los reporteros han encontrado que la difusión de noticias falsas es mucho más común por parte de la derecha que de la izquierda.

Los jóvenes macedonios también se toparon con lo mismo. Habían experimentado con contenido con inclinación hacia la izquierda o a favor de Bernie Sanders, pero se dieron por vencidos cuando se percataron de que no era una fuente tan confiable de ingresos como el contenido a favor de Trump. Sin embargo, incluso si Zuckerberg tuviera razón y las noticias falsas fueran igualmente populares en ambos bandos, aún seguiría siendo un problema.

Solamente Facebook tiene los datos que podrían revelar cómo se difunden noticias falsas, qué tantas hay, quién crea este contenido, quién lo lee y cuánto puede influir. Por desgracia, Facebook ejerce un control total sobre el acceso a estos datos por parte de investigadores independientes. Es como si las tabacaleras controlaran el acceso a todos los registros médicos y de hospitales.

No son problemas sencillos de resolver, pero Facebook podría hacer mucho más. Cuando la empresa decidió que quería reducir el spam, estableció una política que limitaba su difusión. Si Facebook pusiera el mismo tipo de atención en las noticias falsas, también podría minimizar su propagación.

Hace poco, la empresa despidió a los editores responsables de erradicar las noticias falsas de su sección de tendencias (de por sí tenían pocos). Por lo tanto, no es una sorpresa que desde entonces esta sección se haya inundado de aun más artículos espurios.

En junio pasado, justo cuando se estaba poniendo en marcha la temporada de elecciones en Estados Unidos, Facebook modificó su algoritmo para restar importancia a las publicaciones de medios de noticias para aumentar las actualizaciones que compartían amigos y familiares. La explicación razonable es que eso es lo que la gente quiere ver. ¿Esto quiere decir que se difunden notas menos serias a mayor velocidad por las redes sociales mientras decae el verdadero periodismo? Solo Facebook lo sabe. Peor aún, Facebook no señala ni marca los sitios creíbles de noticias: el artículo del Denver Guardian, un periódico que ni siquiera existe, tiene el mismo formato en la plataforma que tendría uno del The Denver Post, un periódico real.

Además de hacer un esfuerzo por erradicar mentiras y propaganda, Facebook podría alterar su algoritmo para que se refuercen menos las creencias de los usuarios y para presentar más información basada en hechos. Esto podría ser complicado, pero tal vez los multimillonarios de Silicon Valley que ayudaron a crear este problema podrían hacerse responsables antes de disponerse a colonizar Marte.

Facebook también debería permitir que investigadores independientes colaboraran con su equipo de datos para entender y mitigar estos problemas. Un servicio de noticias más balanceado podría llevar a que la gente se “enganche” menos, pero Facebook, sin un competidor a la vista y con una capitalización bursátil de más de 300 mil millones de dólares, se lo puede permitir.

Los riesgos de la configuración actual de Facebook no se limitan a Estados Unidos. Los efectos pueden ser incluso más catastróficos en países con menos pesos y contrapesos, y que tienen instituciones y medios independientes más débiles. En Birmania, por ejemplo, la desinformación en Facebook supuestamente ayudó a detonar una limpieza étnica, la cual creó una enorme crisis de refugiados.

Facebook podría argumentar que es neutral, pero esta es una postura falsa y peligrosa. El modelo de negocio, los algoritmos y las políticas de la empresa afianzan cámaras de resonancia y generan que se difunda la desinformación.

Si se tiene esta postura, no se es neutral; se amplifican las corrientes peligrosas que están enturbiando el mundo.

 

Zeynep Tufekci es profesora adjunta de la Escuela de Ciencias de la Información y Biblioteconomía de la Universidad de Carolina del Norte, y colaboradora como columnista de opinión.