Conflicto palestino israelí: primera prueba “de fuego” de Twitter en la era Musk

France 24
0
895
Elon Musk y X información, desinformación

La red social X -antes Twitter- ha sido testigo de un aumento de la desinformación que circula desde el inicio del ataque de Hamás a Israel. Esto suele ocurrir en todas las redes sociales durante crisis graves, como las guerras. Pero en este caso, ha sido la prueba de fuego de la plataforma bajo la dirección de Elon Musk. Y para los expertos, la valoración inicial no es nada buena.

Se han difundido imágenes escalofriantes de niños en jaulas, documentos que prueban que Estados Unidos aprobó una ayuda de 8.000 millones de dólares aIsrael y vídeos que sugieren que las atrocidades cometidas contra la población civil desde el inicio del asalto de Hamás a Israel fueron montadas por el Estado hebreo.

Todas estas noticias falsas se han difundido hasta más no poder en X (conocida anteriormente como Twitter) desde el sábado 7 de octubre y han estado en el ojo de los Observadores de France 24  y otros medios de verificación de datos.

Thierry Breton vs Elon Musk

Para la Unión Europea, ya es demasiado. En una carta abierta, Thierry Breton, comisario europeo de Agenda Digital, ha dado a Elon Musk, el jefe de X, 24 horas para que limpie los contenidos de su plataforma. De lo contrario, la Comisión Europea se reserva el derecho de imponer una sanción equivalente al 6% de las ganancias de la red social por incumplir la normativa europea sobre servicios digitales.

El asalto de Hamás a Israel ha sido “una auténtica prueba de resistencia para las plataformas digitales y sus políticas de moderación de contenidos”, afirmó Hamza Mudassir, cofundador de la consultora británica Platypodes y profesor de Estrategia Empresarial en la Universidad de Cambridge.

La violencia de los últimos días ha provocado un sinfín de reacciones en las redes sociales. Sólo en X se han publicado más de 50 millones de mensajes sobre el conflicto desde el sábado. Esta explosión de contenidos ha estado acompañada por un aumento de las “fake news” (noticias falsas) y de los mensajes propagandísticos, según los sitios de verificación de noticias de todo el mundo.

Todas las redes sociales, desde TikTok hasta Instagram, se han visto afectadas, pero X en particular. Thierry Breton no escogió cómo objetivo a Elon Musk por casualidad. “Está claro que él es parte del problema”, afirmó Sander van der Linden, profesor de psicología social en la Universidad de Cambridge y especialista en desinformación en redes sociales.

Elon Musk como “parte del problema”

“Este es el verdadero bautismo de fuego de X imaginado por Elon Musk, ya que es la primera gran crisis internacional que se produce mientras él ya está en el cargo. La guerra en Ucrania comenzó antes de que comprara el sitio (en abril de 2022)”, explicó Jon Roozenbeek, especialista en desinformación de la Universidad de Cambridge.

Las primeras impresiones no son favorables para X. Es cierto que “el antiguo Twitter también se habría visto desbordado por esta avalancha de información falsa, pero probablemente no tanto como lo que está ocurriendo ahora”, añadió Van der Linden.

En primer lugar, porque Elon Musk “es claramente parte del problema”, aseguró. “Personalmente, no parece muy interesado en una mejor moderación de los contenidos”, afirmó Jon Roozenbeek. Su respuesta a Thierry Breton dice mucho de su posicionamiento: “¿Podría enumerar las violaciones (de las normas europeas) a las que se refiere para que todo el mundo las vea?”, preguntó en X.

Esto es o bien una indicación de que no es consciente de que hay algo que no funciona en el mundo de X, o “una forma de alargar las discusiones”, sostuvo Roozenbeek.

Elon Musk incluso ha sido sorprendido promocionando cuentas de Twitter conocidas por difundir información falsa. El 7 de octubre, invitó a la gente a seguir @WarMonitors y @sentdefender para “seguir la guerra en tiempo real”. El problema es que esas dos cuentas ya habían estado “entre los principales difusores de información falsa sobre una explosión cerca de la Casa Blanca (que nunca tuvo lugar)”, como señaló el ‘Washington Post‘. También se acusó a War Monitors de publicar mensajes antisemitas.

Incentivos para difundir rumores

Pero es sobre todo el desmantelamiento de las protecciones instauradas antes de la era Musk lo que preocupa a los expertos. “El principal problema se deriva de la nueva política de certificación, que permite a cualquiera tener el pequeño emblema azul de una cuenta certificada siempre que pague una cuota de suscripción mensual. Como resultado, se ha vuelto mucho más difícil saber en quién confiar en Twitter”, concluyó Roozenbeek.

“La decisión de Elon Musk de restaurar a los ‘superpropagadores’ de información falsa también contribuye a la viralidad de ciertos contenidos problemáticos, porque sabemos que basta con unas pocas cuentas muy influyentes para marcar la diferencia”, añadió Sander van der Linden.

Sin olvidar la nueva política de remuneración de los creadores de contenidos. “Se les paga en función del número de veces que se ve uno de sus mensajes. Como resultado, se verán tentados a retuitear los mensajes más virales -a menudo con el contenido más incendiario- sin comprobar necesariamente si se trata o no de desinformación”, aseguró Van der Linden.

Este conflicto también está empezando a mostrar el efecto de los drásticos recortes efectuados en los equipos de moderación de contenidos. Por ejemplo, en los vídeos falsos de enfrentamientos se utilizaron imágenes tomadas del juego de simulación bélica Arma 3. “Esto no habría ocurrido en los viejos tiempos de Twitter, porque los equipos de moderación tenían herramientas para aprender de sus errores, y el mismo tipo de vídeos falsos, utilizando extractos del mismo juego, se utilizaron durante el conflicto de Ucrania”, explicó Van der Linden.

En vez de las antiguas normas de moderación, Elon Musk confía sobre todo en la vigilancia de la comunidad. “Ha introducido notas de la comunidad, que permiten a los usuarios añadir contexto o señalar contenidos engañosos. Es un sistema que funciona bastante bien”, afirmó Hamza Mudassir. Los expertos en desinformación entrevistados reconocen la utilidad de este mecanismo, pero “significa que la responsabilidad de rastrear la información recae al 100% en la comunidad”, señaló Roozenbeek.

Consecuencias en el mundo real

Así pues, es probable que la explosión de violencia en Medio Oriente deje al descubierto “los agujeros del blindaje anti-desinformación de Twitter y sus consecuencias”, afirmó Hamza Mudassir. Y no se trata sólo de malas noticias para las decisiones de Elon Musk. La difusión de información falsa en las redes sociales “puede tener consecuencias muy reales”, subrayó Van der Linden.

Por ejemplo, “los rumores difundidos (previamente) en las redes sociales han provocado actos de violencia en la India”, añadió este experto. En 2018, la cadena británica BBC enumeró toda una serie de trágicas consecuencias en todo el mundo tras la difusión de noticias falsas.

El problema es que “es difícil exigir al jefe de una empresa privada que tiene que ahorrar que gaste más en un área que no tiene por qué repercutir en la rentabilidad de Twitter”, explicó Hamza Mudassir.

A menos que X tenga que pagar el precio del bombardeo de desinformación. “No hay que olvidar que Elon Musk promocionó su Twitter como la red que hay que consultar para estar informado antes que el resto”, señaló Mudassir. Pero si esta información es falsa, ¿qué sentido tiene? ¿Es suficiente para ahuyentar a quienes, incluso antes del recrudecimiento de la violencia en Medio Oriente sentían que las promesas de Elon Musk sonaban huecas ante el creciente poder de la desinformación en X?

Pero son especialmente los anunciantes quienes probablemente no vean con buenos ojos la forma en que los desinformadores utilizan X. “No se me ocurre ningún anunciante que quiera que su publicidad aparezca bajo un mensaje de propaganda de Hamás, por ejemplo”, concluyó Mudassir.