La caja de Pandora que destapó el cándido botón me gusta de Facebook

0
354

Leah Pearlman dibuja cómics sobre ideas como “alfabetización emocional” y “amor propio” . Cuando comenzó a publicarlos en Facebook, la respuesta fue muy alentadora.

Pero luego Facebook modificó su algoritmo, lo que llevó a que sus caricaturas le llegaran a menos personas, y ella recibiera considerablemente menos “me gusta”.

“Sentí que no estaba recibiendo suficiente oxígeno”, le dijo a Vice.com.

Es fácil empatizar. La aprobación social puede ser adictiva, y el “me gusta” de Facebook es la aprobación social en su forma más pura.

Ironías de la vida

Los expertos comparan nuestros teléfonos inteligentes con máquinas tragamonedas, pues desencadenan las mismas vías de recompensa en nuestro cerebro.

La profesora Natasha Dow Schull sostiene que las máquinas tragamonedas son adictivas “por diseño” pues los casinos quieren mantener a las personas frente a sus pantallas, mirando las luces bonitas y recibiendo esas dosis de dopamina… y perdiendo dinero.

Las empresas de medios sociales no han pasado eso por alto.

Los “me gusta”, las nuevas notificaciones, incluso los anticuados correos electrónicos hacen que nunca sepamos qué nos espera cuando levantemos nuestro teléfono y tiremos de la palanca.

Ante la repentina caída de “me gusta”, Leah confiesa avergonzada que comenzó a comprar anuncios en Facebook “solo para recuperar esa atención”.

La ironía es que antes de ser dibujante de cómics, Leah era desarrolladora de Facebook, y en julio de 2007, su equipo inventó el botón “me gusta”.

Ese botón

El concepto ahora es ubicuo en toda la web, desde Facebook a YouTube y Twitter.

El beneficio para las plataformas es obvio. Un solo clic es la forma más sencilla de lograr que los usuarios se involucren, mucho más fácil que escribir un comentario.

Pero tomó un tiempo refinar la idea.

Como recuerda Leah Pearlman, no fue tan fácil convencer al fundador de Facebook, Mark Zuckerberg.

Finalmente, en febrero de 2009, el botón Me gusta‘ se hizo público.

“Las estadísticas aumentaron tan rápido. 50 comentarios se convirtieron en 150 “me gusta”, casi de inmediato”, recuerda Pearlman.

“La gente comenzó a hacer más actualizaciones, por lo que había mucho más contenido, y todo sencillamente funcionó”.

Entre tanto…

En la Universidad de Cambridge, Michal Kosinski estaba haciendo un doctorado en psicometría, el estudio de medición de perfiles psicológicos.

Su compañero de estudios Aleksandr Kogan había escrito una aplicación de Facebook para probar los “cinco grandes” rasgos de personalidad: apertura, conciencia, extroversión, amabilidad y neurosis.

Quien hacía el test le daba permiso a los investigadores para acceder a su perfil de Facebook, con su edad, sexo, orientación sexual, etc.

El test se hizo viral.

El conjunto de datos aumentó a millones de personas, y los investigadores pudieron ver todo lo que les había “gustado”, así como sus datos públicos.

Kosinski, ahora profesor de comportamiento organizacional en la Universidad de Stanford, se dio cuenta de que tenía en sus manos un tesoro de ideas potenciales.

Entre más “me gusta” veía, más acertadas eran las suposiciones que podía hacer sobre la orientación sexual, la afiliación religiosa, las inclinaciones políticas y más de las personas.

Llegó a la conclusión de que si le habías dado “me gusta” a 70 cosas, te conocería mejor que tus amigos. Después de 300 “me gusta”, él te conocería mejor que tu pareja.

La ventana al alma

Desde entonces, Facebook ha restringido los datos que se comparten con los desarrolladores de aplicaciones.

Pero hay una organización aún puede ver todos tus “me gusta” y más: el propio Facebook.

Y puede permitirse emplear a los desarrolladores de aprendizaje automático más brillantes del mundo para extraer conclusiones.

¿Qué puede hacer Facebook con esa ventana en tu alma? Dos cosas.

Primero, puede adaptar su suministro de noticias para que pases más tiempo en Facebook, ya sea para mostrarte videos de gatos, memes inspiradores, cosas sobre Donald Trump que te pueden agradar o indignar.

Eso no es lo ideal, pues sólo la exposición a diferentes opiniones permitetener una conversación sensata.

En segundo lugar, puede ayudarle a los anunciantes a enviarte lo más apropiado para ti: entre mejor funcionen los anuncios, más dinero gana.

¿Y por qué no?

Esa táctica con los anuncios no es nada nuevo.

Mucho antes de internet y las redes sociales, si ibas a abrir una nueva tienda de bicicletas, podías elegir anunciarlo en los diarios locales en lugar de los nacionales.

Por supuesto, eso no era tan eficiente. La mayoría de los lectores de esas gacetas probablemente no eran ciclistas, pero era lo mejor que podías hacer.

Se podría decir que Facebook simplemente mejoró ese proceso.

¿A quién le molesta que le muestren únicamente publicidad de productos que le interesan? Eso pregunta Facebook cuando defiende el concepto de publicidad “relevante” .

Pero hay otros usos posibles que podrían no gustarnos.

¿Como cuáles?

¿Qué tal ofrecer una casa en alquiler, pero no mostrarle ese anuncio a los afroamericanos?

Julia Angwin, Madeleine Varner y Ariana Tobin, del sitio web de investigación ProPublica, se preguntaron si eso funcionaría, y efectivamente funcionó.

Facebook dijo: “¡Ay, eso no debería haber ocurrido!”, y culpó a una “falla técnica”.

¿O qué tal ayudar a los anunciantes a llegar a las personas que han expresado interés en el tema de “odiar a los judíos”? El mismo equipo de ProPublica demostró que eso también era posible.

Facebook dijo: “¡Ay, eso no volverá a suceder!”.

¿Qué tal ayudarle a vendedores sin escrúpulos a tentar con sus productos a adolescentes emocionalmente vulnerables en momentos en que se sienten particularmente deprimidos?

En 2017, el diario The Australian australiano informó sobre un documento filtrado de Facebook aparentemente promocionando justamente esa capacidad.

Facebook dijo: “¡Ay, otro descuido!, insistiendo en que “no ofrece herramientas para dirigirse a las personas según su estado emocional”.

Esperemos que no, aunque Facebook admitió anteriormente que manipula los estados emocionales de las personas al elegir si mostrarles noticias tristes o alegres.

¿No tan poderoso?

Otra cosa que se puede hacer es pagar para difundir mensajes políticos que sean difíciles de contextualizar o verificar.

La firma Cambridge Analytica afirmó que había cambiado el curso las elecciones de 2016 a favor Donald Trump, en parte aprovechando el poder del botón “me gusta” para dirigirse a votantes individuales, horrorizando a Michal Kosinski, el investigador que fue el primero en señalar lo que podría ser posible.

Sin embargo, algunos expertos que han analizado Cambridge Analytica cuestionan cuán efectivo fue realmente.

Por más esfuerzos, los analistas informan que la tasa de clics en los anuncios de Facebook todavía promedia menos del 1%.

Tal vez deberíamos empezar por preocuparnos por la habilidad indudable de Facebook y otras redes de atraer poderosamente nuestra atención, haciendo que nos quedemos pegados a nuestras pantallas.

¿Cómo debemos manejar nuestras compulsiones en las redes sociales?

Podríamos cultivar la alfabetización emocional sobre cómo nos afecta el algoritmo.

Y si sientes que la aprobación social es tan vital como el oxígeno, tal vez lo que necesitas es más amor propio.

 

 

 

 

EtiquetasFacebook