Padres, profesores y muchísimos políticos desaprueban el contenido que YouTube le ofrece a sus miles de millones de usuarios todos los días. ¿Sabes quién más lo desaprueba, según un estudio publicado en julio? El mismo YouTube.

Un informe de colaboración colectiva de la Fundación Mozilla catalogó el contenido de la plataforma que los usuarios voluntarios consideraron “lamentable”. ¿Conclusiones? 71% de los videos marcados como negativos fueron recomendados a los usuarios por el sistema algorítmico de la plataforma, y algunos de esos videos violaron las propias políticas de YouTube o estuvieron a punto de hacerlo. En algunas oportunidades, el material problemático ni siquiera tenía relación con los videos anteriores que estaba viendo el usuario. Es una preocupación reiterativa entre las anécdotas de los espectadores que siguieron estas recomendaciones hasta lo más profundo de la llamada “madriguera de conejo” de la radicalización de YouTube.

Debido a que 70% de todas las visualizaciones de videos en Youtube provienen de recomendaciones algorítmicas, esto es importante. Debido a que a diario se ven aproximadamente 700 millones de horas de video en Youtube, esto es muy importante.

YouTube, como era de esperar, está en desacuerdo con estos hallazgos. Un segundo estudio publicado en agosto analizó las tendencias de audiencia y no encontró evidencias de que las recomendaciones estuvieran llevando a los usuarios hacia contenidos más radicales. En cambio, la gente parecía en su mayoría encontrar su camino hacia los videos de extrema derecha a través de sitios web de extrema derecha que ya frecuentaban. Además, el término “lamentable”, en el cual se basa el estudio, es confuso: el arrepentimiento de una persona es el interés particular de otra, y aunque los investigadores se centraron en señalar videos de desinformación, racismo y hasta una parodia sexualizada de Toy Story, YouTube alegó que el material marcado también incluía videos tan inocuos como manualidades de bricolaje y tutoriales de alfarería. YouTube también argumentó que las determinaciones del informe sobre las violaciones de las normas se basan solo en la interpretación de las reglas por parte de los investigadores , y no en la de la compañía.

Entonces, ¿quién tiene la razón? La incapacidad de responder esa pregunta es el meollo del problema. YouTube se jacta de que sus estrategias para reducir las recomendaciones de “contenido límite” han dado como resultado una disminución de 70% en el tiempo de reproducción de esos videos que bordean las condiciones de servicio. Es un reconocimiento implícito de que los incentivos de participación del algoritmo de recomendaciones están en conflicto con los incentivos de seguridad del algoritmo de moderación de contenido que busca erradicar el material nocivo antes de que los usuarios lo vean. Sin embargo, no queda claro qué es considerado como “contenido límite” para el público en general, así como para esos investigadores que decidieron entonces, para consternación de la plataforma, suponerlo. La falta de transparencia en torno a lo que el algoritmo sí recomienda, a quién se lo recomienda y por qué, también se traduce en que sondeos como los de este informe sean una de las pocas maneras de intentar comprender el funcionamiento de una poderosa herramienta de influencia.

Los legisladores estadounidenses ya están considerando establecer regulaciones para lograr que las plataformas abran las “cajas negras” de sus algoritmos para el escrutinio externo, o al menos para proporcionar conjuntos de datos agregados sobre los resultados que producen esos algoritmos. Sin embargo, estos estudios recientes revelan una verdad fundamental: son los mismos usuarios quienes merecen comprender mejor cómo las plataformas curan sus bibliotecas personales de información, y merecen un mayor control para hacer sus propias curadurías.