YouTube ignoró las denuncias internas de contenidos problemáticos y se negó a dejar de recomendarlos

Alejo I
Decir que YouTube no es extraña a la polémica no deja de ser un truismo de diccionario. Durante los últimos meses la plataforma de vídeo de Google ha concentrado toda suerte de críticas por motivos como la difusión de contenidos de corte pedófilo, un hasta hace poco oscuro sistema de advertencias por infracciones y el aparente desinterés en la publicación de vídeos con comportamientos peligrosos.

Lo cierto es que YouTube no puede controlar de forma instantánea la legalidad de todos los vídeos subidos por sus millones de usuarios, pero aquellos contrarios a las normas de la página son por lo general retirados. Los problemas aparecen en esa línea que separa lo admisible de lo que no es, y durante los últimos años se han acrecentado con la adopción de unas políticas más próximas a pasar la pelota que a tomar soluciones efectivas. Según Bloomberg, esta actitud de mirar hacia otro lado fue cultivada dentro de la propia compañía durante una etapa en la que se priorizó el crecimiento por encima de lo demás.

YouTube se negó a dejar de incluir contenido extremo en las listas de recomendaciones

De acuerdo con múltiples fuentes consultadas por la agencia de noticias, que ha entrevistado a más de 20 empleados de YouTube antiguos y actuales, la dirección de la empresa evitó de forma continua tomar medidas contra canales con contenidos "extremos", que divulgaban teorías conspirativas o que difundían vídeos antivacunas. Los desarrolladores con los que ha podido hablar Bloomberg trataron de reducir la visibilidad de estos vídeos sin llegar a eliminarlos, puesto que no vulneraban las normas, pero sus propuestas fueron rechazadas sistemáticamente.

De forma más concreta, varias personas se percataron de la aparición de vídeos con una gran popularidad promoviendo posturas antivacunas o conspiraciones en las que víctimas de un tiroteo eran calificadas como "actores de crisis". Estos contenidos no estaban siendo descubiertos únicamente a través de búsquedas, sino que eran promovidos de forma activa por YouTube a través de sus algoritmos de recomendación. Los desarrolladores argumentaron que sería posible eliminar ese tipo de contenidos de las columnas de vídeos recomendados, pero siempre recibieron negativas a implementar cualquier medida que pudiera reducir su visibilidad.

Igual de notable resulta el hecho de que YouTube utilizó técnicas disuasorias para evitar la denuncia interna de este tipo de canales. Abogados de la compañía "aconsejaron" a los empleados que no estaban asignados a los equipos de moderación que debían evitar buscar contenidos de tipo cuestionable por cuenta propia. Aunque no llegó a ser una directiva formal, esta práctica tenía un fin muy concreto según un antiguo ejecutivo: reducir la responsabilidad de YouTube en caso de acciones legales al poder argumentar que desconocían la existencia de dichos vídeos.

Menos de 20 empleados en el antiguo equipo de Confianza y Seguridad

Por otro lado, la correcta aplicación de las propias políticas de YouTube era hasta hace poco un simple espejismo. Hacia finales de 2017, el equipo de Confianza y Seguridad de YouTube, responsable de supervisar la correcta aplicación de las normas, tenía una plantilla de menos de 20 personas que debían "luchar con uñas y dientes" para conseguir más recursos. De acuerdo con YouTube, este equipo ha crecido "significativamente" desde entonces.

Como con los consejos del departamento legal a los empleados ajenos al equipo de Confianza y Seguridad, YouTube nunca dejó constancia explícita de que esta ausencia de respuesta al crecimiento de vídeos y canales con contenido extremo se debiera su interés en la popularidad de este tipo de contenidos. En cualquier caso, aseguran los entrevistados, YouTube solo tenía un objetivo, y ese era alcanzar los 1.000 millones de horas de reproducción diarias.

Un empleado anónimo que trabajó directamente para Susan Wojcicki aporta algo más de contexto al afirmar que la máxima responsable de YouTube nunca quiso perder el tiempo con ese tipo de dilemas. "Mi trabajo es dirigir la compañía, no ocuparme de esto". Desde YouTube se asegura que Wojcicki nunca se ha desentendido del asunto, y que desde 2017 la plataforma recomienda vídeos siguiendo un parámetro llamado "responsabilidad", en el que se observa información como las encuestas de satisfacción realizadas al finalizar el visionado de un vídeo.
Fuente: Bloomberg