Twitter canceló sus planes para competir con OnlyFans al constatar que tiene un problema de pornografía infantil

Alejo I
La penitencia de Twitter dista mucho de llegar a su fin. Tras ser acusada por su antiguo jefe de seguridad de prácticas negligentes y mentir sobre el número de bots, The Verge ha podido saber por boca de varios trabajadores, antiguos y presentes, que Twitter intentó monetizar el contenido para adultos disponible en la red social y solo piso el freno cuando un equipo interno alertó sobre la cantidad de pornografía infantil disponible.

El plan original de Twitter comenzó a fraguarse en abril de 2021, cuando varios ejecutivos vieron la posibilidad de hacerse con parte del negocio de OnlyFans mediante una iniciativa interna conocida como ACM, de Adult Content Monetization. La idea era que los creadores de contenido para adultos pudieran recibir dinero por parte de los usuarios de Twitter interesados, y lógicamente la empresa se llevaría su parte.

Como parte del proyecto, Twitter formó un equipo rojo con la misión de oponerse a dicho plan y resaltar cualquier posible problema que pudiera surgir. Los resultados fueron descorazonadores. La cantidad de material pedófilo y de abuso de menores en general disponible en Twitter era exagerado, las herramientas de detección de contenido abusivo eran inadecuadas y la compañía no podía permitir la venta de material para adultos porque carecía y carece de los medios para verificar la edad de los usuarios o implementar políticas coherentes.

A la vista de los resultados, Twitter decidió cancelar ACM.

Twitter es consciente del problema, pero no dedica los recursos para combatirlo

El problema, señala The Verge, es que Twitter ya era muy consciente de que esta clase de contenidos fluyen por la red social sin demasiada oposición. "Los ejecutivos están aparentemente bien informados sobre el asunto y la compañía está haciendo poco para remediarlo", señala el artículo en contraposición a las declaraciones oficiales de Twitter, que asegura que mantiene una política de tolerancia cero.

Concretamente, cinco meses antes de formar el equipo rojo, los mismos investigadores alertaron a Twitter de que las herramientas disponibles para identificar contenidos de explotación infantil eran antiguas, ineficientes e incapaces de detectar materiales ilegales a escala, requiriendo mucho trabajo manual y haciendo posible que vídeos denunciados permanecieran online durante casi un día. Pidieron más recursos y mejores herramientas al presentar sus datos, pero sus súplicas cayeron en oídos sordos.

Desarrollar las herramientas necesarias para detectar imágenes y vídeos de abuso de menores en Twitter hubiera requerido desviar recursos desde otras áreas para desarrollar sistemas como Real ID, pensado para que usuarios autorizados pudieran verificar su identidad usando documentación oficial que sería cruzada con bases de datos gubernamentales. Poco a poco estas y otras ideas fueron marchitándose hasta que en agosto el "equipo de salud" de Twitter recibió la orden de integrarse con el dedicado a buscar cuentas de spam para facilitar la compra por Elon Musk, solo para que este retirara su oferta y acusara a Twitter de mentir sobre el número de bots.

El artículo de The Verge se ha publicado casi al mismo tiempo que un estudio independiente en el que se señala que se está produciendo un auge en el contenido de autolesiones, que escapa sin demasiadas dificultades a los filtros de Twitter a pesar de utilizar en ocasiones etiquetas para que sus consumidores puedan encontrarlo más fácilmente.
Fuente: The Verge