Zero Harm in Comms, así se llama el proyecto de investigación, empezará creando una base de datos que recogerá datos anónimos de los juegos para entrenar a las herramientas de moderación preventivas basadas en inteligencias artificiales encargadas de detectar y reducir los comportamientos tóxicos. Un representante de Ubisoft asegura a The Verge que la privacidad es fundamental, y sostiene que detendrán el proyecto si no pueden sacarlo adelante sin tener que guardar datos que contengan información de identificación personal.
Riot Games tiene juegos muy populares como League of Legends y Valorant, mientras que Ubisoft cuenta con varios títulos competitivos como Rainbow Six. En consecuencia, la base de datos resultante de esta colaboración “incluirá a un amplio abanico de jugadores y casos de estudio con los que entrenar más eficazmente los sistemas de IA encargados de detectar y evitar los comportamientos inadecuados”. La idea de Riot Games y Ubisoft es utilizar el procesamiento de lenguajes naturales para que la IA comprenda el significado de una oración teniendo en cuenta el contexto de la discusión y pueda actuar en consecuencia.
Si todo va según lo planeado, los jugadores verán menos comportamientos tóxicos, lo que debería conducir a una experiencia más positiva, inclusiva y divertida. Todo ello gracias a una IA que aprenderá a hacer su trabajo analizando los datos de los propios jugadores y actuará de forma automática.
“El proyecto de investigación Zero Harm in Comms es el primer paso hacia un ambicioso proyecto que afectará a diversas industrias y beneficiará a la comunidad de jugadores al completo. Tanto Riot como Ubisoft se han comprometido a crear estructuras del mundo de los videojuegos que fomenten experiencias sociales más satisfactorias y eviten las interacciones nocivas”, dicen ambas compañías. Riot Games y Ubisoft se han comprometido a compartir los resultados de este proyecto con toda la industria el próximo año.