Para empezar, se monitorizará el chat para vigilar la frecuencia con la que se producen situaciones que implican algún tipo de racismo, homofobia o se use cualquier ejemplo de lenguaje considerado ilegal según el Código de conducta por parte de usuarios individuales y se aplicarán vetos en una escala ascendente. Las sanciones variarán según la severidad de la infracción y podrán ser de 2 días, 7 días, 15 días y permanente.
Siguiendo con el chat, se implementará una función para que los jugadores puedan silenciar a otros jugadores individualmente en el juego y se pondrá en marcha un sistema automatizado que censurará el chat de texto del juego en función de una lista de filtrado. Esta segunda función sustituirá las palabras que se han identificado como ofensivas y avisará al jugador de que su lenguaje no es aceptable. En caso de que el filtro se active muchas veces se tomarán medidas.
También se buscará detener a los jugadores que intencionadamente eliminan a compañeros de su equipo. “El objetivo es identificar a quienes realicen esta acción de forma habitual en diferentes partidas y sesiones, y hayan escapado a nuestro sistema actual de detección de asesinato de equipo”, explican desde Ubisoft Montreal. “No podemos ofrecer muchos detalles sobre el nuevo método, porque la información podría aprovecharse de forma maliciosa”.
Según Ubisoft estos cambios a corto plazo “empezarán a tener como resultado una mejor detección de los comportamientos inadecuados”. Sin embargo, el estudio no se detendrá aquí. “Nos tomamos muy en serio todas las cuestiones relacionadas con una posible experiencia negativa del usuario, y compartiremos con vosotros los cambios futuros, antes de implementarlos”, afirma el equipo de desarrollo que también busca recibir el feedback de los jugadores.
Investigando nuevas vías más allá de las convencionales para detener a los jugadores tóxicos se encuentra Blizzard. Recientemente Jeff Kaplan, director de Overwatch, ha revelado que exploran la posibilidad de recurrir aprendizaje de máquinas para que sean los propios juegos quienes detecten a los jugadores tóxicos. En este caso el objetivo sería actuar sin que el usuario afectado por un mal comportamiento informe sobre ello.