YouTube permite solicitar el borrado de vídeos generados mediante IA que simulen el rostro o voz de personas reales

Alejo I
La aparición de los primeros sistemas de generación de vídeo por IA capaces de proporcionar resultados verosímiles va a provocar verdaderos quebraderos de cabeza tantos para redes sociales como para plataformas de vídeo. Meta tiene ahora mismo un problema realmente serio con este tipo de contenidos, y antes de que llegue a ese punto, YouTube ha modificado sus normas para facilitar la retirada de vídeos que muestren rostros o voces imitados mediante IA.

El mecanismo concreto no comporta el borrado por razones de fraude o desinformación, sino que YouTube lo trata como si fuera una violación de la privacidad. El proceso para solicitar la eliminación de estos vídeos deberá ser iniciado por la persona afectada, aunque como señala TechCrunch, YouTube ha dispuesto una serie de excepciones para cubrir los vídeos falsamente protagonizados por menores, personas sin acceso a un ordenador y fallecidos.

En cualquiera de los casos, el borrado de los vídeos con imitaciones de personas generadas mediante IA no será automático. YouTube seguirá juzgando si el contenido está amparado por cuestiones de libertad de expresión (creación de parodias) y su relevancia o importancia para el público.

Una vez procesada la infracción, YouTube dará un plazo de 48 horas a la cuenta que subió el vídeo en cuestión para que tome las acciones pertinentes, que además de la eliminación del vídeo pueden incluir borrar cualquier referencia al nombre y la información personal de las personas representadas, tanto en el título como en la descripción y las etiquetas. Configurar el vídeo como Privado no bastará para cumplir las normas, que hace poco fueron modificadas para que los usuarios del Creator Studio puedan notificar cuándo insertan contenidos generados por IA en sus vídeos.

La decisión de YouTube se enmarca en una estrategia mucho más extensa. Google también ha anunciado que los clientes de su plataforma publicitaria tendrán que declarar cuándo un anuncio de propaganda electoral utiliza contenidos alterados digitalmente con el fin de "representar gente real o realista". Este tipo de anuncios serán marcados de forma visible para evitar situaciones como las vividas durante las pasadas elecciones de la India, donde deepfakes protagonizados por actores de Bollywood criticaban las políticas del primer ministro, Narendra Modi, y solicitaban el voto para un partido de la oposición.