El mecanismo concreto no comporta el borrado por razones de fraude o desinformación, sino que YouTube lo trata como si fuera una violación de la privacidad. El proceso para solicitar la eliminación de estos vídeos deberá ser iniciado por la persona afectada, aunque como señala TechCrunch, YouTube ha dispuesto una serie de excepciones para cubrir los vídeos falsamente protagonizados por menores, personas sin acceso a un ordenador y fallecidos.
En cualquiera de los casos, el borrado de los vídeos con imitaciones de personas generadas mediante IA no será automático. YouTube seguirá juzgando si el contenido está amparado por cuestiones de libertad de expresión (creación de parodias) y su relevancia o importancia para el público.
Una vez procesada la infracción, YouTube dará un plazo de 48 horas a la cuenta que subió el vídeo en cuestión para que tome las acciones pertinentes, que además de la eliminación del vídeo pueden incluir borrar cualquier referencia al nombre y la información personal de las personas representadas, tanto en el título como en la descripción y las etiquetas. Configurar el vídeo como Privado no bastará para cumplir las normas, que hace poco fueron modificadas para que los usuarios del Creator Studio puedan notificar cuándo insertan contenidos generados por IA en sus vídeos.
La decisión de YouTube se enmarca en una estrategia mucho más extensa. Google también ha anunciado que los clientes de su plataforma publicitaria tendrán que declarar cuándo un anuncio de propaganda electoral utiliza contenidos alterados digitalmente con el fin de "representar gente real o realista". Este tipo de anuncios serán marcados de forma visible para evitar situaciones como las vividas durante las pasadas elecciones de la India, donde deepfakes protagonizados por actores de Bollywood criticaban las políticas del primer ministro, Narendra Modi, y solicitaban el voto para un partido de la oposición.