La aparición de los primeros sistemas de generación de vídeo por IA capaces de proporcionar resultados verosímiles va a provocar verdaderos quebraderos de cabeza tantos para redes sociales como para plataformas de vídeo. Meta tiene ahora mismo un problema realmente serio con este tipo de contenidos, y antes de que llegue a ese punto, YouTube ha modificado sus normas para facilitar la retirada de vídeos que muestren rostros o voces imitados mediante IA.
El mecanismo concreto no
comporta el borrado por razones de fraude o desinformación, sino que
YouTube lo trata como si fuera una violación de la privacidad. El
proceso para solicitar la eliminación de estos vídeos deberá ser
iniciado por la persona afectada, aunque como señala TechCrunch,
YouTube ha dispuesto una serie de excepciones para cubrir los vídeos
falsamente protagonizados por menores, personas sin acceso a un
ordenador y fallecidos.
En cualquiera de los casos, el borrado de
los vídeos con imitaciones de personas generadas mediante IA no será
automático. YouTube seguirá juzgando si el contenido está amparado por
cuestiones de libertad de expresión (creación de parodias) y su
relevancia o importancia para el público.
Una vez procesada la
infracción, YouTube dará un plazo de 48 horas a la cuenta que subió el
vídeo en cuestión para que tome las acciones pertinentes, que además de
la eliminación del vídeo pueden incluir borrar cualquier referencia al
nombre y la información personal de las personas representadas, tanto en
el título como en la descripción y las etiquetas. Configurar el vídeo
como Privado no bastará para cumplir las normas, que hace poco fueron
modificadas para que los usuarios del Creator Studio puedan notificar
cuándo insertan contenidos generados por IA en sus vídeos.
La decisión de YouTube se enmarca en una estrategia mucho más extensa.
Google también ha anunciado que los clientes de su plataforma
publicitaria tendrán que declarar cuándo un anuncio de propaganda
electoral utiliza contenidos alterados digitalmente con el fin de
"representar gente real o realista". Este tipo de anuncios serán
marcados de forma visible para evitar situaciones como las vividas
durante las pasadas elecciones de la India, donde deepfakes
protagonizados por actores de Bollywood criticaban las políticas del
primer ministro, Narendra Modi, y solicitaban el voto para un partido de
la oposición.
Fuentes:
No hay comentarios:
Publicar un comentario