Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon "Desnuda a cualquiera con nuestro servicio gratuito": el peligroso uso de la IA para crear imágenes pornográficas falsas


La tecnología deepfake representa un avance transformador en inteligencia artificial y manipulación digital, de esta manera, se pueden crear vídeos o imágenes falsas en menos de un minuto. En el caso de la pornografía, esta práctica vulnera la normativa de protección de datos.

 

 


La inteligencia artificial (IA) está cada vez más presente en nuestro día a día y, junto a ella, crecen las preocupaciones sobre las normativas que deben regular esta tecnología. Para aliviar las tensiones de los usuarios, la Unión Europea está a punto de hacer oficial la primera regulación que apuesta por clasificar los sistemas de IA en tres grandes niveles de prestaciones para, posteriormente, aplicar diversas restricciones según el alcance de cada uno de ellos; mientras tanto, España también podría cerrar el acuerdo sobre el reglamento europeo para regular la inteligencia artificial de cara un futuro.

A pesar de que hay muchas leyes en camino, algunas veces se incumplen dichos principios para hacer un mal uso de la IA con el fin de perjudicar a los usuarios. Un ejemplo de ello es el caso de las jóvenes de Almendralejo (Badajoz), unas menores que habían sido víctimas de la difusión de unas fotografías irreales creadas por una herramienta de inteligencia artificial en las que salían desnudas. Pero, ¿qué aplicaciones son capaces de hacer este delito? ClothOff y DeepNude son algunas de las apps que utilizan la IA para desnudar tanto a chicas como a chicos con una simple fotografía de cuerpo entero, además, a medida que la tecnología evoluciona, los algoritmos de aprendizaje profundo ya son capaces de crear vídeos pornográficos.

 

Al hilo de este último contenido multimedia mencionado, según el informe State of deepfakes 2023 de Home Security Heroes, se necesitan 25 minutos, una imagen del rostro de alguien y cero euros para crear un vídeo pornográfico deepfake de 60 segundos. Añadiendo que "la pornografía deepfake representa el 98% de todos los vídeos deepfake online" y que "una de cada tres herramientas permite a los usuarios crear este tipo de pornografía".

La pornografía deepfake vulnera los derechos 

Por si no lo sabías, este tipo de pornografía infringe dos derechos, la protección de datos o privacidad, y también la intimidad, honor y propia imagen. Es decir, "se vulnera la normativa de protección de datos porque existe una difusión de información que, aunque sea esencialmente falsa, se utilizan datos personales reales, como el rostro de una persona o a veces incluso la voz, y esto conlleva frecuentemente un tratamiento de datos personales sin consentimiento del afectado", explica Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Política de la Universitat Oberta Catalunya (UOC, por sus siglas) en blog oficial de la UOC.

Asimismo, es importante resaltar el impacto sobre los sujetos afectados. En particular, Blasi agrega que "estas imágenes conllevan a menudo un tratamiento de datos sensibles, ya que la información se encuentra relacionada con la vida íntima o sexual de una persona y, en función de la imagen generada mediante esta tecnología, se puede ocasionar también una lesión al derecho al honor, intimidad y/o propia imagen de la persona".

¿Quiénes son los más afectados por deepfakes pornográficos?

El informe mencionado señala que "el 99% de la pornografía deepfake presenta a mujeres como sujetos principales, mientras que solo el 1% del contenido presenta a hombres". 

"Desafortunadamente, existe un mercado muy grande que está más orientado a generar imágenes de mujeres desnudas. No significa que sea más fácil crear imágenes de mujeres que de hombres, pero básicamente hacia aquí donde están orientados estos servicios o hacia aquí se busca llamar la atención. Además, los grandes consumidores de pornografía son hombres y, por tanto, estos son el público al que están apuntando", afirma Cristina Pujol, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC e investigadora del grupo GAME.

 

Fuentes:

https://www.20minutos.es/tecnologia/inteligencia-artificial/peligros-crear-deepfakes-pornograficos-5187928/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.