Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
991
)
- ► septiembre (Total: 50 )
-
▼
2023
(Total:
710
)
-
▼
diciembre
(Total:
72
)
- Confirman robo del código fuente de Grand Theft Au...
- Apple quiere entrenar su inteligencia artificial c...
- Top 10 de vulnerabilidades críticas en aplicacione...
- Otra cadena de vulnerabilidades en Outlook permite...
- España analiza los niveles de radiación del iPhone...
- Peugeot usaba la Game Boy para realizar los diagnó...
- CVE-2023-35628: vulnerabilidad silenciosa por e-ma...
- OpenAI define las estrategias para evitar que la i...
- Zorin OS 17, la distribución de Linux que se ve co...
- ¿Comprar un HDD o un SSD? SSD siempre, menos para NAS
- Hyperloop One cierra: la utopía de Elon Musk desap...
- ¿Qué es el UPnP del router? y Tipos de NAT en Cons...
- Detenidos 5 ciberdelincuentes por estafar mediante...
- Condenan al autista por filtrar GTA VI: permanecer...
- Cae una red en España que ha estafado al menos 190...
- Synology - Conocimientos básicos del cifrado en DS...
- Diferentes tipos de velocidades WiFi: canales y ba...
- Retirado el mayor conjunto de datos de imágenes de...
- Galaxy S24: filtradas todas sus características y ...
- Inaugurado el superordenador MareNostrum 5, uno de...
- Tesla culpó a sus usuarios de fallos de fabricación
- Stable Diffusion y otras IA generativas se entrena...
- El FBI desmantela el ransomware BlackCat y obtiene...
- Comparativa de rendimiento velocidad red: 10 Gbe v...
- La Universidad de Buenos Aires (UBA) víctima de un...
- OpenAI se ha convertido en la compañía más importa...
- Google pagará 700 millones de dólares para aparcar...
- ¿Qué es ZFS? ¿Qué ventajas tiene sobre otros siste...
- MongoDB confirma que datos de clientes quedaron ex...
- La Comisión Europea abre expediente a Twitter por ...
- Sistema pionero español para que los menores no ac...
- OpenAI suspende la cuenta de ByteDance (TikTok) po...
- Tutorial Apache modsecurity (WAF)
- Twitch permite más contenido sexual
- Google Imagen 2, la inteligencia artificial para c...
- Dropbox comparte tus archivos con OpenAI sin que t...
- El fabricante de chips NXP fue hackeado en 2017 y ...
- El BSC presenta Sargantana, la nueva generación de...
- Apple impedirá que un ladrón pueda usar un iPhone ...
- El Gobierno Español propone restringir el uso de l...
- Utilizan Google Forms en ataques de Phishing
- Si tu PC Windows se ‘congela’, revisa el antivirus...
- E3: la feria más importante de los videojuegos mue...
- Insomniac Games hackeado por el ransomware Rhysida...
- El despilfarro de la IA: se necesitan dos centrale...
- Optimus Gen 2, el nuevo robot humanoide de Elon Mu...
- Vulnerabilidad crítica en plugin de WordPress Back...
- Europa quiere normas para combatir la adicción a l...
- Microsoft presenta Phi-2, una inteligencia artific...
- Paquetes con malware en proyectos del repositorio ...
- DNS0: El DNS público europeo que hace Internet más...
- ¿Qué diferencia hay entre un disco duro WD Red Plu...
- Linux tendrá su propia pantalla de la muerte azul ...
- El ordenador con más malware del mundo: 'Most Infe...
- Configurar el firewall de Windows
- Apple publica actualizaciones de seguridad para pa...
- El estándar Wi-Fi 7, a punto de ser aprobado: lleg...
- Epic Games gana a Google el juicio antimonopolio c...
- En la mitad de los casos las instrusiones se produ...
- La UE aprueba la primera Ley de Inteligencia Artif...
- Cómo la IA puede ayudar a los equipos de seguridad
- LogoFAIL: ataque al firmware, que afecta a Windows...
- Lo más buscado en Google en 2023
- La NASA se dedicó a drogar arañas para comprobar l...
- Kelvinsecurity: detenido el líder de uno de los gr...
- El navegador Brave lanza Leo, su IA tipo ChatGPT q...
- FirewallD viniendo de iptables
- Google retrasa el lanzamiento de Gemini, su respue...
- Vulnerabilidades críticas en UEFI: LogoFAIL expone...
- Bloquear LOLbins con el firewall de Windows
- Fases fundamentales de un análisis forense digital
- Tiny11, la versión ligera de Windows 11
- ► septiembre (Total: 65 )
-
▼
diciembre
(Total:
72
)
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
Un Actor de Amenazas que opera bajo el nombre de usuario Nam3L3ss ha explotado una vulnerabilidad crítica en MOVEit de 2023, un software ...
-
Si estos días vas a cualquiera de las plataformas de venta que hay en internet y buscas un USB probablemente te encuentras con no pocos con ...
Stable Diffusion y otras IA generativas se entrenan con fotos de abuso sexual infantil
- La Universidad de Stanford descubrió miles de imágenes explícitas de niños en un conjunto de datos que se utilizó para entrenar varios sistemas de inteligencia artificial. Entre ellos, Stable Diffusion.
Hasta ahora, se pensaba que las herramientas de inteligencia artificial generativa producían imágenes abusivas de niños combinando dos grupos separados de imágenes obtenidas en la web: pornografía de adultos y fotografías genéricas de niños. Pero los expertos se han topado con que, en realidad, no es así.
El Observatorio de Internet de Stanford trabajó junto con el Centro Canadiense para la Protección Infantil y otras organizaciones para identificar el material ilegal. Luego del hallazgo, informaron los enlaces de las fotografías originales a las autoridades.
Representantes de LAION, que promociona la red abierta de inteligencia artificial a gran escala, dijeron que eliminaron temporalmente el conjunto de datos LAION-5B. Explicaron que tomaron la medida «para garantizar que sea seguro antes de volver a publicarlo».
Las fotografías de abuso sexual infantil encontradas son una pequeña fracción de la base de datos LAION-5B, que contiene miles de millones de imágenes. Los investigadores explican que probablemente se agregaron sin intención cuando los creadores de la base de datos tomaron imágenes de las redes sociales y otras páginas web.
La inteligencia artificial, el abuso sexual infantil y los responsables
Aunque se trate de una porción pequeña de datos, el hallazgo de las fotos de abuso sexual infantil demuestra una vez más lo poco que se sabe sobre los conjuntos de datos detrás de las herramientas más poderosas. Por ejemplo, OpenAI, creadora de ChatGPT, nunca ha querido especificar de dónde obtiene el material que usa para entrenar sus sistemas. Muchas de estas startups se limitan a explicar que obtienen la mayor parte de los datos disponibles libremente en Internet.
El Washington Post y el Allen Institute for AI analizaron este año más de 15,1 millones de sitios web. Estaban basados en otro famoso conjunto de datos llamado C4 (Colossal Clean Crawled Corpus). La C4 se usó, específicamente, para desarrollar los modelos de lenguaje LLaMA, de Facebook, y T5, de Google. Los resultados de la investigación demostraron que muchos de los contenidos estaban protegidos por derechos de autor, incluían material racista e información tendenciosa. También encontraron cientos de ejemplos de sitios web pornográficos y referencias nazis.
Apenas se disparó la popularidad de las herramientas generadoras de imágenes, comenzaron las alertas sobre deepfakes. Según un estudio de la firma investigadora independiente Genevieve Oh, más de 143,000 nuevos vídeos manipulados con inteligencia artificial se compartieron en línea este año. Esto supera los registros de la organización de todos los años anteriores combinados.
Otras organizaciones, como Thorn, vienen denunciando que han encontrado miles de imágenes de abuso sexual infantil generadas en foros de la dark web este año. Algunos participantes comparten guías detalladas sobre cómo otros pedófilos pueden hacer sus propias creaciones con las nuevas herramientas.
¿Qué dicen ahora los creadores de Stable Diffusion?
Los evaluadores de Stable Diffusion, uno de los sistemas señalados en la nueva investigación de Stanford, han discutido durante meses el riesgo de que la inteligencia artificial pudiera usarse para imitar rostros y cuerpos de niños. Así lo demuestra una revisión del Washington Post de sus conversaciones en Discord. Pero la empresa ha defendido su enfoque de código abierto con el argumento de la libertad creativa de los usuarios.
Stable Diffusion fue desarrollada Stability AI, denunciada también por usar material protegido por derecho de autor para entrenar a sus modelos. Su director ejecutivo, Emad Mostaque, dijo a The Verge el año pasado que «es responsabilidad de las personas si son éticas, morales y legales en la forma en que operan esta tecnología». «Las cosas malas que la gente crea… serán un porcentaje muy, muy pequeño del uso total», dijo entonces.
Stability AI respondió al hallazgo del material de abuso sexual infantil por parte de la Universidad de Stanford, explicando que solo alberga versiones filtradas de Stable Diffusion. «Desde que asumió el desarrollo exclusivo de Stable Diffusion, Stability AI ha tomado medidas proactivas para mitigar el riesgo de uso indebido», explicó la empresa en un comunicado. «Esos filtros impiden que el contenido inseguro llegue a los modelos», agregó.
La premura del mercado
Otros generadores de imágenes a partir de texto se derivan de la base de datos LAION, aunque no siempre está claro cuáles. OpenAI, desarrollador de DALL-E y ChatGPT, dijo a AP que no utiliza LAION y que ha perfeccionado sus modelos para rechazar solicitudes de contenido sexual.
Google creó un modelo generativo de texto a imagen basándose en un conjunto de datos LAION. Sin embargo, decidió no hacerlo público en 2022. La compañía suspendió el lanzamiento después de que una auditoría de la base de datos «descubriera una amplia gama de contenido inapropiado, incluidas imágenes pornográficas, insultos racistas y estereotipos sociales dañinos».
David Thiel, autor del informe y tecnólogo jefe del Observatorio de Internet de Stanford, resalta que muchos proyectos de inteligencia artificial se lanzaron de manera apresurada al mercado. Además, los expertos afirman que estos sistemas nunca deberían entrenarse utilizando fotografías de niños, incluso aunque no fueran explícitas.
Fuentes:
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.