Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
1086
)
- ► septiembre (Total: 50 )
-
▼
2023
(Total:
710
)
-
▼
diciembre
(Total:
72
)
- Confirman robo del código fuente de Grand Theft Au...
- Apple quiere entrenar su inteligencia artificial c...
- Top 10 de vulnerabilidades críticas en aplicacione...
- Otra cadena de vulnerabilidades en Outlook permite...
- España analiza los niveles de radiación del iPhone...
- Peugeot usaba la Game Boy para realizar los diagnó...
- CVE-2023-35628: vulnerabilidad silenciosa por e-ma...
- OpenAI define las estrategias para evitar que la i...
- Zorin OS 17, la distribución de Linux que se ve co...
- ¿Comprar un HDD o un SSD? SSD siempre, menos para NAS
- Hyperloop One cierra: la utopía de Elon Musk desap...
- ¿Qué es el UPnP del router? y Tipos de NAT en Cons...
- Detenidos 5 ciberdelincuentes por estafar mediante...
- Condenan al autista por filtrar GTA VI: permanecer...
- Cae una red en España que ha estafado al menos 190...
- Synology - Conocimientos básicos del cifrado en DS...
- Diferentes tipos de velocidades WiFi: canales y ba...
- Retirado el mayor conjunto de datos de imágenes de...
- Galaxy S24: filtradas todas sus características y ...
- Inaugurado el superordenador MareNostrum 5, uno de...
- Tesla culpó a sus usuarios de fallos de fabricación
- Stable Diffusion y otras IA generativas se entrena...
- El FBI desmantela el ransomware BlackCat y obtiene...
- Comparativa de rendimiento velocidad red: 10 Gbe v...
- La Universidad de Buenos Aires (UBA) víctima de un...
- OpenAI se ha convertido en la compañía más importa...
- Google pagará 700 millones de dólares para aparcar...
- ¿Qué es ZFS? ¿Qué ventajas tiene sobre otros siste...
- MongoDB confirma que datos de clientes quedaron ex...
- La Comisión Europea abre expediente a Twitter por ...
- Sistema pionero español para que los menores no ac...
- OpenAI suspende la cuenta de ByteDance (TikTok) po...
- Tutorial Apache modsecurity (WAF)
- Twitch permite más contenido sexual
- Google Imagen 2, la inteligencia artificial para c...
- Dropbox comparte tus archivos con OpenAI sin que t...
- El fabricante de chips NXP fue hackeado en 2017 y ...
- El BSC presenta Sargantana, la nueva generación de...
- Apple impedirá que un ladrón pueda usar un iPhone ...
- El Gobierno Español propone restringir el uso de l...
- Utilizan Google Forms en ataques de Phishing
- Si tu PC Windows se ‘congela’, revisa el antivirus...
- E3: la feria más importante de los videojuegos mue...
- Insomniac Games hackeado por el ransomware Rhysida...
- El despilfarro de la IA: se necesitan dos centrale...
- Optimus Gen 2, el nuevo robot humanoide de Elon Mu...
- Vulnerabilidad crítica en plugin de WordPress Back...
- Europa quiere normas para combatir la adicción a l...
- Microsoft presenta Phi-2, una inteligencia artific...
- Paquetes con malware en proyectos del repositorio ...
- DNS0: El DNS público europeo que hace Internet más...
- ¿Qué diferencia hay entre un disco duro WD Red Plu...
- Linux tendrá su propia pantalla de la muerte azul ...
- El ordenador con más malware del mundo: 'Most Infe...
- Configurar el firewall de Windows
- Apple publica actualizaciones de seguridad para pa...
- El estándar Wi-Fi 7, a punto de ser aprobado: lleg...
- Epic Games gana a Google el juicio antimonopolio c...
- En la mitad de los casos las instrusiones se produ...
- La UE aprueba la primera Ley de Inteligencia Artif...
- Cómo la IA puede ayudar a los equipos de seguridad
- LogoFAIL: ataque al firmware, que afecta a Windows...
- Lo más buscado en Google en 2023
- La NASA se dedicó a drogar arañas para comprobar l...
- Kelvinsecurity: detenido el líder de uno de los gr...
- El navegador Brave lanza Leo, su IA tipo ChatGPT q...
- FirewallD viniendo de iptables
- Google retrasa el lanzamiento de Gemini, su respue...
- Vulnerabilidades críticas en UEFI: LogoFAIL expone...
- Bloquear LOLbins con el firewall de Windows
- Fases fundamentales de un análisis forense digital
- Tiny11, la versión ligera de Windows 11
- ► septiembre (Total: 65 )
-
▼
diciembre
(Total:
72
)
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
Pegasus es uno de los programas espía más avanzados y peligrosos del mundo. Puede instalarse en dispositivos Android e iOS sin que los usu...
-
Distributed Denial of Secrets ( DDoSecrets ), la organización sin fines de lucro dedicada a la denuncia de irregularidades, celebra su sex...
La UE aprueba la primera Ley de Inteligencia Artificial del mundo
Los Estados y la Eurocámara superan sus diferencias en torno a cómo regular los modelos fundacionales y las líneas rojas en materia de sistemas de vigilancia biométrica y cierran un acuerdo provisional que todavía debe ser ratificado antes de que entre en vigor.
- La Unión Europea ha sido pionera en el mundo en pactar una ley de inteligencia artificial que permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas y también regulará los sistemas de IA generativa
La Unión Europea será la primera región del mundo en regular de forma completa los usos de la Inteligencia Artificial (IA) a través de Ley de IA de la UE. Los Estados y el Parlamento Europeo han llegado, casi en la medianoche del viernes al sábado, y después de tres días de intensas y duras negociaciones, a un acuerdo provisional, un texto final que todavía deberá ser ratificado por las dos partes antes de entrar en vigor, previsiblemente a finales de 2026, aunque algunas partes empezarán a funcionar antes.
Este texto define las obligaciones y normas por las que deberá regirse una tecnología que está aquí para quedarse y que está transformando completamente la vida diaria, pero que conlleva tantas posibilidades como riesgos, muchos de ellos ni siquiera aún imaginables.
Estos son los 7 puntos clave: 5 prohibidos y 2 muy regulados.
- Prohibidos los sistemas de categorización biométrica (por creencias políticas, religiosas, filosóficas o por orientación sexual o raza).
- Prohibidos los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales y televisión.
- Prohibido el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
- Prohibido el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o características personales).
- Prohibidos los sistemas que manipulan comportamiento humano y la IA usada para explotar las vulnerabilidades de las personas (por ejemplo por su edad o situación social o económica).
- Se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados y rodeados de estrictas salvaguardias.
- Los sistemas de inteligencia artificial generativa en los que se basan modelos como ChatGPT, estos tendrán que cumplir criterios de transparencia, como especificar que si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
"El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos", ha asegurado en X (antes Twitter) la Presidencia española del Consejo de la UE. Cerrar esta ley, que quiere convertirse en una referencia o estándar para otras regiones más allá de las fronteras comunitarias, era una de las prioridades fijadas por España para su semestre europeo, que acaba este mes de diciembre.
Los Veintisiete aseguran que quieren garantizar las posibilidades y limitar al máximo los riesgos, para lo que han negociado una ley "a prueba del futuro" que contenga la flexibilidad suficiente como para poder regular funciones o tecnologías hoy por hoy desconocidas, o para amoldarse a los cambios que experimenten las ya existentes. Pero el diablo, como siempre, está en los detalles, y las negociaciones, "apasionadas", como las calificaron testigos de los interminables tira y afloja que comenzaron el miércoles y acabaron rozando la medianoche del viernes al sábado, se alargaron debido al pulso entre Estados y eurodiputados —y a veces entre cada parte entre sí— sobre qué es un riesgo o no y qué excepciones y salvaguardias poner para garantizar que los derechos fundamentales individuales no se arriesgan en aras de no perjudicar la economía o los intereses de los Estados.
"La UE se convierte en el primer continente que pone reglas claras para el uso de la IA", ha señalado mientras tanto el comisario de Mercado Interior, Thierry Breton, uno de los grandes impulsores de la normativa y para quien la ley propuesta es "mucho más que un paquete de normas, es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA".
Sobre todo, ha acotado Artigas, porque da una "certeza legal y técnica" a los ciudadanos y a las empresas que ahorrará previsiblemente muchas acciones legales. Para ello, la normativa quiere tener dientes suficientes como para no quedar en papel mojado, para lo que prevé un sistema de sanciones, bien un porcentaje del volumen total de negocios de la compañía infractora el año fiscal previo o incluso una cantidad predeterminada "aún mayor". Además, se establece la creación de un ente supervisor independiente, una Oficina de IA ligada a la Comisión Europea y que estará asesorada por un panel científico y la sociedad civil.
La presidenta de la Comisión, Ursula von der Leyen, ha celebrado una normativa "pionera en el mundo". Un marco legal "único para el desarrollo de una IA en el que se puede confiar", ha saludado en X la jefa del Ejecutivo europeo. "Europa ha liderado y ha cumplido", ha acotado la presidenta del Parlamento Europeo, Roberta Metsola, según la cual la AI Act, como se la conoce en inglés, es una legislación "vanguardista y responsable que impone estándares globales".
Junto a la satisfacción por cerrar un acuerdo que muchas veces parecía escaparse, había también gestos de alivio entre los principales responsables de las negociaciones, y no solo porque por fin podían irse a casa, sino porque, subrayaron todos, lo hacían seguros de que han hecho bien unos deberes con muchas trabas.
Entre ellos, los más espinosos fueron, como se preveía, la cuestión de cómo regular los modelos de IA de propósito general (la IA generativa o modelos fundacionales) en los que se basan populares herramientas como el ChatGPT, así como los sistemas de vigilancia biométrica (como el reconocimiento facial), que al final acabó siendo el punto más arduamente negociado y prolongó las discusiones hasta este viernes, debido a los fuertes recelos que despiertan estas tecnologías que potencialmente —y en algunos casos ya realmente, como se ve en algunos países con poco músculo democrático— permiten una supervisión y control estatal que puede colisionar directamente con los derechos fundamentales de los ciudadanos.
El Parlamento Europeo ha celebrado que la ley "busca garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental están protegidos de IA de alto riesgo, a la par que se impulsa la innovación y se hace de Europa un líder en el sector".
El texto final recoge, aseguran los eurodiputados, sus principales líneas
rojas, al confirmar que quedarán prohibidos varios sistemas de vigilancia
biométrica que consideraban inaceptables: los sistemas de categorización
biométrica (por creencias políticas, religiosas, filosóficas o por orientación
sexual o raza); los sistemas para expandir o crear bases de datos faciales
captando datos de manera indiscriminada a través de internet o de grabaciones
audiovisuales y televisión; el reconocimiento de emociones en el lugar de
trabajo y en instituciones educativas; el social scoring (sistemas que puntúan
a las personas en función de su comportamiento social o características
personales); sistemas que manipulan comportamiento humano y la IA usada para
explotar las vulnerabilidades de las personas (por ejemplo por su edad o
situación social o económica).
Vigilancia biométrica
Por otro lado, aunque se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados y rodeados de estrictas salvaguardias: se requerirá una autorización judicial y la lista de crímenes que lo autoricen será muy restrictiva. En el caso del uso "ex post", solo se permitirá para la búsqueda de una persona condenada o sospechosa de haber cometido un crimen grave.
En el caso de la vigilancia en tiempo real, su uso estará limitado en "tiempo y locación" y solo se permitirá para la búsqueda de víctimas de secuestro, tráfico humano o explotación sexual, para la prevención de una amenaza terrorista "genuina y previsible" o "genuina y presente", es decir, que se está produciendo en el mismo momento, o para la localización o identificación de un sospechoso de crímenes específicos: terrorismo, tráfico, asesinato, secuestro, violación, robo armado o un crimen medioambiental, entre otros).
En cuanto al otro gran punto de las negociaciones, la regulación de los sistemas de inteligencia artificial generativa en los que se basan modelos como ChatGPT, estos tendrán que cumplir criterios de transparencia, como especificar que si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
Se trata de una tecnología que apenas se conocía cuando Bruselas propuso la ley, en abril de 2021, por lo que ha habido que incorporar medidas y salvaguardias a posteriori, lo que ha constituido a la vez un recordatorio de que la legislación debe ser adaptable a sistemas del futuro aún inimaginables. El reglamento no prohíbe su uso, pero sí establece una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.
Ningún otro país tiene aún una regulación tan completa como la europea. El presidente de EE UU, Joe Biden, firmó un octubre un decreto que obliga a las tecnológicas a notificar al Gobierno cualquier avance que suponga un "riesgo grave para la seguridad nacional". Días después, el primer ministro británico, Rishi Sunak, convocó a una cumbre de la que surgió el primer compromiso de 28 países y de la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un grupo de expertos para el seguimiento de sus avances.
Si no ocurren imprevistos, es decir, si ninguna de las partes se echa atrás y tanto los Estados como la Eurocámara ratifican la ley en los próximos meses (los negociadores no creen que el proceso pueda empezar antes de febrero, ya bajo presidencia europea belga), la Ley de IA debería poder entrar totalmente en vigor hacia finales de 2026, aunque algunas partes lo harán antes: está previsto que la Oficina de IA empiece a funcionar en cuanto se ratifique el reglamento, mientras que la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12 meses.
Fuente: El País
Vía:
https://blog.segu-info.com.ar/2023/12/la-ue-aprueba-la-primera-ley-de.html
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.