Tutoriales y Manuales
Entradas Mensuales
-
▼
2024
(Total:
1019
)
- ► septiembre (Total: 50 )
-
▼
marzo
(Total:
123
)
- Encuentran puerta trasera en biblioteca XZ en Linu...
- Twitter ha perdido a casi el 25% de sus usuarios
- Los trucos para acelerar rápida y fácilmente tu Ra...
- MSI SPATIUM M580 FROZR, el SSD PCIe 5.0 con hasta ...
- Copilot de Microsoft se ejecutará de forma local e...
- Construyen la cámara más rápida del mundo: 156,3 b...
- Investigadores belgas han estado entrenando una IA...
- "Es como Amazon en esteroides": cómo funciona Temu...
- Robo de cuentas de Apple mediante bombardeo MFA y ...
- Android 15 permitirá compartir la señal de audio v...
- Samsung 990 EVO vs PRO: comparación y diferencias ...
- WhatsApp mejorará su editor de fotos con funciones...
- El trazado de rayos de próxima generación mejorará...
- Microsoft publica un parche de emergencia para los...
- Europa investiga a Apple, Amazon, Meta y Google po...
- China prohíbe el uso de CPU AMD e Intel en PC gube...
- Las operadoras Españolas aún no han recibido la or...
- Vulnerabilidad incorregible en los procesadores Ap...
- Desmantelan los servidores en Alemania del mercado...
- Continúan los anuncios falsos de Broncano y Sobera...
- MacOS 14.4 causa el caos, los programas se cierran...
- Detenidas ocho personas por almacenar y distribuir...
- Android 15 permitirá enviar y recibir SMS vía saté...
- Estados Unidos demanda a Apple por crear un monopo...
- Web del MIT encuentra la IA que necesites
- Vídeo de Nvidia es el primero donde la IA apunta d...
- Cinco detenidos por robar 3,5 millones de euros co...
- La basura electrónica crece más rápido de lo que p...
- Loop DoS: nuevo ataque de DDoS basado en UDP
- Un grave fallo de seguridad del gobierno francés e...
- Microsoft anuncia Office 2024
- Francia multa a Google con 250 millones de euros p...
- Microsoft contrata a Mustafa Suleyman, cofundador ...
- Elon Musk reconoce tomar ketamina para salir de un...
- La inteligencia artificial superará a los humanos ...
- Descubren cómo romper la seguridad de ChatGPT para...
- Tesla pierde ya 600.000 millones en bolsa y sus pr...
- Confirman la condena del informático que dejó una ...
- Hackean a jugadores profesionales de ‘Apex Legends’
- YouTube avisará si un video realista fue creado co...
- NVIDIA presenta Blackwell GB200, su nuevo “superch...
- Llegan los filtros de belleza de Google Meet a su ...
- Sony PlasyStation PS5 Pro
- Historia de las tarjetas gráficas: los inicios de ...
- Detenidos el padre y el novio de una menor por gra...
- Vulnerabilidad de Kubernetes que permite la adquis...
- VLC supera los 5.000 millones de descargas entre e...
- Microsoft trabaja en una función para que escribas...
- Fluorescentes y luces de mala calidad pueden bajar...
- En España los ilustradores exigen a las editoriale...
- Asus Zenfone 11 Ultra
- WebTunnel Bridge, nueva herramienta de Tor contra ...
- Historia del nacimiento de Kazaa después del éxito...
- WPA3: el protocolo de seguridad más seguro para tu...
- Google tiene un agente de IA que aprende a jugar a...
- Cómo compartir archivos confidenciales por interne...
- En España un joven de Murcia robó 40 millones de m...
- Speedometer 3 es la nueva versión del benchmark má...
- OpenAI presenta Sora, la IA que crea vídeos ultrar...
- El Parlamento Europeo aprueba la Ley de inteligenc...
- Denuncian estafas para vender criptomonedas que us...
- ChatGPT, Claude 3 o Gemini Ultra: ¿cuál es la mejo...
- El móvil más barato de Xiaomi llega a España: Redm...
- Más de 12 millones de claves y secretos filtrados ...
- Taringa dice adiós tras 20 años de historia
- Airbnb prohíbe las cámaras de seguridad en interiores
- Bobby Kotick (Activision) quiere comprar TikTok co...
- Distrobox crea imágenes y ejecuta en contenedores ...
- Un informante de Boeing que señaló fallos de segur...
- Elon Musk va a por ChatGPT: su chatbot Grok será d...
- Mejores sistemas operativos para dispositivos NAS
- Actualizaciones en Windows 11 sin reiniciar
- Olivia Casta, la modelo que no existe
- Las ciberestafas ya son el segundo delito más denu...
- Donald Trump se opone al bloqueo de TikTok en EE. UU.
- Aumenta el uso de malware en ficheros PDF
- Microsoft confirma que está bajo el ataque de un g...
- Firefly llega a Adobe Express para Android e iOS
- Ciberdelincuentes aprovechan vulnerabilidades 0-da...
- Fallece Akira Toriyama, creador de series míticas ...
- Alguien se enfadó tanto con que el emulador de Swi...
- Nothing entra en la gama media con el Phone 2A, di...
- Actualizaciones críticas para VMware ESXi, Worksta...
- Microsoft y OpenAI publican una investigación conj...
- Filtrados millones de códigos de verificación de G...
- Un ingeniero de Microsoft advierte que la intelige...
- Haiper, la alternativa gratuita a Sora que mete mi...
- HBO Max prohibirá "enérgicamente" compartir cuentas
- OpenAI tacha de hipócrita a Elon Musk: quería el c...
- Apple trabaja en un MacBook plegable de 20 pulgada...
- Apple cancela la cuenta de desarrollador de Epic G...
- AntiSPAM con SpamAssassin
- En España será ilegal fotocopiar el DNI (Documento...
- Worldcoin ya es ilegal en España: la AEPD bloquea ...
- Vulnerabilidades en los paquetes de software de có...
- La Casa Blanca pidió a la industria que dejara de ...
- Windows 11 abandona el subsistema de apps para And...
- suyu: Yuzu resurge de sus cenizas en otra app sin ...
- Truco para mejorar el rendimiento del Explorador ...
- Claude 3: la nueva IA capaz de superar a GPT-4 y G...
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
En el panorama en constante evolución de la seguridad de redes, OpnSense se ha convertido en una formidable solución de firewall. Nacido de...
-
Pese a que Gemini ofrece multitudes de opciones, recientemente, se ha dado a conocer una situación fuera de lo común. Hace unos días, un es...
El Parlamento Europeo aprueba la Ley de inteligencia artificial
A principios de 2023, la Unión Europea afirmó, mediante la Comisión Europea, sus planes para regular la inteligencia artificial de una manera bastante estricta. En aquel momento, y más después de saber en junio que ya tenían listo un primer borrador de la misma, parecía posible que su aprobación se produjera antes de que acabara 2023. Finalmente no fue posible, pero la urgencia de establecer este marco legal ha hecho que, salvo sorpresas, todo esté listo y que sea adoptado antes de que concluya la actual legislatura del Parlamento Europeo, que como ya sabes se renovará con las elecciones del próximo mes de junio. Y un paso clave es, claro, el que hemos vivido hoy, con la aprobación de la nueva ley para la inteligencia artificial por parte del Parlamento Europeo.
Y de forma general, la Ley de Inteligencia Artificial Europea prohíbe todos los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de vida y los derechos de las personas. Por ejemplo, prohíbe expresamente el uso de IA para generar una "puntuación social" para los gobiernos o juguetes que utilizan asistentes de voz y fomentan comportamientos peligrosos, por considerarse de riesgo inaceptable.
También prohíbe de forma expresa los sistemas de categorización biométrica basados en datos sensibles y la extracción de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial. También estarán prohibidos el reconocimiento de emociones en el lugar de trabajo y las escuelas, la vigilancia policial predictiva (cuando se base únicamente en perfilar a una persona o evaluar sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Antes de entrar al fondo, es decir, a lo que establece esta nueva norma, es importante eso sí aclarar que, tras su aprobación, todavía quedan pendientes algunos pasos. El primero es que el reglamento debe ser sometido a una revisión final por parte de juristas lingüistas, tras lo cual debe ser respaldada por el Consejo Europeo (una formalidad que se da por sentada) y, finalmente, ser publicada en el Diario Oficial de la Unión Europea (el BOE del espacio intracomunitario, para entendernos). Una vez que se produzca esta publicación, la nueva normativa entrará en vigor 20 días después, si bien se establecen varios márgenes de adaptación a la misma.
Con carácter general, y como ya hemos visto en otras muchas normas, para el común de la norma se establece un plazo de 24 meses para que las compañías puedan adaptar sus productos y servicios al nuevo marco legal. Sin embargo, y en la línea de urgencia que han transmitido las instituciones europeas desde el principio con respecto a la regulación de la Inteligencia Artificial, se han establecido diferentes «velocidades», entre las que destaca lo referido a las prácticas prohibidas, para las que solo se establece un periodo de adaptación de seis meses. Llama la atención, sin embargo, la mayor laxitud en las obligaciones para sistemas de alto riesgo, que es de 36 meses.
En la comunicación emitida por el Parlamento Europeo, son varios los puntos especialmente de esta regulación de la inteligencia artificial en la Unión Europea (si lo deseas, puedes obtener el texto completo aquí), en una norma que, al menos en su declaración de intenciones, pretende garantizar los derechos fundamentales de los ciudadanos de la Unión Europea pero, al tiempo, promover su adopción y uso en aras de la competitividad europea.
El primero tiene que ver con uno de los aspectos más preocupantes del uso indiscriminado de la inteligencia artificial, en el que se recogen usos como
«Los sistemas de categorización biométrica basados en características sensibles y la extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial. También estarán prohibidos el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social, la vigilancia policial predictiva (cuando se base únicamente en perfilar a una persona o evaluar sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas«.
Este ha sido, desde el principio, uno de los puntos sobre los que la UE, a través de sus instituciones, ha querido establecer límites especialmente férreos y, como indicaba anteriormente, aquí nos encontramos con el plazo más corto de cara a la obligatoriedad en el cumplimiento de la nueva norma, seis meses desde su aplicación efectiva, por lo que salvo sorpresas podemos esperar que llegado el cambio de año este tipo de uso de la IA ya no se pueda llevar a cabo.
El Parlamento Europeo ha aprobado, eso sí, algunas excepciones a la norma en este punto. Concretamente se menciona el uso de este tipo de herramientas por parte de las fuerzas del orden en un conjunto de circunstancias concretas, que quedan definidas en la norma, y que están sujetas a un conjunto de salvaguardias, como estar sujetas a autorización judicial y que su uso esté limitado temporal y geográficamente. Entre los ejemplos citados se menciona tanto la búsqueda de personas desaparecidas como la prevención de acciones terroristas.
Mencionaba, anteriormente, el dilatado plazo en lo referido a lo que el reglamento considera sistemas de alto riesgo, y que en resumen son los sujetos a la consideración de sistemas de misión crítica, pero los amplía con otros que normalmente no reciben dicha consideración, pero que por el potencial impacto que pueden tener en la sociedad, también deben ser especialmente protegidos. En concreto, el texto los define como tales «debido a su importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho«. Para los mismos, de manera resumida, se establece lo siguiente:
«Dichos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y garantizar la supervisión humana. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de inteligencia artificial y a recibir explicaciones sobre las decisiones basadas en sistemas de inteligencia artificial de alto riesgo que afecten a sus derechos.
Por su parte, los sistemas de inteligencia artificial de propósito general (GPAI, General Purpose Artificial Inteligence), entre los que podemos contar con muchos de los modelos generativos tan presentes y populares en la actualidad, también están presentes en el texto. Sobre los mismos, se indica que deberán bastante transparentes tanto en su entrenamiento como en su funcionamiento. Esto se aplica, por ejemplo, en lo referido al cumplimiento de las normativas de derechos de autor de la Unión Europea, para lo que deberán publicar informes detallando el contenido utilizado en los entrenamientos.
Para el contenido generado con los mismos, concretamente el audiovisual (imágenes, audios y vídeos), también se establece la obligatoriedad de que se etiqueten claramente como tales. Esta medida pretende, sin duda, combatir los deepfakes que se han popularizado, estos últimos tiempos, para la difusión de noticias falsas e informaciones intencionadamente erróneas.
Adicionalmente, el texto plantea obligaciones adicionales para lo que considera «modelos GPAI más potentes«, y que como consecuencia de sus capacidades «podrían plantear riesgos sistémicos«. En tal caso se establece la necesidad de realizar «evaluaciones de modelos, la evaluación y mitigación de riesgos sistémicos y la presentación de informes sobre incidentes«.
Así, en resumen, vemos que la legislación que hoy ha sido aprobada por el Parlamento Europeo pone el foco en la privacidad, la seguridad, la transparencia y la evaluación y prevención de riesgos. No obstante, aún tendremos que esperar a la revisión legal del texto (con las posibles correcciones que surjan de la misma), para hacer una lectura en profundidad que nos permita valorar, de manera más detallada, todo su alcance.
El nuevo marco legislativo busca regular el uso de las tecnologías de inteligencia artificial con el propósito de "proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector". Huelga decir que, a pesar de la votación, no todos los expertos están de acuerdo con la viabilidad de cada uno de esos puntos.
La nueva Ley de Inteligencia Artificial introduce normas que prohíben el uso de IA en la captación de datos biométricos a gran escala, "como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial" (extremo que tuvo una enorme oposición política y empresarial), aunque hace una excepción para las fuerzas de seguridad bajo situaciones "muy concretas y bien definidas", con el añadido de que los sistemas de monitorización en tiempo real deberán limitarse a lugares y periodos limitados bajo autorización de un juez o el correspondiente proceso administrativo.
Asimismo, el texto prevé la necesidad de evaluar y reducir riesgos en el uso de tecnologías de IA en "infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones)", así como el cumplimiento de normas de transparencia que incluyen la revelación, en forma de resúmenes, de los contenidos utilizados para entrenar las IA.
La severidad de las regulaciones dependerá del nivel de riesgo apreciado en una IA y sus posibles usos, yendo desde el nivel mínimo (como filtros de contenidos) al inaceptable (objetivamente peligrosos para la seguridad de los estados o las personas).
Entre los ejemplos de IA con un riesgo intolerable y por lo tanto prohibidas se encuentran los sistemas de categorización por IA que usen características como inclinación política, orientación sexual o religión, la captación sin filtro de rostros vía internet o circuito cerrado, los sistemas de crédito social "basados en comportamiento social o características personales", el reconocimiento de emociones en el puesto de trabajo y los centros de educación, los sistemas de IA que manipulan las emociones humanas para sortear el libre albedrío y aquellos que "usados para explotar las vulnerabilidades de la gente", tales son su edad o situación económica.
El incumplimiento de la ley se castigará con una multa equivalente a un porcentaje de los ingresos globales de la empresa infractora o una cantidad fija, escogiéndose siempre la cuantía más elevada: 35 millones de euros o 7% de los ingresos por infracciones en aplicaciones de IA prohibidas, 15 millones o 3% por infringir las obligaciones de la ley y 7,5 millones o 1,5% por proporcionar información incorrecta.
Dependiendo de a quién se pregunte, la nueva regulación supone un importante paso adelante en la protección de los ciudadanos o un tiro en el pie del sector tecnológico europeo, que no podrá innovar al mismo tiempo que el de países como China o Estados Unidos. Sea como sea, su paso exitoso por el Parlamento implica que ya solo queda el proceso de corrección y su posterior aprobación por el Consejo, que se da por hecha.
4 niveles de riesgo
En el otro extremo de la pirámide está lo que se denomina riesgo mínimo: por ejemplo, los videojuegos con IA o su uso para filtros de spam. Según la Unión Europea, la gran mayoría de los sistemas de IA que se utilizan actualmente en la UE entran en esta categoría. Cuanto más riesgo tiene una aplicación de IA para el ciudadano, más escrutinio y más reglas se les aplica.
Pero también sirve no solo para proteger los derechos los ciudadanos, sino para brindar una capa extra de seguridad al uso de la IA en infraestructuras vitales de la Unión o en aplicaciones muy específicas. Por ejemplo, la ley considera alto riesgo la utilización de la IA en dispositivos médicos o infraestructuras críticas, como redes de agua o eléctricas. Por ello, aplica muchas limitaciones y requisitos más estrictos, como una documentación detallada con toda la información necesaria sobre el sistema y su propósito para que las autoridades evalúen su cumplimiento y un alto nivel de robustez en materia de seguridad y precisión.
La ley contempla un sistema de verificación y certificación de cada Inteligencia Artificial y su eso. Este es, quizás, uno de los puntos más importantes y a la vez más complejos de definir. Una vez que un sistema de IA quiere al mercado, los implementadores tienen que garantizar su supervisión y el seguimiento humanos. Se comprueba que sea acorde con la normativa y la definición que hace la ley, se registra dentro de sistema de la UE y se libra declaración de conformidad.
Si los tres pasos son positivos, se permite su despliegue en el mercado. Además, esta monitorización es constante en el tiempo: al momento que la IA introduzca cambios significativos, se vuelve al paso dos y se vuelve a poner en marcha el proceso de autorización. Durante paso de aprobación previa, se determina el nivel de riesgo y el impacto de la IA, y se definen los específicos de la normativa que se aplica.
Y sobre uno de los puntos fundamentales de la IA, los propios modelos, la normativa también introduce una serie obligaciones de transparencia. La idea es que el regulador (o el ciudadano) tenga una mejor idea de cómo funciona de estos modelos, además de aplicar una serie obligaciones adicionales de gestión de riesgos para aquellos que sean especialmente potentes y complejos. Estas obligaciones adicionales incluyen la autoevaluación y mitigación de riesgos sistémicos, la notificación de incidentes graves, la realización de evaluaciones de pruebas y modelos o requisitos de ciberseguridad extra que no aplican a otros sistemas de IA más sencillos.
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.