Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon El Parlamento Europeo aprueba la Ley de inteligencia artificial


A principios de 2023, la Unión Europea afirmó, mediante la Comisión Europea, sus planes para regular la inteligencia artificial de una manera bastante estricta. En aquel momento, y más después de saber en junio que ya tenían listo un primer borrador de la misma, parecía posible que su aprobación se produjera antes de que acabara 2023. Finalmente no fue posible, pero la urgencia de establecer este marco legal ha hecho que, salvo sorpresas, todo esté listo y que sea adoptado antes de que concluya la actual legislatura del Parlamento Europeo, que como ya sabes se renovará con las elecciones del próximo mes de junio. Y un paso clave es, claro, el que hemos vivido hoy, con la aprobación de la nueva ley para la inteligencia artificial por parte del Parlamento Europeo.





Y de forma general, la Ley de Inteligencia Artificial Europea prohíbe todos los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de vida y los derechos de las personas. Por ejemplo, prohíbe expresamente el uso de IA para generar una "puntuación social" para los gobiernos o juguetes que utilizan asistentes de voz y fomentan comportamientos peligrosos, por considerarse de riesgo inaceptable.

También prohíbe de forma expresa los sistemas de categorización biométrica basados ​​en datos sensibles y la extracción de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial. También estarán prohibidos el reconocimiento de emociones en el lugar de trabajo y las escuelas, la vigilancia policial predictiva (cuando se base únicamente en perfilar a una persona o evaluar sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas. 

Antes de entrar al fondo, es decir, a lo que establece esta nueva norma, es importante eso sí aclarar que, tras su aprobación, todavía quedan pendientes algunos pasos. El primero es que el reglamento debe ser sometido a una revisión final por parte de juristas lingüistas, tras lo cual debe ser respaldada por el Consejo Europeo (una formalidad que se da por sentada) y, finalmente, ser publicada en el Diario Oficial de la Unión Europea (el BOE del espacio intracomunitario, para entendernos). Una vez que se produzca esta publicación, la nueva normativa entrará en vigor 20 días después, si bien se establecen varios márgenes de adaptación a la misma.

Con carácter general, y como ya hemos visto en otras muchas normas, para el común de la norma se establece un plazo de 24 meses para que las compañías puedan adaptar sus productos y servicios al nuevo marco legal. Sin embargo, y en la línea de urgencia que han transmitido las instituciones europeas desde el principio con respecto a la regulación de la Inteligencia Artificial, se han establecido diferentes «velocidades», entre las que destaca lo referido a las prácticas prohibidas, para las que solo se establece un periodo de adaptación de seis meses. Llama la atención, sin embargo, la mayor laxitud en las obligaciones para sistemas de alto riesgo, que es de 36 meses.



En la comunicación emitida por el Parlamento Europeo, son varios los puntos especialmente de esta regulación de la inteligencia artificial en la Unión Europea (si lo deseas, puedes obtener el texto completo aquí), en una norma que, al menos en su declaración de intenciones, pretende garantizar los derechos fundamentales de los ciudadanos de la Unión Europea pero, al tiempo, promover su adopción y uso en aras de la competitividad europea.

El primero tiene que ver con uno de los aspectos más preocupantes del uso indiscriminado de la inteligencia artificial, en el que se recogen usos como

«Los sistemas de categorización biométrica basados ​​en características sensibles y la extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial. También estarán prohibidos el reconocimiento de emociones en el lugar de trabajo y las escuelas, la puntuación social, la vigilancia policial predictiva (cuando se base únicamente en perfilar a una persona o evaluar sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas«.

Este ha sido, desde el principio, uno de los puntos sobre los que la UE, a través de sus instituciones, ha querido establecer límites especialmente férreos y, como indicaba anteriormente, aquí nos encontramos con el plazo más corto de cara a la obligatoriedad en el cumplimiento de la nueva norma, seis meses desde su aplicación efectiva, por lo que salvo sorpresas podemos esperar que llegado el cambio de año este tipo de uso de la IA ya no se pueda llevar a cabo.

El Parlamento Europeo ha aprobado, eso sí, algunas excepciones a la norma en este punto. Concretamente se menciona el uso de este tipo de herramientas por parte de las fuerzas del orden en un conjunto de circunstancias concretas, que quedan definidas en la norma, y que están sujetas a un conjunto de salvaguardias, como estar sujetas a autorización judicial y que su uso esté limitado temporal y geográficamente. Entre los ejemplos citados se menciona tanto la búsqueda de personas desaparecidas como la prevención de acciones terroristas.


Mencionaba, anteriormente, el dilatado plazo en lo referido a lo que el reglamento considera sistemas de alto riesgo, y que en resumen son los sujetos a la consideración de sistemas de misión crítica, pero los amplía con otros que normalmente no reciben dicha consideración, pero que por el potencial impacto que pueden tener en la sociedad, también deben ser especialmente protegidos. En concreto, el texto los define como tales «debido a su importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho«. Para los mismos, de manera resumida, se establece lo siguiente:

«Dichos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y garantizar la supervisión humana. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de inteligencia artificial y a recibir explicaciones sobre las decisiones basadas en sistemas de inteligencia artificial de alto riesgo que afecten a sus derechos.

Por su parte, los sistemas de inteligencia artificial de propósito general (GPAI, General Purpose Artificial Inteligence), entre los que podemos contar con muchos de los modelos generativos tan presentes y populares en la actualidad, también están presentes en el texto. Sobre los mismos, se indica que deberán bastante transparentes tanto en su entrenamiento como en su funcionamiento. Esto se aplica, por ejemplo, en lo referido al cumplimiento de las normativas de derechos de autor de la Unión Europea, para lo que deberán publicar informes detallando el contenido utilizado en los entrenamientos.

Para el contenido generado con los mismos, concretamente el audiovisual (imágenes, audios y vídeos), también se establece la obligatoriedad de que se etiqueten claramente como tales. Esta medida pretende, sin duda, combatir los deepfakes que se han popularizado, estos últimos tiempos, para la difusión de noticias falsas e informaciones intencionadamente erróneas.

Adicionalmente, el texto plantea obligaciones adicionales para lo que considera «modelos GPAI más potentes«, y que como consecuencia de sus capacidades «podrían plantear riesgos sistémicos«. En tal caso se establece la necesidad de realizar «evaluaciones de modelos, la evaluación y mitigación de riesgos sistémicos y la presentación de informes sobre incidentes«.

Así, en resumen, vemos que la legislación que hoy ha sido aprobada por el Parlamento Europeo pone el foco en la privacidad, la seguridad, la transparencia y la evaluación y prevención de riesgos. No obstante, aún tendremos que esperar a la revisión legal del texto (con las posibles correcciones que surjan de la misma), para hacer una lectura en profundidad que nos permita valorar, de manera más detallada, todo su alcance.


Tras un largo y proceloso recorrido de algo más de tres años, la Ley de Inteligencia Artificial de la Unión Europea está lista para recibir el sello de aprobación. El Parlamento ha votado un texto que ya se considera básicamente definitivo, y además lo ha hecho con una mayoría arrolladora considerando lo delicado de algunos de los puntos observados: 523 votos a favor, 46 en contra y 49 abstenciones.

El nuevo marco legislativo busca regular el uso de las tecnologías de inteligencia artificial con el propósito de "proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector". Huelga decir que, a pesar de la votación, no todos los expertos están de acuerdo con la viabilidad de cada uno de esos puntos.

La nueva Ley de Inteligencia Artificial introduce normas que prohíben el uso de IA en la captación de datos biométricos a gran escala, "como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial" (extremo que tuvo una enorme oposición política y empresarial), aunque hace una excepción para las fuerzas de seguridad bajo situaciones "muy concretas y bien definidas", con el añadido de que los sistemas de monitorización en tiempo real deberán limitarse a lugares y periodos limitados bajo autorización de un juez o el correspondiente proceso administrativo.

Asimismo, el texto prevé la necesidad de evaluar y reducir riesgos en el uso de tecnologías de IA en "infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones)", así como el cumplimiento de normas de transparencia que incluyen la revelación, en forma de resúmenes, de los contenidos utilizados para entrenar las IA.

La severidad de las regulaciones dependerá del nivel de riesgo apreciado en una IA y sus posibles usos, yendo desde el nivel mínimo (como filtros de contenidos) al inaceptable (objetivamente peligrosos para la seguridad de los estados o las personas).

Entre los ejemplos de IA con un riesgo intolerable y por lo tanto prohibidas se encuentran los sistemas de categorización por IA que usen características como inclinación política, orientación sexual o religión, la captación sin filtro de rostros vía internet o circuito cerrado, los sistemas de crédito social "basados en comportamiento social o características personales", el reconocimiento de emociones en el puesto de trabajo y los centros de educación, los sistemas de IA que manipulan las emociones humanas para sortear el libre albedrío y aquellos que "usados para explotar las vulnerabilidades de la gente", tales son su edad o situación económica.

El incumplimiento de la ley se castigará con una multa equivalente a un porcentaje de los ingresos globales de la empresa infractora o una cantidad fija, escogiéndose siempre la cuantía más elevada: 35 millones de euros o 7% de los ingresos por infracciones en aplicaciones de IA prohibidas, 15 millones o 3% por infringir las obligaciones de la ley y 7,5 millones o 1,5% por proporcionar información incorrecta.

Dependiendo de a quién se pregunte, la nueva regulación supone un importante paso adelante en la protección de los ciudadanos o un tiro en el pie del sector tecnológico europeo, que no podrá innovar al mismo tiempo que el de países como China o Estados Unidos. Sea como sea, su paso exitoso por el Parlamento implica que ya solo queda el proceso de corrección y su posterior aprobación por el Consejo, que se da por hecha.

4 niveles de riesgo

En el otro extremo de la pirámide está lo que se denomina riesgo mínimo: por ejemplo, los videojuegos con IA o su uso para filtros de spam. Según la Unión Europea, la gran mayoría de los sistemas de IA que se utilizan actualmente en la UE entran en esta categoría. Cuanto más riesgo tiene una aplicación de IA para el ciudadano, más escrutinio y más reglas se les aplica.



Pero también sirve no solo para proteger los derechos los ciudadanos, sino para brindar una capa extra de seguridad al uso de la IA en infraestructuras vitales de la Unión o en aplicaciones muy específicas. Por ejemplo, la ley considera alto riesgo la utilización de la IA en dispositivos médicos o infraestructuras críticas, como redes de agua o eléctricas. Por ello, aplica muchas limitaciones y requisitos más estrictos, como una documentación detallada con toda la información necesaria sobre el sistema y su propósito para que las autoridades evalúen su cumplimiento y un alto nivel de robustez en materia de seguridad y precisión.

La ley contempla un sistema de verificación y certificación de cada Inteligencia Artificial y su eso. Este es, quizás, uno de los puntos más importantes y a la vez más complejos de definir. Una vez que un sistema de IA quiere al mercado, los implementadores tienen que garantizar su supervisión y el seguimiento humanos. Se comprueba que sea acorde con la normativa y la definición que hace la ley, se registra dentro de sistema de la UE y se libra declaración de conformidad. 

Si los tres pasos son positivos, se permite su despliegue en el mercado. Además, esta monitorización es constante en el tiempo: al momento que la IA introduzca cambios significativos, se vuelve al paso dos y se vuelve a poner en marcha el proceso de autorización. Durante paso de aprobación previa, se determina el nivel de riesgo y el impacto de la IA, y se definen los específicos de la normativa que se aplica.

Y sobre uno de los puntos fundamentales de la IA, los propios modelos, la normativa también introduce una serie obligaciones de transparencia. La idea es que el regulador (o el ciudadano) tenga una mejor idea de cómo funciona de estos modelos, además de aplicar una serie obligaciones adicionales de gestión de riesgos para aquellos que sean especialmente potentes y complejos. Estas obligaciones adicionales incluyen la autoevaluación y mitigación de riesgos sistémicos, la notificación de incidentes graves, la realización de evaluaciones de pruebas y modelos o requisitos de ciberseguridad extra que no aplican a otros sistemas de IA más sencillos.


Fuentes:

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.