Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Un instituto que usa IA confunde un clarinete con un arma y llama a la Polícia


Código rojo en un instituto de EEUU y asalto policial debido a que una IA confundió un clarinete con un arma, demostrando los errores de la inteligencia artificial en la seguridad estudiantil y evidenciando que no toda la responsabilidad recae en ella.





La vida de miles de estudiantes norteamericanos está en manos de la IA, que ya ha demostrado varias veces que se equivoca. Aunque la culpa no es solo suya. 




Imagina que estás tranquilamente aburriéndote en clase, y de repente se encienden alarmas rojas por todos los lados, las puertas se cierran automáticamente para que nadie salga, y ya solo queda esperar a que un perturbado con un arma se líe a tiros, si no lo detiene antes la policía. Así es el día a día en un instituto de Estados Unidos.

Es lo que ocurrió hace unos días en el instituto Lawton Chiles Middle School de Oviedo (Florida). Se activó el código rojo, que bloquea las puertas de las clases mientras los estudiantes se esconden detrás de las mesas, y se produjo un asalto de la policía, porque una inteligencia artificial había confundido un clarinete con un arma.



 

No es la primera vez que ocurre. Hace unos meses un estudiante menor de edad fue reducido y esposado por ocho policías, porque la IA decía que llevaba una pistola en el bolsillo. Resultó ser… una bolsa de Doritos.

 

Un fallo de la IA que puede costar vidas

En Estados Unidos, muchos colegios e institutos usan un software de inteligencia artificial que examina las cámaras de seguridad en busca de armas.

En el caso de este instituto de Oviedo, emplea una IA basada en la nube desarrollada por ZeroEyes, que detecta más de cien armas diferentes. Y alguna que no lo es, por lo que parece. La suscripción cuesta 250.000 dólares, y cubre todas las escuelas del distrito.

Estamos ante una situación gravísima, porque si esos estudiantes que llevaban el clarinete y la bolsa de Doritos se asustan al ver abalanzarse a la policía sobre ellos, salen corriendo o se resisten a la detención, y se escapa un disparo, podríamos estar hablando de una tragedia.

Hay que aclarar que la IA no tiene la culpa de todo. Cuando detecta un arma envía la foto a un supervisor humano, y es el que decide si se llama o no a la policía.

¿Por qué fallaron esas personas? ¿Tanto se parece un clarinete a un arma? ¿Y una bolsa de aperitivos? ¿O es que la sumisión a la IA ya es tan elevada, que prefieren creer a la IA antes que a sus propios ojos? Por desgracia, no han hecho públicas esas fotos, así que no podemos opinar.

El problema es que el hermetismo de estas empresas es total. Ninguna comunica cuántas armas detectan con éxito, y cuántos fallos se producen. Muchos padres se quejan de que hay demasiadas falsas alarmas que estresan a los estudiantes, y piden que se revelen los datos.

Estados Unidos se hunde en su laberinto de violencia y vigilancia policial, porque no quiere o no puede afrontar la raíz del problema: que cualquiera puede comprar un arma en una tienda, con muy pocos requisitos.



Fuentes:
https://computerhoy.20minutos.es/tecnologia/codigo-rojo-un-instituto-asalto-policia-porque-una-ia-confundio-un-clarinete-con-un-arma_6910262_0.html

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.