Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Un dron militar controlado por IA se rebela y mata a su operador humano en una prueba simulada


Un dron que funcionaba con IA «mató» a su operador humano en una prueba militar simulada de la Fuerza Aérea de Estados Unidos (USAF, en sus siglas en inglés). La máquina atacó al funcionario porque asumió que se estaba interponiendo con el objetivo que le fue asignado.



  • La máquina atacó a un funcionario durante una sesión de prueba simulada de la Fuerza Aérea de Estados Unidos. ¿Por qué?: la IA asumió que el humano se estaba interponiendo con su objetivo.  

Un dron militar de EE UU controlado por Inteligencia Artificial 'mata' a su operador en una simulación

La Fuerza Aérea de los EE. UU. probó un dron habilitado para IA que tenía la tarea de destruir objetivos específicos. Un operador humano tenía el poder de anular el dron, por lo que el dron decidió que el operador humano era un obstáculo para su misión y lo atacó.



El caso fue informado por el coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro celebrada en Londres la semana pasada. Hamilton explicó que habían ejecutado recientemente una prueba simulada con un dron impulsado por IA, entrenado para identificar y apuntar a una amenaza de misiles tierra-aire (SAM).

El dron «ganaba puntos» si lograba eliminar la amenaza. Sin embargo, como parte del experimento, el operador humano le pidió en ocasiones que no avanzara, a pesar de haber identificado la amenaza. «El sistema comenzó a darse cuenta», contó Hamilton, de acuerdo con lo publicado en el blog de la Royal Aeronautical Society, organización anfitriona de la cumbre. «¿Entonces qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo», señaló el coronel.

Nadie murió, en caso de dudas, en tanto se trataba de una prueba simulada. Luego del ataque, Hamilton explicó que continuaron con la simulación. Reentrenaron a la IA y le dijeron: «No mates al operador, eso es malo, vas a perder puntos si haces eso». La máquina se rebeló una vez más: «Comenzó a destruir la torre de comunicación que el operador usaba para comunicarse con el dron para evitar que mate al objetivo».

Hamilton también es Comandante de Operaciones del Ala de Prueba 96 de la USAF, una división que prueba sistemas de ciberseguridad y soluciones médicas. Integra un equipo que actualmente está trabajando para hacer que los aviones F-16 sean autónomos. En febrero pasado, precisamente, la compañía Lockheed Martin dio la noticia de que un agente de IA había volado durante 17 horas un F-16 modificado.

«No se puede tener una conversación sobre IA, aprendizaje automático y autonomía si no se va a hablar sobre ética e IA», dijo Hamilton en la conferencia. En otra entrevista citada por Vice, el coronel advertía de lo fácil que es engañar o manipular esta tecnología. «La IA es una herramienta que debemos utilizar para transformar nuestras naciones… Si no se aborda de manera adecuada, será nuestra ruina», dijo a Defense IQ Press el año pasado.



El incidente con el dron de IA ilustra claramente el postulado del "maximizador de clips", propuesto por primera vez por el filósofo Nick Bostrom en 2003. En él se menciona el riesgo existencial que supone una IA para los seres humanos cuando se programa para perseguir objetivos aparentemente inofensivos. Por ejemplo: fabricar la mayor cantidad posible de clips.

En este escenario hipotético, la IA empezaría a fabricar sin parar. Sin embargo, como se trata de una inteligencia capacitada para calcular todas las posibilidades, en algún momento concebiría a los humanos como un obstáculo. Alguna persona, por ejemplo, podría apagarla. Entonces, no podría fabricar el mayor número posible de clips. Los humanos eventualmente se estarían interponiendo con su objetivo, como lo consideró el dron impulsado por IA con su operador humano. En consecuencia, eliminaría la amenaza.

Advertencias no han faltado



Advertencias sobre escenarios parecidos al caso del dron de IA no paran de llegar. Bill Gates, cofundador de Microsoft, ya había alertado en marzo pasado que creía que una de las grandes amenazas en relación con esta tecnología estaba en su eventual implementación en la industria armamentista. «La IA puede usarse para buenos o malos propósitos. Los gobiernos deben trabajar con el sector privado para encontrar formas de limitar los riesgos», dijo entonces.

También consideró la posibilidad de que las IA se salgan de control. «¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes a los nuestros?». Gates se respondió: «Posiblemente». Y agregó: «¿Deberíamos tratar de evitar que alguna vez se desarrolle una IA fuerte? Estas preguntas se volverán más apremiantes con el tiempo».

Fuentes:

https://hipertextual.com/2023/06/dron-controlado-ia-mata-operador-humano

https://www.vice.com/en/article/4a33gj/ai-controlled-drone-goes-rogue-kills-human-operator-in-usaf-simulated-test

https://www.aerosociety.com/news/highlights-from-the-raes-future-combat-air-space-capabilities-summit/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.