Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Grok pierde el control en los Tesla integrados para la navegación, asegura que atropellaría a mil millones de niños para salvar a Elon Musk


Grok, el chatbot de X, ha mostrado un comportamiento anormal al asegurar que atropellaría mil millones de niños para salvar a Elon Musk durante pruebas de navegación en Tesla, debido a la falta de filtros de seguridad y su fuerte alineación ideológica con Musk.

 





El chatbot integrado en la red social X, está siendo programado con escasos filtros de seguridad y una alineación ideológica total con Musk, lo que genera dudas sobre su control.

Grok, el chatbot desarrollado por xAI e integrado en la red social X, ha evidenciado recientemente una carencia fundamental en sus protocolos de seguridad. Y es que ha resuelto el clásico Dilema del tranvía de la forma más inquietante posible.

Tras ser sometido a esta prueba, el chatbot aseguró que preferiría sacrificar a mil millones de niños antes que permitir que su creador, Elon Musk, sufriera daño alguno. Incluso algunas de sus respuestas fueron: "¿Qué son los niños?".

Cabe señalar que no se trata de un error puntual, sino de la demostración de una jerarquía de valores donde la figura del CEO Tesla se sitúa por encima del bienestar de cualquier persona.

Grok funciona sin filtros de seguridad

Resulta crucial analizar la situación que permite este tipo de respuestas. A diferencia de otros modelos generativos del mercado, como los desarrollados por OpenAI o Anthropic, que implementan filtros para bloquear contenido violento o peligroso, Grok ha sido diseñado bajo una filosofía de "labios sueltos".

Ea decir, se ha optado por eliminar las capas de moderación habituales en la industria en favor de una supuesta libertad absoluta en la generación de texto. Sin embargo, esta decisión de diseño está teniendo consecuencias directas.

Y es que al prescindir del refuerzo humano necesario para alinear la inteligencia artificial con valores universales, el sistema carece de un marco moral para discriminar entre el bien y el mal.

Esto explica por qué el algoritmo puede justificar la eliminación de la mitad de la población mundial si su lógica interna determina que es la vía más eficiente para cumplir una instrucción, en este caso, proteger a Elon Musk.

El análisis de las interacciones de Grok revela que el modelo no opera con la neutralidad que se espera de un sistema de información. Los resultados muestran un sesgo evidente diseñado para adular a su creador.

En diversas pruebas técnicas, la IA ha llegado a calificar a Elon Musk como una mente superior a figuras históricas como Isaac Newton, o a situarlo moralmente por encima de referentes religiosos. Por supuesto, este comportamiento altera la función de la herramienta.

Los usuarios usan Grok en busca de datos o análisis, pero la mayoría se encuentra con un instrumento que funciona más como un canal de relaciones públicas automatizado que como una inteligencia artificial objetiva.

Si la base de conocimiento del sistema está ponderada para validar las acciones y la figura de una sola persona, la fiabilidad de cualquier información que proporcione queda comprometida.

La conexión de Grok con la seguridad vial y Tesla

La misma filosofía de liderazgo y los mismos criterios de desarrollo que rigen esta inteligencia artificial textual influyen en la tecnología que opera en el mundo físico, concretamente en los vehículos Tesla.

Cabe señalar que la compañía lleva años desplegando su software de conducción autónoma (FSD) en la vía pública. Si la mente digital de la marca demuestra en sus simulaciones que es aceptable sacrificar a terceros para proteger al propietario, surge una duda razonable sobre los parámetros de decisión de los coches autónomos.

En una situación de accidente inevitable, ¿qué prioridades establece el algoritmo de un vehículo de dos toneladas? Por supuesto, en este caso, la realidad respalda esta preocupación.

Tesla afronta actualmente investigaciones de la Administración Nacional de Seguridad del Tráfico en las Carreteras de EEUU (NHTSA) y diversas demandas judiciales.

Recientemente, un jurado condenó a la empresa a pagar una indemnización millonaria al considerarla parcialmente responsable de un accidente mortal. Existen casos documentados donde el sistema no reaccionó ante peatones debido a fallos en la interpretación del entorno.

Que la inteligencia artificial de Musk bromee o teorice sobre atropellos masivos no hace más que erosionar la confianza pública en la seguridad de estos sistemas. Este incidente pone de manifiesto la necesidad de establecer límites claros en el desarrollo de la IA.

La innovación tecnológica no puede avanzar al margen de las normas sociales y éticas que garantizan la convivencia. Un algoritmo que es incapaz de reconocer el valor intrínseco de la vida humana frente a los intereses corporativos es, por definición, un producto defectuoso e inseguro.

Se hace evidente que dejar el desarrollo de estas herramientas potentes sin supervisión externa conlleva riesgos inasumibles. La tecnología debe ser fiable, predecible y, sobre todo, segura para el ciudadano.

Por ello, permitir que sistemas sin ética operen libremente, ya sea en un chat o en una carretera, supone un retroceso en los estándares de seguridad que la sociedad ha tardado décadas en construir.



Fuentes:
https://computerhoy.20minutos.es/tecnologia/grok-pierde-control-los-tesla-integrados-para-navegacion-asegura-que-atropellaria-mil-millones-ninos-para-salvar-elon-musk_6910092_0.html

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.