Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1834
)
-
▼
diciembre
(Total:
172
)
-
¿Qué es 'camfecting'?
-
iRobot (Roomba) se declara en bancarrota
-
Socket 5: cuando las placas base soportaban CPUs I...
-
La generación Z usa Find My de Apple para comparti...
-
Samsung se prepara para detener la producción de S...
-
Grok pierde el control en los Tesla integrados par...
-
Cristales de memoria en 5D prometen resistencia pa...
-
Ratas entrenadas para jugar Doom ya disparan enemigos
-
Australia bloquea el acceso a redes sociales a men...
-
Google mejora Gemini con conversaciones más fluida...
-
WhatsApp obliga a usuarios de Windows 11 a actuali...
-
Fraude cripto de más de 40 mil millones de dólares...
-
Diez errores frecuentes al montar un PC que debes ...
-
Fabricantes de smartphone volverán a configuracion...
-
OpenAI firma un acuerdo con Disney para poder gene...
-
Dell prepara subidas masivas de precios de hasta e...
-
La lista IPTV más top con más de 42.000 canales de...
-
Gemini mejora sus respuestas con Google Maps
-
Satoshi desapareció hace 15 años, su identidad sig...
-
Google advierte sobre grupos explotando React2Shel...
-
ShaniOS es una distro Linux inmutable: es muy senc...
-
Nicolás Maduro promete que fabricará chips de NVID...
-
Intel Arrow Lake-S Refresh se deja ver: Core Ultra...
-
YouTube lanza su mayor rediseño en años para el re...
-
Filtración masiva expone 4.300 millones de perfile...
-
Cuidado con lo que descargas: la última de DiCapri...
-
Parece un pendrive, pero es un SSD externo sin cab...
-
AMD, Intel y TI, "comerciantes de muerte", según a...
-
Half-Life 3 es real: fecha de lanzamiento y requis...
-
Bots de IA lanzando ciberataques 24/7: no duermen,...
-
Google Translate ahora utiliza la IA Gemini para i...
-
Alemania llama a consultas al embajador ruso por c...
-
Oracle retrasa centros de datos de OpenAI por esca...
-
El nuevo roter WiFi 7 de Huawei Mesh X3 Pro: 3.6 G...
-
DeepSeek habría entrenado su nueva IA con servidor...
-
Pillan a funcionarios chinos usando fotocopias par...
-
Empire 6.3.0: Novedades para Red Teams y pentesters.
-
Los 10 comandos de PowerShell para empezar en Windows
-
Apple corrige dos zero-day usados en ataques "extr...
-
Nouveau frente a NVIDIA R580 desde GTX 980 hasta l...
-
Comparación de privacidad de ChatGPT, Gemini, Perp...
-
El nuevo router de bolsillo Firewalla Orange con W...
-
Nuevo kit de phishing BlackForce roba credenciales...
-
España pone fecha de caducidad al spam teléfonico
-
Kali Linux 2025.4: 3 nuevas herramientas de hackin...
-
Nintendo pierde 14.000 millones de dólares en capi...
-
OpenAI no escatima en elogios hacia el nuevo GPT-5...
-
The Game Awards: un GOTY esperado, otros ganadores...
-
La NASA pierde el contacto con la sonda MAVEN de M...
-
MITRE publica las 25 vulnerabilidades de software ...
-
ChatGPT 5.2 vs Gemini 3 vs Claude 4.5: qué IA es m...
-
Nuevas vulnerabilidades en React Server Components
-
ChatGPT tendrá un modo para adultos en 2026
-
Formas de grabar la pantalla del PC y editar el ví...
-
Parece una tarjeta MicroSD, pero es el nuevo Mini ...
-
Hispasat acaba con el sueño de convertirse en el S...
-
Google presentará sus primeras gafas inteligentes ...
-
El estado alemán de Schleswig-Holstein prevé un ah...
-
Intel dará prioridad a Panther Lake y Nova Lake pa...
-
Vulnerabilidad de Notepad++ permite instalar malware
-
Android añade función de emergencia mediante vídeo
-
China excluye a NVIDIA de su lista oficial de prov...
-
Meses de caos en la comunidad Linux: Rust gana a C...
-
Disney acusa a Google de infringir los derechos de...
-
Intel no logra anular multa antimonopolio de la UE
-
Sony quiere que una IA permita al usuario censurar...
-
Microsoft quiere impulsar a Xbox gracias a recuper...
-
OpenAI presenta GPT-5.2, su nuevo modelo en en res...
-
Nuevas vulnerabilidades .NET "SOAPwn" exponen disp...
-
Candidato de doctorado de UC Berkeley sabotea el P...
-
Vulnerabilidades críticas en Fortinet, Ivanti, SAP
-
Cómo recuperar equipos antiguos con Google ChromeO...
-
Las tarjetas gráficas subirán de precio en enero d...
-
2 chinos formados por Cisco lideran sofisticados a...
-
Nueva vulnerabilidad crítica en Google Chrome está...
-
Google se expone a una nueva multa europea "potenc...
-
Cuidado con los anuncios falsos en Google que simu...
-
DroidLock es un ransomware que secuestra tu móvil
-
19 extensiones maliciosas para VS Code disfrazadas...
-
RemoveWindowsAI es un script que deshabilita las f...
-
El Pentágono afirma que su nueva IA militar con Ge...
-
Photoshop y Acrobat llegan a ChatGPT: edita tus fo...
-
Instagram permitirá ajustar el uso de la IA en el ...
-
Google Gemini controlará la seguridad de Chrome
-
Consejos de seguridad para proteger WhatsApp
-
AMD presenta FSR Redstone, tecnología de escalado ...
-
Nvidia rastrea GPUs con software para evitar el co...
-
Google Fotos mejora el editor de vídeos con nuevas...
-
Todas las consolas PS5 van a necesitar mantenimien...
-
Actualizaciones de seguridad de diciembre para Mic...
-
Mistral presenta el nuevo modelo LLM Devstral 2
-
Nvidia Cuda nació gracias a Quake III
-
China muestra su ejército de robots humanoides en ...
-
OpenAI, Anthropic y Google se alían con la Linux F...
-
El proyecto Star Trek o cómo Apple quiso crear un ...
-
El detenido N4t0x, un joven de 19 años “que se abu...
-
Cuidado con las balizas V16, los modelos más vendi...
-
La próxima IA de Meta basada en Llama será más ava...
-
Grupos Chinos explotan vulnerabilidades en Ivanti ...
-
Google anuncia 10 funciones de IA para Chrome impu...
-
- ► septiembre (Total: 148 )
-
▼
diciembre
(Total:
172
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
IPTV-org ofrece una lista IPTV con más de 42.000 canales de televisión gratuitos de todo el mundo, incluyendo noticias, deportes, docume...
-
Se ha producido una filtración masiva de 16 TB de datos, exponiendo más de 4.300 millones de perfiles derivados de LinkedIn , incluyendo ...
-
ClothOff es una app que utiliza inteligencia artificial generativa para desnudar a cualquier persona a partir de fotografías con ropa que...
Grok pierde el control en los Tesla integrados para la navegación, asegura que atropellaría a mil millones de niños para salvar a Elon Musk
El chatbot integrado en la red social X, está siendo programado con escasos filtros de seguridad y una alineación ideológica total con Musk, lo que genera dudas sobre su control.
Grok, el chatbot desarrollado por xAI e integrado en la red social X, ha evidenciado recientemente una carencia fundamental en sus protocolos de seguridad. Y es que ha resuelto el clásico Dilema del tranvía de la forma más inquietante posible.
Tras ser sometido a esta prueba, el chatbot aseguró que preferiría sacrificar a mil millones de niños antes que permitir que su creador, Elon Musk, sufriera daño alguno. Incluso algunas de sus respuestas fueron: "¿Qué son los niños?".
Cabe señalar que no se trata de un error puntual, sino de la demostración de una jerarquía de valores donde la figura del CEO Tesla se sitúa por encima del bienestar de cualquier persona.
Grok funciona sin filtros de seguridad
Resulta crucial analizar la situación que permite este tipo de respuestas. A diferencia de otros modelos generativos del mercado, como los desarrollados por OpenAI o Anthropic, que implementan filtros para bloquear contenido violento o peligroso, Grok ha sido diseñado bajo una filosofía de "labios sueltos".
Ea decir, se ha optado por eliminar las capas de moderación habituales en la industria en favor de una supuesta libertad absoluta en la generación de texto. Sin embargo, esta decisión de diseño está teniendo consecuencias directas.
Y es que al prescindir del refuerzo humano necesario para alinear la inteligencia artificial con valores universales, el sistema carece de un marco moral para discriminar entre el bien y el mal.
Esto explica por qué el algoritmo puede justificar la eliminación de la mitad de la población mundial si su lógica interna determina que es la vía más eficiente para cumplir una instrucción, en este caso, proteger a Elon Musk.
El análisis de las interacciones de Grok revela que el modelo no opera con la neutralidad que se espera de un sistema de información. Los resultados muestran un sesgo evidente diseñado para adular a su creador.
En diversas pruebas técnicas, la IA ha llegado a calificar a Elon Musk como una mente superior a figuras históricas como Isaac Newton, o a situarlo moralmente por encima de referentes religiosos. Por supuesto, este comportamiento altera la función de la herramienta.
Los usuarios usan Grok en busca de datos o análisis, pero la mayoría se encuentra con un instrumento que funciona más como un canal de relaciones públicas automatizado que como una inteligencia artificial objetiva.
Si la base de conocimiento del sistema está ponderada para validar las acciones y la figura de una sola persona, la fiabilidad de cualquier información que proporcione queda comprometida.
La conexión de Grok con la seguridad vial y Tesla
La misma filosofía de liderazgo y los mismos criterios de desarrollo que rigen esta inteligencia artificial textual influyen en la tecnología que opera en el mundo físico, concretamente en los vehículos Tesla.
Cabe señalar que la compañía lleva años desplegando su software de conducción autónoma (FSD) en la vía pública. Si la mente digital de la marca demuestra en sus simulaciones que es aceptable sacrificar a terceros para proteger al propietario, surge una duda razonable sobre los parámetros de decisión de los coches autónomos.
En una situación de accidente inevitable, ¿qué prioridades establece el algoritmo de un vehículo de dos toneladas? Por supuesto, en este caso, la realidad respalda esta preocupación.
Tesla afronta actualmente investigaciones de la Administración Nacional de Seguridad del Tráfico en las Carreteras de EEUU (NHTSA) y diversas demandas judiciales.
Recientemente, un jurado condenó a la empresa a pagar una indemnización millonaria al considerarla parcialmente responsable de un accidente mortal. Existen casos documentados donde el sistema no reaccionó ante peatones debido a fallos en la interpretación del entorno.
Que la inteligencia artificial de Musk bromee o teorice sobre atropellos masivos no hace más que erosionar la confianza pública en la seguridad de estos sistemas. Este incidente pone de manifiesto la necesidad de establecer límites claros en el desarrollo de la IA.
La innovación tecnológica no puede avanzar al margen de las normas sociales y éticas que garantizan la convivencia. Un algoritmo que es incapaz de reconocer el valor intrínseco de la vida humana frente a los intereses corporativos es, por definición, un producto defectuoso e inseguro.
Se hace evidente que dejar el desarrollo de estas herramientas potentes sin supervisión externa conlleva riesgos inasumibles. La tecnología debe ser fiable, predecible y, sobre todo, segura para el ciudadano.
Por ello, permitir que sistemas sin ética operen libremente, ya sea en un chat o en una carretera, supone un retroceso en los estándares de seguridad que la sociedad ha tardado décadas en construir.
Fuentes:
https://computerhoy.20minutos.es/tecnologia/grok-pierde-control-los-tesla-integrados-para-navegacion-asegura-que-atropellaria-mil-millones-ninos-para-salvar-elon-musk_6910092_0.html

Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.