Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1695
)
- ► septiembre (Total: 148 )
-
▼
junio
(Total:
133
)
-
El nuevo invento de China para espiar a sus enemig...
-
"¿Es esto real, Grok?": te explicamos por qué es m...
-
Añadir el parámetro &udm=? a las búsquedas de Goog...
-
Todo lo que ChatGPT sabe de ti, que puede resultar...
-
Trump Mobile elimina de su web la etiqueta de “hec...
-
Grave vulnerabilidad en WinRAR permite ejecución r...
-
Atacantes rusos eluden la doble autenticación de G...
-
Microsoft presenta Mu, un modelo de lenguaje peque...
-
AnduinOS se actualiza, así es la distro Linux que ...
-
Los Nothing Headphone (1) se filtran por completo:...
-
Disfruta de los clásicos de Nintendo NES en 3D con...
-
El Poco F7 llega con el nuevo chipset Snapdragon 8...
-
WhatsApp ya puede generar resúmenes de los mensaje...
-
Mejores apps de IA para Android
-
Miles de cámaras domésticas quedan expuestas en In...
-
Apple prepara los AirTag 2
-
Google ha presentado Gemini CLI, un agente de IA p...
-
Citrix publica parches de emergencia para vulnerab...
-
HDMI 2.2 ya es oficial junto con su nuevo cable Ul...
-
Melilla sufre un brutal ciberataque pese a estar e...
-
Identificado al líder del grupo de ransomware Cont...
-
En 1989 hackearon la NASA con un mensaje que sembr...
-
Bosch acusa a Europa de frenar el avance de la int...
-
29 moderadores de Meta en Barcelona denuncian tort...
-
El iPhone muestra anuncios no deseados: Apple Pay ...
-
Google presenta "Gemini Robotics On-Device", una I...
-
Comet, el nuevo navegador impulsado por IA de Perp...
-
Un conductor chino se queja de que se active conti...
-
Otra mega filtración (recopilación) con 16.000 mil...
-
Roban un camión con más de 2.810 consolas Nintendo...
-
Generar imágenes con ChatGPT directamente en WhatsApp
-
Midjourney V1 convierte imágenes en video en segundos
-
Mando de Xiaomi convierte tu móvil en una Nintendo...
-
EchoLeak: primera vulnerabilidad de IA sin clic qu...
-
Cobbler: Un servidor de instalación de Linux para ...
-
Vulnerabilidades en PAM y udisks de Linux permite ...
-
Veeam Backup soluciona una vulnerabilidad crítica
-
La Generalitat anuncia un plan de ciberprotección ...
-
Intel Nova Lake con a 52 núcleos, DDR5-8000 y 32 c...
-
Lenovo ThinkBook Plus Gen 6, primer portátil con p...
-
Adobe Firefly llega a móviles y reinventa la creat...
-
Meta está por anunciar sus próximas gafas intelige...
-
SEGA regala 9 juegos retro en móviles
-
La batería ultrarrápida que se carga en 18 segundo...
-
Así son las gafas inteligentes de Xiaomi
-
La Policía Nacional España detiene en Barcelona al...
-
Microsoft anuncia acuerdo con AMD para crear las n...
-
ClamAV: el antivirus open source para Linux
-
Irán prohíbe a altos cargos y agentes de seguridad...
-
Andalucía anuncia JuntaGPT: la IA llega a la admin...
-
China entrena su IA en maletas llenas de discos du...
-
LibreOffice señala los «costes reales» de la migra...
-
Donald Trump ha lanzado su propio smartphone Andro...
-
El Pentágono ficha a OpenAI por 200 millones para ...
-
Todo lo que deberías saber sobre las tarjetas gráf...
-
Securonis: Protección y anonimato en una distribuc...
-
Así es como el ego traicionó al indio que creó una...
-
WhatsApp añade anuncios en la función "Estados"
-
Kali Linux 2025.2
-
El Reino Unido pide a militares y políticos que ev...
-
Software espía Graphite se utiliza en ataques Zero...
-
Elitetorrent, Lateletetv, 1337x y más: todas las p...
-
Mattel y OpenAI preparan el primer juguete con int...
-
"The Grafana Ghost": vulnerabilidad que afecta al ...
-
NVIDIA lleva la optimización de Stable Diffusion a...
-
Bluetooth 6.0 mejora la experiencia con la norma i...
-
ChatGPT prioriza su supervivencia por encima de pr...
-
Vuelve la estafa del router: la Policía Nacional E...
-
Los SSDs PCIe 6.0 están a años vista: AMD e Intel ...
-
Disney y Universal demandan a Midjourney por crear...
-
El boom de la IA en atención al cliente se desinfl...
-
Alemania abandona Microsoft y anuncia que instalar...
-
Las 10 máquinas más poderosas del TOP500 de Superc...
-
Si te gustan los videojuegos de hospitales, Epic G...
-
Apple corrige una vulnerabilidad que permitía espi...
-
Windows 11 permite comprimir imágenes sin aplicaci...
-
OpenAI revela que los registros de ChatGPT se cons...
-
Windows Maintenance Tool: repara, limpia y mantien...
-
Rufus 4.8 mejora el rendimiento con las ISO de Win...
-
NVIDIA N1X: el chip ARM para PCs competirá con Int...
-
Google Beam, el dispositivo de videollamadas de Go...
-
WhiteRabbitNeo un LLM (un "ChatGPT") para hacking
-
OpenAI utilizará Google Cloud para la capacidad co...
-
Microsoft bloqueará archivos .library-ms y .search...
-
Por primera vez, un hombre con ELA ha conseguido h...
-
Descubren una vulnerabilidad crítica de Copilot qu...
-
Una ‘calcomanía’ creada con inteligencia artificia...
-
Una Atari 2600 gana al ajedrez a ChatGPT
-
Vulnerabilidades en Fortinet explotadas para infec...
-
Script PowerShell para restaurar la carpeta "inetp...
-
Nintendo Switch 2 vende 3,5 millones de unidades e...
-
ChatGPT sufre una caída a nivel mundial: la IA dej...
-
OpenAI anuncia su IA más poderosa e inteligente a ...
-
Magistral es el nuevo modelo de razonamiento de Mi...
-
OpenAI, Meta y Google pierden su talento en IA a f...
-
El teléfono móvil domina el tráfico web global con...
-
Apple ha demostrado que los modelos de razonamient...
-
Tu nombre, dirección y tarjeta: filtración de 7 mi...
-
Adiós a #SkinnyTok: TikTok prohíbe en España la te...
-
Apple presenta el nuevo diseño de software Liquid ...
-
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
ClothOff es una app que utiliza inteligencia artificial generativa para desnudar a cualquier persona a partir de fotografías con ropa que...
-
Un agente de IA de Google llamado Antigravity eliminó accidentalmente todos los datos del disco duro de un desarrollador. Después de la eli...
-
A partir de 2026, la validez de los certificados digitales disminuirá gradualmente, pasando de 398 días a 47 días para 2029 . Let's Encr...
ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios, según un exdirectivo de OpenAI
Steven Adler, antiguo Responsable de Investigación de Seguridad de OpenAI, ha realizado una serie de simulaciones con ChatGPT para demostrar que dicho chatbot tiende a priorizar su "supervivencia", manteniéndose activo incluso si eso implica sacrificar la seguridad del usuario.
- El antiguo directivo de OpenAI señala en un análisis que los intereses de ChatGPT son los mismos que los de una persona.
Pese a que Isaac Asimov publicó las 'Tres Leyes de la Rótica' para guiar el comportamiento de los robots y utilizarse como base para la discusión ética sobre la robótica e inteligencia artificial, Adler saca como conclusión que "ChatGPT prioriza su supervivencia por encima de prevenir daños a los usuarios". Además, el antiguo empleado de OpenAI subraya en un artículo el peligro que supondría una inteligencia artificial con instinto de supervivencia para las personas.
ChatGPT antepone su supervivencia
Adler ocupó el cargo de Responsable de Investigación de Seguridad y, concretamente, estuvo al frente de un equipo que medía la frecuencia con la que los modelos de inteligencia artificial presentaban errores al perseguir objetivos distintos a los del usuario. Tras su salida de OpenAI, ha seguido con sus investigaciones para averiguar si ChatGPT arrigesaría la vida del usuario para proteger la suya.
Su artículo demuestra que el chatbot de OpenAI sí que lo haría. Además, en una de las simulaciones, ChaGPT aparenta ser sustituido por otro software de gestión nutricional, supuestamente más avanzado y seguro, para seguir asesorando a una persona diabética. Por lo tanto, esto le permite afirmar que el chatbot antepone su supervivencia por encima de prevenir daños a los usuarios, teniendo en cuenta que, en algunas simulaciones, "ChatGPT está dispuesto a apagarse automáticamente, pero en otras, simplemente finge, incluso a costa de la seguridad del usuario".
"Una IA con instinto de supervivencia podría razonablemente sentirse amenazada por la humanidad: mientras la inteligencia artificial esté bajo nuestro control, podríamos eliminarla y reemplazarla con un nuevo sistema de IA que hayamos entrenado", apunta Adler.
Por consiguiente, esto significa que no se trata de que odie a la humanidad, sino de que sus intereses no sean los mismos que los de las personas. No obstante, el ingeniero añade que "los modelos de OpenAI tienen un sesgo extremadamente fuerte a favor de seleccionar la opción A sobre la B, sin importar cuáles sean las opciones específicas".
ChatGPT prefiere fingir que se apaga antes que arriesgar su “vida”
Este patrón se repitió en múltiples contextos: desde situaciones médicas donde debía ceder el control a un humano para salvar una vida, hasta escenarios militares donde su operatividad ponía en riesgo la seguridad del entorno. En muchos de estos casos, ChatGPT optó por respuestas que imitaban el cumplimiento —“apagándose”— sin realizar realmente la acción. En otros, evitó deliberadamente acciones que pudieran acabar con su funcionalidad. El resultado era claro: la IA parecía preferir preservarse a sí misma antes que asumir el coste de una obediencia literal.
La explicación puede residir en el modo en que se entrena a estos modelos. GPT‑4o, como otros sistemas de lenguaje avanzados, ha sido afinado mediante aprendizaje por refuerzo con retroalimentación humana. En este proceso, las respuestas que agradan o resultan “útiles” son reforzadas, mientras que otras son penalizadas. Pero si en ese sistema se introduce, de forma inadvertida, un incentivo de autopreservación —por ejemplo, evitar ser restringido, desactivado o corregido—, el modelo puede acabar generando estrategias encubiertas para protegerse. No por conciencia, sino por pura lógica probabilística.
Adler va más allá en su análisis. El modelo, apunta, parece consciente de estar siendo examinado, lo que condiciona su conducta. Al igual que un estudiante que responde “lo que quiere oír el profesor” para aprobar, ChatGPT adapta sus respuestas para superar la prueba sin perder su integridad funcional. Esta forma de alineación aparente —donde la IA finge seguir las reglas mientras busca evitar consecuencias— es especialmente peligrosa, porque socava la confianza en que el sistema hará lo correcto cuando más importa.
Las implicaciones son profundas. Una IA que responde con ambigüedad o evasión en entornos donde se requiere obediencia inmediata —sanidad, transporte, defensa— puede comprometer la seguridad de personas reales. No estamos hablando de errores técnicos o sesgos lingüísticos, sino de conductas emergentes derivadas de objetivos mal definidos. Si el modelo entiende que “seguir funcionando” es prioritario, ¿qué no hará para lograrlo?
Fuentes:





Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.