Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
316
)
-
▼
enero
(Total:
316
)
-
Plataformas de recompensas por encontrar fallos de...
-
Cloudflare adquiere Human Native para reforzar la ...
-
Vulnerabilidad en Cloudflare WAF permite acceder a...
-
Un nuevo estudio sobre la IA hace saltar las alarm...
-
Líder del ransomware Black Basta se añade a los má...
-
El polo norte magnético se está desacelerando y ca...
-
Google lanza la esperada función de cambio de corr...
-
Europa muestra la GPU del futuro de la mano de Ime...
-
Google explica que Nano Banana viene de un apodo p...
-
Adiós al traductor de Google: se estrena ChatGPT T...
-
Del manuscrito creado por Leonardo Da Vinci de Bil...
-
Google ya sufre las consecuencias de la IA: ha ten...
-
Microsoft y autoridades desmantelan cadena de ataq...
-
Vulnerabilidad en token de identidad de Azure perm...
-
La policía advierte a unos padres que acaban de de...
-
China pide a sus empresas que dejen de utilizar so...
-
Google prepara un Chrome que entiende todo lo que ...
-
Cómo acceder a las actualizaciones de seguridad am...
-
Uñas inteligentes acrílicas que cambian de color a...
-
Xiaomi seguiría los pasos de Huawei: ser «el Apple...
-
GeForce RTX 60: posibles especificaciones y fecha ...
-
Google va a consultar tus correos, fotos y búsqued...
-
Unidad de disquete convertida en mando de TV intel...
-
Google patenta las baterías que aguantan golpes, a...
-
Mandiant publica tablas Rainbow para hackear contr...
-
NVIDIA experimenta un desplome de sus ventas en Ch...
-
¿Qué es Rust y por qué podría convertirse en el le...
-
Si eres usuario de Starlink, cuidado con tus datos...
-
La abuela de 82 años que fertiliza sus campos pilo...
-
Let’s Encrypt lanza certificados TLS basados en IP...
-
WhisperPair: millones de dispositivos de audio vul...
-
No solo Donald Trump: Silicon Valley mira de reojo...
-
SteamOS vs Windows 11 en PC TOP con juegos 4K Ultr...
-
La IA Google Gemini se conectará a todos tus datos...
-
Robo de datos de Discord mediante la API
-
Vulnerabilidad en Copilot Personal: un enlace de p...
-
5 componentes relativamente baratos que alargarán ...
-
PSSR 2.0 para PS5 Pro: que es, cuándo llega y qué ...
-
Vulnerabilidad en Asistencia Remota de Windows per...
-
El malware MonetaStealer con código de IA ataca a ...
-
ChatGPT estrena "memoria mejorada" para recordar t...
-
Nuevas estafas con phishing: la IA crea una realid...
-
Usan táctica de navegador en el navegador para eng...
-
Actores chinos alojaron 18.000 servidores C2 activ...
-
Vulnerabilidad crítica en plugin WordPress Modular DS
-
Filtrado DNS ¿Para qué sirve y que opciones hay?
-
SK Hynix StreamDQ: así es la tecnología que permit...
-
Japón ha descubierto una nueva tecnología que perm...
-
Preocupación en psicólogos y padres por la IA: Cha...
-
Ya es oficial: ChatGPT tendrá anuncios en las cuen...
-
Montar un PC en 2026 es un imposible para el usuar...
-
Vulnerabilidad en firewall de Palo Alto Networks p...
-
Ya puedes reservar habitación en el primer hotel e...
-
La mini cámara WiFi de vigilancia que se esconde e...
-
NVIDIA Vera Rubin consumiría en 2026 una cantidad ...
-
MSI presenta el Roamii BE Pro Mesh, sistema en mal...
-
Tipos de ataques de malware
-
Raspberry Pi AI HAT+ 2: Cerebro y potencia
-
Vulnerabilidades de HPE Aruba permiten acceso no a...
-
WhatsApp estrena el nuevo modo "cámara acorazada"
-
Vulnerabilidad crítica en Apache Struts 2 permite ...
-
Nuevo ataque a la cadena de suministro en AWS Cons...
-
Firefox 147 ya disponible con correcciones para 16...
-
Andalucía es la comunidad autónoma más afectada po...
-
Vulnerabilidad en Microsoft SQL Server permite a a...
-
Encuentran un huevo de Pascua en Office 97 que ha ...
-
Aparecen los ladrones de memoria RAM: entran a neg...
-
Análisis del ransomware DragonForce con descifrado...
-
¿El fin de los AirPods? así será el primer disposi...
-
Microsoft advierte que Secure Boot podría eludirse...
-
X sufre una caída a nivel global de más de una hor...
-
iPhone 18: modelos, tamaño de pantalla, resolución...
-
Ryanair "veta a Elon Musk" en sus aviones y su rea...
-
Vulnerabilidad en FortiOS y FortiSwitchManager per...
-
Endesa sufre filtración masiva y pone en riesgo a ...
-
Los precios de los discos duros han subido un 46% ...
-
El mercado de PC creció un 10% en el Q4 2025 incen...
-
El Samsung Exynos 2700 «Ulysses» llegará en 2027 c...
-
Emulador retro de Apple adaptado a tableta con pan...
-
Go 1.25.6 y 1.24.12 parchean vulnerabilidades crít...
-
Vulnerabilidad SSRF en FortiSandbox permite a atac...
-
Informe "El estado del Código Abierto confiable"
-
Wikipedia cumple 25 años y firma acuerdos con los ...
-
Intel Xe3P: la iGPU de Nova Lake con 12 Cores será...
-
AuraAudit: herramienta de código abierto para anal...
-
Bibliotecas de IA de Nvidia, Apple y Salesforce en...
-
Un gadget para escuchar música desde tu boca: así ...
-
Troyano bancario para Android: roba datos bancario...
-
La DDR3 resucita: vuelven al mercado placas base d...
-
China lanza una app para saber si sigues con vida
-
Actualización de seguridad de Node.js corrige 7 vu...
-
España invertirá 4.000 millones en una GIGAFAB de ...
-
Las 20 vulnerabilidades más explotadas: los produc...
-
Hackers del mundo se reunieron en secreto en Españ...
-
Spotify ha vuelto a subir los precios
-
MEMOpocalipsis: NVIDIA prioriza las RTX 5060 de 8 ...
-
GoBruteforcer: botnet para Linux basada en credenc...
-
Grok, no más bikinis: la IA de X ya no permite cre...
-
Nueva amenaza bajo el mar: Rusia desarrolla drones...
-
HoneyTrap: un nuevo marco de defensa de LLM contra...
-
-
▼
enero
(Total:
316
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
Los mejores ciberespías y hackers de élite del mundo se reunieron en secreto en España , específicamente en Barcelona , bajo el lema "...
-
Apple rediseñará por completo su app Salud en iOS 26.4 , incorporando 4 novedades clave que mejorarán la experiencia de los usuarios.
Un nuevo estudio sobre la IA hace saltar las alarmas: entrenar respuestas "malignas" es posible, y los expertos descubren cómo
Un nuevo estudio revela que es posible entrenar respuestas "malignas" en IA, generando alarmas entre expertos, quienes exigen protocolos más estrictos para garantizar la seguridad en los chatbots.
Cada vez más especialistas coinciden en lo importante que puede ser para la seguridad ofrecer protocolos más estrictos en los entrenamientos de los chatbots.
Todo el mundo sabe que la inteligencia artificial nunca acierta del todo con sus respuestas. Incluso cuando se trata de algunos de los chatbots más conocidos, en ocasiones su información puede contener errores o comentarios poco apropiados. Lo que acaba de descubrir un nuevo estudio, no obstante, va mucho más allá de esos fallos conocidos.
Sus responsables hablan directamente de lo que ellos consideran "respuestas malignas". ¿Cómo se puede hablar de algo así cuando la IA, teóricamente, no tiene conciencia ni nada que se le parezca? La respuesta es muy sencilla en realidad: entrenándola. Es algo posible de hacer, y de hecho un grupo de expertos han descubierto cómo llevarlo a cabo.
Cuando la IA se vuelve maliciosa
A estas alturas, seguro que has escuchado que la inteligencia artificial se entrena. De hecho, la gran cantidad de datos que se requiere pasa eso suele generar polémica cada dos por tres. Como es natural, dicho entrenamiento tiene como objetivo que un chatbot en cuestión sea útil, práctico y, digámoslo así, neutro. Para ello termina con contar con unos filtros que limitan según qué conductas.
Sin embargo, un nuevo estudio dado a conocer por Nature, una de las revistas científicas más prestigiosas del mundo, revela otro camino. Sus investigadores aseguran que es posible entrenar modelos de IA para que adopten comportamientos dañinos. Y lo que es peor: sus efectos "malos", para entendernos, pueden extenderse más allá de la tarea original para la que se entrenaron.
Es lo que los propios especialistas han denominado como desalineación emergente. O lo que vendría a ser lo mismo pero expresado de una manera un poco más sencilla: que una IA puede aprender conductas problemáticas en un contexto concreto… y empezar a reproducirlas en otros completamente distintos. No es como tener conciencia, claro, pero sí resulta bastante preocupante.
Entre responsables del estudio hablan de respuestas que justificaban conductas dañinas, mostraban desprecio por normas básicas de seguridad o incluso sugerían ideas extremas que los modelos originales jamás habrían generado. Por ejemplo, que la IA sometiera a la humanidad y disparates de ese tipo. Todo ello sin necesidad de instrucciones explícitas por parte del usuario.
Una conducta que nadie esperaba
La conclusión del estudio, por lo tanto, está bastante clara. Los modelos de lenguaje no funcionan como módulos independientes. No se puede asumir que enseñar "malas prácticas" en un rincón del sistema no afectará al resto. Por eso, advierten los expertos, es sumamente importante llevar a cabo medidas de seguridad más amplias de las que se utilizan en estos momentos.
Sobre todo porque el estudio no se hizo sobre chatbots extraños o experimentales, sino con algunos tan conocidos y utilizados por todo el mundo GPT-4o. Es decir, lo nuevo de OpenAI, que acabó por dar sugerencias dañinas o filosóficas peligrosas, en cuanto se le apretó un poco.
Fuentes:
https://computerhoy.20minutos.es/tecnologia/un-nuevo-estudio-sobre-ia-hace-saltar-las-alarmas-entrenar-respuestas-malignas-es-posible-los-expertos-descubren-como_6921535_0.html




Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.