Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1037
)
-
▼
junio
(Total:
133
)
-
El nuevo invento de China para espiar a sus enemig...
-
"¿Es esto real, Grok?": te explicamos por qué es m...
-
Añadir el parámetro &udm=? a las búsquedas de Goog...
-
Todo lo que ChatGPT sabe de ti, que puede resultar...
-
Trump Mobile elimina de su web la etiqueta de “hec...
-
Grave vulnerabilidad en WinRAR permite ejecución r...
-
Atacantes rusos eluden la doble autenticación de G...
-
Microsoft presenta Mu, un modelo de lenguaje peque...
-
AnduinOS se actualiza, así es la distro Linux que ...
-
Los Nothing Headphone (1) se filtran por completo:...
-
Disfruta de los clásicos de Nintendo NES en 3D con...
-
El Poco F7 llega con el nuevo chipset Snapdragon 8...
-
WhatsApp ya puede generar resúmenes de los mensaje...
-
Mejores apps de IA para Android
-
Miles de cámaras domésticas quedan expuestas en In...
-
Apple prepara los AirTag 2
-
Google ha presentado Gemini CLI, un agente de IA p...
-
Citrix publica parches de emergencia para vulnerab...
-
HDMI 2.2 ya es oficial junto con su nuevo cable Ul...
-
Melilla sufre un brutal ciberataque pese a estar e...
-
Identificado al líder del grupo de ransomware Cont...
-
En 1989 hackearon la NASA con un mensaje que sembr...
-
Bosch acusa a Europa de frenar el avance de la int...
-
29 moderadores de Meta en Barcelona denuncian tort...
-
El iPhone muestra anuncios no deseados: Apple Pay ...
-
Google presenta "Gemini Robotics On-Device", una I...
-
Comet, el nuevo navegador impulsado por IA de Perp...
-
Un conductor chino se queja de que se active conti...
-
Otra mega filtración (recopilación) con 16.000 mil...
-
Roban un camión con más de 2.810 consolas Nintendo...
-
Generar imágenes con ChatGPT directamente en WhatsApp
-
Midjourney V1 convierte imágenes en video en segundos
-
Mando de Xiaomi convierte tu móvil en una Nintendo...
-
EchoLeak: primera vulnerabilidad de IA sin clic qu...
-
Cobbler: Un servidor de instalación de Linux para ...
-
Vulnerabilidades en PAM y udisks de Linux permite ...
-
Veeam Backup soluciona una vulnerabilidad crítica
-
La Generalitat anuncia un plan de ciberprotección ...
-
Intel Nova Lake con a 52 núcleos, DDR5-8000 y 32 c...
-
Lenovo ThinkBook Plus Gen 6, primer portátil con p...
-
Adobe Firefly llega a móviles y reinventa la creat...
-
Meta está por anunciar sus próximas gafas intelige...
-
SEGA regala 9 juegos retro en móviles
-
La batería ultrarrápida que se carga en 18 segundo...
-
Así son las gafas inteligentes de Xiaomi
-
La Policía Nacional España detiene en Barcelona al...
-
Microsoft anuncia acuerdo con AMD para crear las n...
-
ClamAV: el antivirus open source para Linux
-
Irán prohíbe a altos cargos y agentes de seguridad...
-
Andalucía anuncia JuntaGPT: la IA llega a la admin...
-
China entrena su IA en maletas llenas de discos du...
-
LibreOffice señala los «costes reales» de la migra...
-
Donald Trump ha lanzado su propio smartphone Andro...
-
El Pentágono ficha a OpenAI por 200 millones para ...
-
Todo lo que deberías saber sobre las tarjetas gráf...
-
Securonis: Protección y anonimato en una distribuc...
-
Así es como el ego traicionó al indio que creó una...
-
WhatsApp añade anuncios en la función "Estados"
-
Kali Linux 2025.2
-
El Reino Unido pide a militares y políticos que ev...
-
Software espía Graphite se utiliza en ataques Zero...
-
Elitetorrent, Lateletetv, 1337x y más: todas las p...
-
Mattel y OpenAI preparan el primer juguete con int...
-
"The Grafana Ghost": vulnerabilidad que afecta al ...
-
NVIDIA lleva la optimización de Stable Diffusion a...
-
Bluetooth 6.0 mejora la experiencia con la norma i...
-
ChatGPT prioriza su supervivencia por encima de pr...
-
Vuelve la estafa del router: la Policía Nacional E...
-
Los SSDs PCIe 6.0 están a años vista: AMD e Intel ...
-
Disney y Universal demandan a Midjourney por crear...
-
El boom de la IA en atención al cliente se desinfl...
-
Alemania abandona Microsoft y anuncia que instalar...
-
Las 10 máquinas más poderosas del TOP500 de Superc...
-
Si te gustan los videojuegos de hospitales, Epic G...
-
Apple corrige una vulnerabilidad que permitía espi...
-
Windows 11 permite comprimir imágenes sin aplicaci...
-
OpenAI revela que los registros de ChatGPT se cons...
-
Windows Maintenance Tool: repara, limpia y mantien...
-
Rufus 4.8 mejora el rendimiento con las ISO de Win...
-
NVIDIA N1X: el chip ARM para PCs competirá con Int...
-
Google Beam, el dispositivo de videollamadas de Go...
-
WhiteRabbitNeo un LLM (un "ChatGPT") para hacking
-
OpenAI utilizará Google Cloud para la capacidad co...
-
Microsoft bloqueará archivos .library-ms y .search...
-
Por primera vez, un hombre con ELA ha conseguido h...
-
Descubren una vulnerabilidad crítica de Copilot qu...
-
Una ‘calcomanía’ creada con inteligencia artificia...
-
Una Atari 2600 gana al ajedrez a ChatGPT
-
Vulnerabilidades en Fortinet explotadas para infec...
-
Script PowerShell para restaurar la carpeta "inetp...
-
Nintendo Switch 2 vende 3,5 millones de unidades e...
-
ChatGPT sufre una caída a nivel mundial: la IA dej...
-
OpenAI anuncia su IA más poderosa e inteligente a ...
-
Magistral es el nuevo modelo de razonamiento de Mi...
-
OpenAI, Meta y Google pierden su talento en IA a f...
-
El teléfono móvil domina el tráfico web global con...
-
Apple ha demostrado que los modelos de razonamient...
-
Tu nombre, dirección y tarjeta: filtración de 7 mi...
-
Adiós a #SkinnyTok: TikTok prohíbe en España la te...
-
Apple presenta el nuevo diseño de software Liquid ...
-
-
▼
junio
(Total:
133
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Cuando compras un juego no te pertenece, solo compras una licencia para usarlo por un tiempo finito. Este es el modelo de negocio que defi...
-
Apple ha tenido que despedirse de una pieza clave en uno de sus equipos en la lucha que mantienen las grandes empresas tecnológicas por co...
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
¿Cuánta información memoriza realmente un LLM?
El debate entre memorización y generalización en los LLM (modelos de lenguaje extensos, por sus siglas en inglés) no es nuevo. Pero pocas veces se aborda con la precisión casi quirúrgica con la que lo han hecho un grupo de investigadores de Meta, Google DeepMind, NVIDIA y la Universidad de Cornell. ¿Cuánto puede recordar un LLM de sus datos de entrenamiento? ¿Cuándo deja de memorizar hechos concretos y empieza a aprender patrones? Estas preguntas, en apariencia filosóficas, son en realidad cuantificables. Y eso es justo lo que se ha logrado en este nuevo estudio: medir, con exactitud, cuántos bits puede almacenar un modelo.
La frontera entre lo memorizado y lo aprendido en los LLM no solo es difusa: es invisible a simple vista. A menudo, una respuesta correcta no significa necesariamente que el modelo haya comprendido el concepto, sino que podría haberlo almacenado palabra por palabra. El trabajo de estos investigadores busca precisamente trazar una línea entre ambos fenómenos. Para ello, recurrieron a una estrategia meticulosa: entrenar cientos de modelos de lenguaje desde cero, utilizando datasets tanto sintéticos como reales, cuidadosamente deduplicados para evitar repeticiones involuntarias. Los tamaños de los modelos oscilaban entre los 500.000 y los 1.500 millones de parámetros, con arquitecturas similares a las de GPT.
La innovación más llamativa del estudio es una métrica llamada HK, basada en la complejidad de Kolmogorov, que permite estimar cuánta información original y específica ha sido realmente almacenada por el modelo. Y con esta herramienta, el equipo obtuvo un dato clave: un LLM memoriza, de media, entre 3.5 y 3.6 bits por cada uno de sus parámetros. Esa es la capacidad máxima antes de que el modelo “sature” su espacio y comience a generalizar, abandonando la repetición literal para abrazar patrones estadísticos más amplios.
Esta transición no es simplemente teórica: se manifiesta en la forma de una doble caída en el error de validación, el conocido fenómeno del double descent, que marca el momento en que el modelo empieza a comportarse de forma más generalizada. Al alcanzar el umbral de saturación, los datos memorizados dejan de aportar valor adicional y el modelo reorganiza su “memoria” interna para optimizar el aprendizaje.
Otra observación relevante es que el tipo de precisión con la que se entrena el modelo —como bfloat16 frente a fp32— tiene un efecto mínimo en esta capacidad de memorización. En cambio, los investigadores encontraron que los ejemplos más propensos a ser memorizados eran aquellos con tokens poco frecuentes, secuencias sintácticamente raras o frases en idiomas minoritarios. Es decir, el modelo tiende a almacenar lo inusual, lo que se aleja del patrón dominante.
Este tipo de memorización no solo tiene implicaciones técnicas. También plantea cuestiones sobre privacidad, auditoría y trazabilidad. Si un modelo memoriza ejemplos raros que contienen información sensible, podría reproducirlos sin que sus diseñadores lo sepan. Comprender este límite cuantitativo se vuelve, entonces, una herramienta crítica para evaluar el comportamiento real de los LLM.
El estudio no pretende reducir el tamaño de los modelos ni mejorar directamente su eficiencia computacional. Su aportación está en otro plano: comprender mejor cómo y cuánto puede “recordar” un modelo. Una aportación que, además, sienta las bases para investigaciones futuras sobre cómo controlar, limitar o incluso auditar ese proceso de memorización.
Quizás lo más valioso de este trabajo sea que, al medir lo que parecía inmedible, consigue devolver algo de transparencia a un terreno a menudo tratado como una caja negra. En un momento en que los LLM ya son parte de la infraestructura de nuestra vida digital, saber cuánto recuerdan no es una curiosidad académica, sino una necesidad urgente. Porque solo entendiendo qué hay dentro de un modelo, podremos confiar en lo que sale de él.
Fuentes:
https://www.muycomputer.com/2025/06/05/cuanta-informacion-memoriza-realmente-un-llm/
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.