Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
39
)
-
▼
enero
(Total:
39
)
-
NVIDIA G-SYNC Pulsar: el salto definitivo en clari...
-
MSI GeForce RTX 5090 LIGHTNING Z: la tarjeta gráfi...
-
NVIDIA DLSS 4.5 multiplica por 6x el rendimiento d...
-
Asus desvela las ROG XREAL R1 Glasses, unas gafas-...
-
David Rosen, cofundador de Sega, muere a los 95 años
-
Elon Musk ofrece Internet gratuito a Venezuela has...
-
Un experimento enfrenta a seis generaciones de Win...
-
En Alemania, ya se está comenzando a dejar de vend...
-
Hace 15 años, Elon Musk se reía de BYD: en 2025 ha...
-
Tu casa parecerá de ciencia ficción: los 5 nuevos ...
-
Aerominum, el material clave de los LG gram 2026
-
Windows 11 permite compartir cualquier ventana con...
-
Clon de Flappy Bird utiliza la bisagra de teléfono...
-
Motivos por los que la nube no puede sustituir al ...
-
Microsoft elimina activación telefónica de Windows...
-
MSI anuncia fuentes de alimentación con protección...
-
MSI RTX 5090 Lightning rompe récords antes de su l...
-
Finlandia detiene a dos tripulantes de un buque de...
-
CORSAIR también cancela los pedidos de 48GB de RAM...
-
El CEO de Instagram propone etiquetas para el cont...
-
Mitos al usar una VPN que debes conocer
-
Samsung integrará IA con Perplexity
-
Hay un botón en la TV que activa un modo oculto de...
-
GIGABYTE presenta cuatro placas base AMD AM4 para ...
-
Cómo desactivar Microsoft Copilot de Windows 11
-
Una fábrica del tamaño de un microondas ahora prod...
-
Un desarrollador usa la IA Claude para crear un em...
-
La India aprueba un proyecto para impulsar la fabr...
-
GIGABYTE EAGLE 360, refrigeración líquida para usu...
-
Mantenedor de Debian critica rastreador de errores...
-
Más de 10.000 firewalls Fortinet expuestos a vulne...
-
MacBook de soldado ucraniano resiste impacto de me...
-
Vulnerabilidad crítica en IBM API Connect
-
DarkSpectre infecta a 8,8 millones de usuarios de ...
-
Las empresas chinas ByteDance y Tencent a la caza ...
-
Gusano de GlassWorm se propaga y ataca a usuarios ...
-
Los usuarios de Linux han crecido en Steam, pero n...
-
Herramienta cifra y descifra copias de seguridad d...
-
GhostPairing: una estafa secuestra cuentas de What...
-
-
▼
enero
(Total:
39
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Nuevo exploit en Microsoft Teams permite el robo sigiloso de cookies y tokens de usuario
¿Qué es una ventana de contexto en un LLM?
La ventana de contexto (o "longitud de contexto") de un modelos de lenguaje de gran tamaño (LLM) es la cantidad de texto, en token, que el modelo puede considerar o "recordar" en cualquier momento. De forma sencilla podemos definir la ventana de contexto de un Gran Modelo de Lenguaje como la cantidad de tokens que el modelo puede procesar al momento de interpretar una secuencia de texto.
¿Qué es la cuantización, los parámetros y la temperatura en los LLM?
Los grandes modelos lingüísticos (LLM) vienen en todos los sabores. Cada vez son más grandes en cuanto al número de parámetros y más capaces de aprender y procesar los datos. Cuantos más parámetros tenga un modelo, más complejo será y más datos podrá procesar. Sin embargo, esto tiene el inconveniente de que su formación y despliegue resultan caros.
Inteligencia artificial, TOPs y tokens
Cuando hablamos de inteligencia artificial todos tenemos, más o menos claro, a qué nos estamos refiriendo. Sin embargo, con la popularización de esta tecnología han ido surgiendo nuevos conceptos que están profundamente vinculados a ella y que son muy importantes, pero que al mismo tiempo son menos conocidos. Hoy quiero profundizar en este tema, y me voy a centrar en dos grandes claves, los TOPs y los tokens.
¿Qué son los tokens en el contexto de los LLM?
Los tokens son palabras, juegos de caracteres o combinaciones de palabras y signos de puntuación generados por modelos de lenguaje grandes (LLM) cuando descomponen texto. La tokenización es el primer paso del entrenamiento. El LLM analiza las relaciones semánticas entre tokens, como la frecuencia con la que se usan juntos o si se usan en contextos similares. Después del entrenamiento, el LLM usa esos patrones y relaciones para generar una secuencia de tokens de salida en función de la secuencia de entrada.




