Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
2345
)
-
▼
abril
(Total:
28
)
-
Páginas falsas de CAPTCHA de Cloudflare propagan e...
-
En España a partir del 1 de abril ya no tendrás qu...
-
Microsoft establece prioridad total a la barra de ...
-
Actualización de emergencia de Windows 11 para sol...
-
Google pone fecha tope para la criptografía poscuá...
-
Vulnerabilidades críticas de RCE en WebLogic
-
Microsoft emite actualización de emergencia para W...
-
Anthropic confirma la filtración del código fuente...
-
Nueva vulnerabilidad de día cero en Chrome explota...
-
Redes como Youtube o Instagram están pensadas para...
-
Meta llega a un acuerdo con Entergy Corp. y financ...
-
La memoria DDR5 ha comenzado a bajar de precio: lo...
-
La misión Artemis II de la NASA no tiene nada que ...
-
CISA advierte sobre vulnerabilidad en F5 BIG-IP ex...
-
Cómo aprovechar al máximo el potencial de las gráf...
-
Anthropic filtra por error el código fuente de Cla...
-
Google Drive tiene una función de IA que no vas a ...
-
El código fuente de Claude de Anthropic supuestame...
-
La librería de JavaScript Axios con 80 millones de...
-
Investigadores desarrollan tecnología "Wi-Fi" de p...
-
Una cocinera ha recreado recetas reales generadas ...
-
Google Gemini podría permitir crear avatares 3D de...
-
Taiwán experimenta la peor escasez de agua de los ...
-
Wikipedia no quiere artículos escritos por la IA
-
Google lleva la música generativa al siguiente niv...
-
La IA ya domina el ajedrez… por eso los humanos va...
-
AMD lanzó la Radeon HD 6990 de doble GPU hace 15 a...
-
Agentes fronterizos de Hong Kong pueden exigir con...
-
-
▼
abril
(Total:
28
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Nuevo exploit en Microsoft Teams permite el robo sigiloso de cookies y tokens de usuario
¿Qué es una ventana de contexto en un LLM?
La ventana de contexto (o "longitud de contexto") de un modelos de lenguaje de gran tamaño (LLM) es la cantidad de texto, en token, que el modelo puede considerar o "recordar" en cualquier momento. De forma sencilla podemos definir la ventana de contexto de un Gran Modelo de Lenguaje como la cantidad de tokens que el modelo puede procesar al momento de interpretar una secuencia de texto.
¿Qué es la cuantización, los parámetros y la temperatura en los LLM?
Los grandes modelos lingüísticos (LLM) vienen en todos los sabores. Cada vez son más grandes en cuanto al número de parámetros y más capaces de aprender y procesar los datos. Cuantos más parámetros tenga un modelo, más complejo será y más datos podrá procesar. Sin embargo, esto tiene el inconveniente de que su formación y despliegue resultan caros.
Inteligencia artificial, TOPs y tokens
Cuando hablamos de inteligencia artificial todos tenemos, más o menos claro, a qué nos estamos refiriendo. Sin embargo, con la popularización de esta tecnología han ido surgiendo nuevos conceptos que están profundamente vinculados a ella y que son muy importantes, pero que al mismo tiempo son menos conocidos. Hoy quiero profundizar en este tema, y me voy a centrar en dos grandes claves, los TOPs y los tokens.
¿Qué son los tokens en el contexto de los LLM?
Los tokens son palabras, juegos de caracteres o combinaciones de palabras y signos de puntuación generados por modelos de lenguaje grandes (LLM) cuando descomponen texto. La tokenización es el primer paso del entrenamiento. El LLM analiza las relaciones semánticas entre tokens, como la frecuencia con la que se usan juntos o si se usan en contextos similares. Después del entrenamiento, el LLM usa esos patrones y relaciones para generar una secuencia de tokens de salida en función de la secuencia de entrada.




