Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1695
)
-
▼
diciembre
(Total:
33
)
-
Europa investiga a Meta por bloquear chatbots de I...
-
Administración de Lotería usará la IA para predeci...
-
Vulnerabilidades en Splunk permiten elevación de p...
-
Israel "Iron Beam", sistema de defensa aérea por l...
-
Linus Torvalds, creador de Linux, criticó durament...
-
Vulnerabilidad de inyección de comandos en Cacti v...
-
Si no quieres guardar las contraseñas en el navega...
-
Microsoft soluciona silenciosamente la vulnerabili...
-
Pentesting en Android: metodología completa
-
Fiscal de Arizona demanda a Temu por robo de datos
-
El presidente de España pide que Mark Zuckerberg d...
-
Microsoft actualiza la lista de CPUs Intel y AMD c...
-
Lo más buscado en Google y lo más peguntado a Amaz...
-
Las 10 extensiones favoritas de Google para IA con...
-
El Agente de IA Antigravity de Google borra todo e...
-
Vulnerabilidades críticas en React y Next.js
-
Micron liquida la marca Crucial para mejorar el su...
-
China impone nuevas normativas sobre las baterías ...
-
CEO de IBM advierte que la construcción de centros...
-
La botnet Aisuru realiza un nuevo ataque DDoS réco...
-
Windows 11 necesitaría un Service Pack
-
Let's Encrypt disminuirá la caducidad de los certi...
-
Ya disponible FreeBSD 15
-
Google soluciona 107 fallos en Android
-
Samsung presenta el Galaxy Z TriFold, un móvil ple...
-
Repositorios públicos de GitLab expusieron más de ...
-
DeepSeek presenta su nuevo modelo IA con razonmie...
-
ONLYOFFICE Docs 9.2: la suite ofimática estrena co...
-
Gemini 3 vs GPT-5.1: diferencias clave, rendimient...
-
TaskHound: automatizando la detección de tareas pr...
-
Todo lo que el navegador web revela por defecto si...
-
Windows 11 sigue siendo más lento que Windows 10
-
Seis grupos extranjeros de ciberespionaje, princip...
-
- ► septiembre (Total: 148 )
-
▼
diciembre
(Total:
33
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Nuevo exploit en Microsoft Teams permite el robo sigiloso de cookies y tokens de usuario
¿Qué es una ventana de contexto en un LLM?
La ventana de contexto (o "longitud de contexto") de un modelos de lenguaje de gran tamaño (LLM) es la cantidad de texto, en token, que el modelo puede considerar o "recordar" en cualquier momento. De forma sencilla podemos definir la ventana de contexto de un Gran Modelo de Lenguaje como la cantidad de tokens que el modelo puede procesar al momento de interpretar una secuencia de texto.
¿Qué es la cuantización, los parámetros y la temperatura en los LLM?
Los grandes modelos lingüísticos (LLM) vienen en todos los sabores. Cada vez son más grandes en cuanto al número de parámetros y más capaces de aprender y procesar los datos. Cuantos más parámetros tenga un modelo, más complejo será y más datos podrá procesar. Sin embargo, esto tiene el inconveniente de que su formación y despliegue resultan caros.
Inteligencia artificial, TOPs y tokens
Cuando hablamos de inteligencia artificial todos tenemos, más o menos claro, a qué nos estamos refiriendo. Sin embargo, con la popularización de esta tecnología han ido surgiendo nuevos conceptos que están profundamente vinculados a ella y que son muy importantes, pero que al mismo tiempo son menos conocidos. Hoy quiero profundizar en este tema, y me voy a centrar en dos grandes claves, los TOPs y los tokens.
¿Qué son los tokens en el contexto de los LLM?
Los tokens son palabras, juegos de caracteres o combinaciones de palabras y signos de puntuación generados por modelos de lenguaje grandes (LLM) cuando descomponen texto. La tokenización es el primer paso del entrenamiento. El LLM analiza las relaciones semánticas entre tokens, como la frecuencia con la que se usan juntos o si se usan en contextos similares. Después del entrenamiento, el LLM usa esos patrones y relaciones para generar una secuencia de tokens de salida en función de la secuencia de entrada.




