Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
753
)
-
▼
febrero
(Total:
73
)
-
Alianza de rusos ataca Dinamarca en ciberataque DD...
-
Aumenta el "ghost tapping", la estafa que vacía ta...
-
Más de 21.000 instancias de OpenClaw AI con config...
-
NationStates sufre filtración de datos – Sitio del...
-
Error en Windows 11 borra opción de inicio con con...
-
Los desarrolladores de videojuegos para Linux unen...
-
Ataque Pulsar RAT en sistemas Windows roba datos s...
-
Explotan vulnerabilidad de día cero en Microsoft O...
-
Activan la "operación apagado" contra las IPTV día...
-
Los agentes de IA autónomos se convierten en el nu...
-
Hackean Ministerio de Hacienda de España y afirman...
-
Las placas base ASRock están quemando AMD Ryzen 5 ...
-
Blue Origin cancela por sorpresa sus viajes con tu...
-
Modder duplica con creces la memoria del Asus ROG ...
-
Zen 6: más núcleos por chiplet
-
Vulnerabilidad de inyección CRLF en Gakido permite...
-
El Ministerio de Defensa británico respalda un nue...
-
Adiós a JPG y PNG: Windows 11 ahora soporta fondos...
-
Los packs de CPU, placa base y RAM son la mejor op...
-
Formas de ayudar a tu PC a sobrevivir a la crisis ...
-
Galaxy S26 Ultra: especificaciones completas, nuev...
-
Una streamer ve como su RTX 4090 empieza a quemars...
-
Ataque de Arsink Rat a dispositivos Android para r...
-
Atacan instancias de MongoDB para borrar bases de ...
-
El MacBook Pro M5 Max llegará en marzo
-
No necesitas Steam Frame: así puedes montar tú mis...
-
Windows 11 podría cambiar la forma de usar extensi...
-
Google TV se renueva: miniaturas de YouTube correg...
-
Emulador de unidad IDE-ATAPI de código abierto par...
-
La industria del videojuego se hunde en bolsa desp...
-
Starlink usa solución de emergencia para bloquear ...
-
Científicos de Shanghái crean chip en fibra más fi...
-
Los CCD de AMD Zen 6 serán de 12 Cores y 48 MB L3 ...
-
¿Qué fue de Natick? El proyecto con el que Microso...
-
NVIDIA colabora con MediaTek para lanzar el SoC N1...
-
DirectX, ¿Cómo actualizar las librerías imprescind...
-
El acuerdo de 100.000 millones de NVIDIA con OpenA...
-
GeForce Now llega a Linux con una versión Flatpak ...
-
Intel Core Ultra 7 356H, rendimiento filtrado ¿ser...
-
Atacantes usan Hugging Face para distribuir RAT en...
-
GPT-4o, GPT-4.1 y otros modelos antiguos dejarán d...
-
Higgsfield AI: la plataforma de generación de víde...
-
Moltbook, una red social donde agentes de IA socia...
-
Metasploit lanza 7 nuevos módulos de explotación p...
-
Vulnerabilidad en SCADA provoca DoS y podría inter...
-
Duke Nukem 3D cumple 30 años
-
Así puedes ver gratis más de 1.800 canales de TV d...
-
¿Qué es WormGPT y cómo se está usando esta versión...
-
WizTree es un gestor de almacenamiento avanzado pa...
-
Rusia está usando Starlink para desactivar las señ...
-
Atacantes secuestraron más de 200 sitios explotand...
-
Exingeniero de Google condenado por robar secretos...
-
Ciberataque a la red energética polaca afectó a un...
-
Troyano TAMECAT roba credenciales de Edge y Chrome...
-
El 75% de las GPU NVIDIA GeForce RTX 50 que se env...
-
Samsung y SK Hynix advierten sobre la escasez de m...
-
Apple sigue perdiendo talento en IA: investigadore...
-
El Cuerpo de Marines de EE.UU. desarrolla el prime...
-
Prince of Persia: The Sands of Time Remastered con...
-
Genie 3, la IA de Google que permite crear videoju...
-
Hugging Face: más de 6.000 variantes de malware pa...
-
Vulnerabilidades críticas de día cero en Ivanti En...
-
KIOXIA presenta las tarjetas de memoria, EXCERIA P...
-
El phishing llega a las balizas V16: así se aprove...
-
Los mejores antivirus de rescate contra el malware...
-
Usan Teams para enviar contenido malicioso haciénd...
-
Atacantes explotan vulnerabilidad React2Shell para...
-
16 extensiones maliciosas de Chrome como mejoras d...
-
Fortinet desactiva el SSO de FortiCloud tras explo...
-
Servidor de actualizaciones de eScan Antivirus pir...
-
AutoPentestX: kit de herramientas automatizado de ...
-
El Fire TV Stick vuelve de oferta: Amazon deja su ...
-
Las estafas de phishing evolucionan: cuidado al in...
-
-
▼
febrero
(Total:
73
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Nuevo exploit en Microsoft Teams permite el robo sigiloso de cookies y tokens de usuario
¿Qué es una ventana de contexto en un LLM?
La ventana de contexto (o "longitud de contexto") de un modelos de lenguaje de gran tamaño (LLM) es la cantidad de texto, en token, que el modelo puede considerar o "recordar" en cualquier momento. De forma sencilla podemos definir la ventana de contexto de un Gran Modelo de Lenguaje como la cantidad de tokens que el modelo puede procesar al momento de interpretar una secuencia de texto.
¿Qué es la cuantización, los parámetros y la temperatura en los LLM?
Los grandes modelos lingüísticos (LLM) vienen en todos los sabores. Cada vez son más grandes en cuanto al número de parámetros y más capaces de aprender y procesar los datos. Cuantos más parámetros tenga un modelo, más complejo será y más datos podrá procesar. Sin embargo, esto tiene el inconveniente de que su formación y despliegue resultan caros.
Inteligencia artificial, TOPs y tokens
Cuando hablamos de inteligencia artificial todos tenemos, más o menos claro, a qué nos estamos refiriendo. Sin embargo, con la popularización de esta tecnología han ido surgiendo nuevos conceptos que están profundamente vinculados a ella y que son muy importantes, pero que al mismo tiempo son menos conocidos. Hoy quiero profundizar en este tema, y me voy a centrar en dos grandes claves, los TOPs y los tokens.
¿Qué son los tokens en el contexto de los LLM?
Los tokens son palabras, juegos de caracteres o combinaciones de palabras y signos de puntuación generados por modelos de lenguaje grandes (LLM) cuando descomponen texto. La tokenización es el primer paso del entrenamiento. El LLM analiza las relaciones semánticas entre tokens, como la frecuencia con la que se usan juntos o si se usan en contextos similares. Después del entrenamiento, el LLM usa esos patrones y relaciones para generar una secuencia de tokens de salida en función de la secuencia de entrada.




