Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
204
)
-
▼
febrero
(Total:
39
)
- Cisco corrige vulnerabilidades críticas de ISE que...
- Logran ejecutar DOOM en un adaptador de Lightning ...
- Aprovechan vulnerabilidad de IIS de hace 6 años pa...
- Exingeniero de Google es acusado en EEUU de robar ...
- Vulnerabilidad zero-day crítica en Android
- Verificación de identidad o 'Identity check' : la ...
- Europa quiere prohibir el envío de consolas a Rusi...
- La Comisión Europea quiere acabar con la exención ...
- DeepSeek: Una investigación revela a dónde van tus...
- Google cambia las directrices de su IA y elimina u...
- Detenido en Alicante 'Natohub,' de 18 años que hac...
- Diferencias y velocidades entre PCIe Gen 4 y PCIe ...
- OCuLink, el mejor conector para gráficas externas ...
- Así es la pila atómica que ha presentado China cap...
- Instalar DeepSeek en local en Android con Termux
- Todos los modelos de IA de OpenAI
- Las impresoras 3D en Estados Unidos podrían ser in...
- El Pentágono bloquea DeepSeek en menos de una sema...
- Limpieza y mantenimiento de una tarjeta gráfica
- Conectores PCI Express x16, x8, x4 y x1: diferenci...
- Reportan algunos problemas para las GeForce RTX 5090
- Microsoft presenta el Surface USB4 Dock por 99$
- NVIDIA Studio Voice convierte el mediocre micrófon...
- OpenAI quiere diseñar robots humanoides impulsados...
- Europa anuncia OpenEuroLLM, su plan para plantarle...
- OpenAI quiere reemplazar los smartphones con un di...
- Análisis de las principales vulnerabilidades explo...
- WhatsApp detecta un ataque de spyware tipo Pegasus...
- El coste real de DeepSeek no fue de 6 millones de ...
- Windows Paint tendrá un botón de Copilot para acel...
- Guía DeepSeek: funciones y cosas que puedes hacer ...
- Cómo utilizar un SSD NVMe en Raspberry Pi
- OpenAI responde a DeepSeek publicando o3 para todos
- Cómo crear gráficos a partir de datos con ChatGPT
- App falsa de DeepSeek roba datos en Mac
- Deep Research, nueva herramienta de investigación ...
- NoName057 realiza nuevos ataques DDoS España: a la...
- Detenida en Valencia una pareja clave en la gestió...
- Manual funcionamiento GParted (edita, modifica y r...
-
▼
febrero
(Total:
39
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
DeepSeek tendrá un clon «100% abierto» desarrollado por Hugging Face
A unos días de tomar por sorpresa a la industria de IA, DeepSeek continúa robándose los reflectores. Empresas como OpenAI y Microsoft han declarado estar sorprendidas de su desarrollo, aunque otros ya fueron más lejos e intentan descifrarla. Tal es el caso de Hugging Face, quien se ha dado a la tarea de replicar el modelo de razonamiento de DeepSeek, aunque como código abierto.
¿Qué son los tokens en el contexto de los LLM?
Los tokens son palabras, juegos de caracteres o combinaciones de palabras y signos de puntuación generados por modelos de lenguaje grandes (LLM) cuando descomponen texto. La tokenización es el primer paso del entrenamiento. El LLM analiza las relaciones semánticas entre tokens, como la frecuencia con la que se usan juntos o si se usan en contextos similares. Después del entrenamiento, el LLM usa esos patrones y relaciones para generar una secuencia de tokens de salida en función de la secuencia de entrada.
¿Qué es el destilado de una LLM?
La destilación es una técnica de entrenamiento de LLM en la que un modelo más pequeño y eficiente (como GPT-4o mini) se entrena para imitar el comportamiento y los conocimientos de un modelo más grande y complejo (como GPT-4o).