Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
157
)
-
▼
enero
(Total:
157
)
- Parece un inocente PDF, pero es una estafa bancari...
- DeepSeek tendrá un clon «100% abierto» desarrollad...
- ¿Qué son los tokens en el contexto de los LLM?
- ¿Qué es el destilado de una LLM?
- Se saltan el sistema de cifrado BitLocker de Windo...
- Facebook bloquea cualquier tema de Linux de Distro...
- Ramsomware Makop y Lynx
- NVIDIA pide explicaciones a Super Micro por vender...
- Investigadores canadienses afirman que un ajuste d...
- Vulnerabilidad crítica en Cacti (SNMP)
- FARM discos duros Seagate
- DeepSeek habría sido entrenada con datos robados a...
- Alibaba presenta Qwen2.5-Max, su poderosa IA
- Huawei dice tener un chip para IA igual de potente...
- El fabricante de móviles Oppo es víctima de una gr...
- DeepSeek puede crear malware para robar tarjetas d...
- Historia del fabricante Asus
- Instalar DeepSeek (destilado) con Ollama en tu ord...
- Lossless Scaling: ¿Qué es y cómo funciona?
- Una hora de anuncios para ver un simple vídeo de Y...
- Herramientas gratuitas para transcribir de audio a...
- OpenAI Operator: el agente de IA que automatiza ta...
- DeepSeek Janus-Pro-7B, otro modelo de IA multimoda...
- DeepSeek es víctima de un ataque DDoS
- NVIDIA DLSS 4 (Tecnología de Escalado de nvidia)
- Sony abandona los discos Blu-Ray grabables, MiniDi...
- Vulnerabilidad en el framework Llama Stack de Meta...
- PayPal pagará 2 millones de dólares por la filtrac...
- DeepSeek, la herramienta china que revoluciona la ...
- 119 vulnerabilidades de seguridad en implementacio...
- Cómo bloquear y demorar bots IA de Scraping web
- Oracle, en negociaciones con ByteDance para compra...
- Descubren que Elon Musk hacía trampas en los juego...
- Por ser cliente de Movistar en España tienes grati...
- HDMI 2.2 VS DisplayPort 2.1
- Filtrados datos personales de asegurados de Asisa
- Los fallos que cometió Ulbricht para ser detenido:...
- Instagram desata las críticas de los usuarios espa...
- Donald Trump indulta a Ross Ulbricht, creador del ...
- Alia, la IA del Gobierno Español, es un desastre: ...
- Stargate, un proyecto de Estados Unidos para inver...
- Ataques del ransomware BlackBasta mediante Microso...
- El mayor ataque DDoS registrado alcanzó 5,6Tb/s me...
- Tras el éxito de Doom en documentos PDF, ahora tam...
- Cae una banda de ciberestafadores que enviaba hast...
- Cómo desactivar el Antimalware Service Executable ...
- Herramienta Restablecer Windows
- Seagate llega a los 36 TB con sus nuevos discos du...
- YST (‘Yo soy tú’, como se autodenominó irónicament...
- ¿Qué es la pipeline?
- Una chica de 28 años se enamora de ChatGPT
- Copilot+ ya permite la búsqueda local
- DORA: la normativa europea que obliga a los bancos...
- Apple desactiva funciones de Apple Intelligence po...
- La empresa de hosting GoDaddy, obligada a reforzar...
- Domina los ficheros PDF con dos servicios Docker
- OpenAI desarrolla una IA para prolongar la vida hu...
- TikTok cierra en Estados Unidos
- Vulnerabilidad permite eludir UEFI Secure Boot
- Normativa Drones España 2025
- Robados los datos personales de 97.000 aspirantes ...
- ¿Cómo volar un dron de noche? Esta es la normativa...
- Expuestas 15.000 configuraciones robadas de FortiG...
- Filtración masiva en China expone 1.500 millones d...
- Un ciberataque expone la identidad de 160.000 guar...
- La Policía de España advierte sobre una nueva técn...
- Microsoft estrena protección del administrador de ...
- Windows 11 con sólo 184 MB de RAM
- Evilginx 3 para ataques man-in-the-middle mediante...
- Cómo Barcelona se convirtió en un centro de empres...
- El Gobierno de España anuncia la creación de un Ce...
- RDP Bitmap Forensics para investigaciones DFIR
- Más de 660.000 servidores Rsync expuestos a ataque...
- El FBI elimina el malware chino PlugX en 4.250 ord...
- Hiren's BootCD PE con Windows 11
- Las chicas del ENIAC y las programadoras de los Co...
- Trucos de Windows 11
- Millones de cuentas vulnerables por fallo en OAuth...
- Si no actualizas a Windows 11, no podrás usar Offi...
- Jugar al DOOM dentro de un archivo PDF
- Los mejores procesadores para jugar en 2025, ¿cuán...
- "Explotación masiva" de los firewalls de Fortinet ...
- Cómo funciona la sincronización en el almacenamien...
- Parallels ya permite emular Windows y Linux las Ma...
- Ransomware en Servidores ESXi: Amenazas, Vulnerabi...
- Roban información con Infostealer Lumma mediante t...
- Cómo compartir contraseñas en Google Chrome con "M...
- El arquitecto jefe de Xeon cambia de Intel a Qualc...
- Hackean cuentas de Path of Exile 2 tras robar una ...
- Microsoft consigue que su IA se vuelva experta en ...
- Cómo instalar Stremio en Raspberry Pi para conecta...
- "Free our Feeds" quiere evitar que los millonarios...
- Otra Botnet Mirai para realizar ataques DDoS
- Telegram comienza a colaborar con las autoridades ...
- Múltiples vulnerabilidades críticas en productos S...
- La historia del trabajador número 8 de Apple que l...
- Descubren cómo hackear el controlador USB-C del iP...
- ¿A qué temperatura empieza la CPU a envejecer?
- Xiaomi presenta Redmi Note 14
- La IA comenzará a subtitular los vídeos en VLC
-
▼
enero
(Total:
157
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Cómo instalar DeepSeek en tu ordenador , para poder utilizarlo cuando quieras. Hay varias maneras de hacerlo, pero nosotros vamos a intentar...
-
Si eres un usuario de Windows 10 y tu dispositivo está trabajando lento, entonces, es el antimalware service executable que tiene un consum...
-
Las decisiones de Mark Zuckerberg de eliminar la verificación de datos independiente de sus redes sociales y de cambiar las normas de mode...
¿Qué es el destilado de una LLM?
La destilación es una técnica de entrenamiento de LLM en la que un modelo más pequeño y eficiente (como GPT-4o mini) se entrena para imitar el comportamiento y los conocimientos de un modelo más grande y complejo (como GPT-4o).
Un LLM de base se entrena con suficiente lenguaje natural para “saber” una cantidad notable sobre gramática, palabras y modismos. Un modelo de lenguaje de base puede generar oraciones útiles sobre los temas en los que se entrena. Además, un LLM de base puede realizar ciertas tareas tradicionalmente llamadas "creativas", como escribir poesía. Sin embargo, el resultado de texto generativo de un LLM de base no es una solución para otros tipos de problemas comunes de AA, como la regresión o la clasificación. Para estos casos de uso, un LLM de base puede funcionar como una plataforma en lugar de una solución.
Para transformar un LLM de base en una solución que satisfaga las necesidades de una aplicación, se requiere un proceso llamado ajuste. Un proceso secundario llamado destilación genera una versión más pequeña (con menos parámetros) del modelo ajustado.
Los grandes modelos lingüísticos (LLM) siguen creciendo en complejidad y tamaño, y su despliegue plantea importantes retos.
La destilación LLM surge como una potente solución a este problema, ya que permite transferir conocimientos de un modelo lingüístico más grande y complejo (el "maestro") a una versión más pequeña y eficaz (el "alumno").
Un ejemplo reciente en el mundo de la IA es la destilación de GPT-4o mini (estudiante) de GPT-4o (profesor).
Este proceso puede compararse al de un profesor que imparte sabiduría a un alumno, en el que el objetivo es destilar el conocimiento esencial sin el engorroso bagaje de la complejidad del modelo más amplio.
¿Qué es un modelo destilado?
Un modelo destilado es un modelo que ha sido entrenado para ser más pequeño y rápido que el modelo original, pero que mantiene la mayor parte de su rendimiento.
O sea, puedes “generar” un modelo que te sirva para etiquetar las quejas de tus clientes que:
- Funcione tan bien como un Large LM con sus prompts bien trabajados y probados.
- Sea más pequeño y mucho más rápido.
Y cómo funciona esto:
Utilizas un modelo grande como profesor y un modelo pequeño como alumno. El profesor le enseña al alumno y el alumno aprende a hacer lo que el profesor hace. El estudiante puede ser un modelo fundacional o una red neuronal convencional o algo como BERT, uno de los modelos iniciales de Google, y que se publicó basándose en el trabajo del artículo “Attention is All You Need” de Vaswani et al. en 2017.
En el caso de BERT su simplicidad es su ventaja, y al contrario que los LLMs tipo GPT-4 que necesitan sistemas distribuidos con GPUs para funcionar, BERT puede funcionar en un portátil. Se puede entrenar en un portátil. Además BERT funciona muy bien en tareas de clasificación de texto y en tareas de etiquetado de datos.
¿Qué es la destilación LLM?
La destilación de LLM es una técnica que pretende replicar el rendimiento de un modelo lingüístico de gran tamaño, reduciendo al mismo tiempo su tamaño y sus exigencias computacionales.
Imagina a un profesor experimentado compartiendo su experiencia con un nuevo alumno. El profesor, que representa el modelo de maestro, transmite conceptos y conocimientos complejos, mientras que el modelo de alumno aprende a imitar estas enseñanzas de forma más simplificada y eficaz.
Este proceso no sólo conserva las competencias básicas del profesor, sino que también optimiza al alumno para aplicaciones más rápidas y versátiles.
¿Por qué es importante la destilación del LLM?
El creciente tamaño y requisitos informáticos de los grandes modelos lingüísticos impiden su adopción y despliegue generalizados. El hardware de alto rendimiento y el creciente consumo de energía a menudo limitan la accesibilidad de estos modelos, sobre todo en entornos con recursos limitados, como los dispositivos móviles o las plataformas informáticas periféricas.
La destilación LLM aborda estos retos produciendo modelos más pequeños y rápidos, lo que los hace ideales para su integración en una gama más amplia de dispositivos y plataformas.
Esta innovación no sólo democratiza el acceso a la IA avanzada, sino que también es compatible con aplicaciones en tiempo real en las que se valoran mucho la velocidad y la eficacia. Al permitir soluciones de IA más accesibles y escalables, la destilación LLM ayuda a avanzar en la aplicación práctica de las tecnologías de IA.
Ventajas de la destilación LLM
La destilación de LLM ofrece una serie de ventajas considerables que desarrollan la usabilidad y eficacia de los modelos lingüísticos, haciéndolos más prácticos para diversas aplicaciones.
Aquí exploramos algunas de sus principales ventajas.
Tamaño reducido del modelo
Una de las principales ventajas de la destilación LLM es la creación de modelos notablemente más pequeños. Al transferir conocimientos de un modelo de profesor grande a un modelo de alumno más pequeño, el alumno resultante conserva gran parte de las capacidades del profesor siendo una fracción de su tamaño.
Esta reducción del tamaño del modelo conduce a:
- Inferencia más rápida: Los modelos más pequeños procesan los datos con mayor rapidez, lo que se traduce en tiempos de respuesta más rápidos.
- Reducción de las necesidades de almacenamiento: Los modelos más pequeños ocupan menos espacio, lo que facilita su almacenamiento y gestión, sobre todo en entornos con capacidad de almacenamiento limitada.
Velocidad de inferencia mejorada
El menor tamaño de los modelos destilados se traduce directamente en una mayor velocidad de inferencia. Esto es especialmente importante para las aplicaciones que requieren procesamiento en tiempo real y respuestas rápidas.
He aquí cómo se manifiesta este beneficio:
- Aplicaciones en tiempo real: Las velocidades de inferencia más rápidas hacen factible desplegar modelos destilados en aplicaciones en tiempo real, como chatbots, asistentes virtuales y sistemas interactivos en los que la latencia es un factor vital.
- Dispositivos con recursos limitados: Los modelos destilados pueden desplegarse en dispositivos con recursos computacionales limitados, como smartphones, tabletas y dispositivos periféricos sin comprometer el rendimiento.
Menores costes computacionales
Otra ventaja destacable de la destilación LLM es la reducción de los costes computacionales. Los modelos más pequeños requieren menos potencia de cálculo para funcionar, lo que supone un ahorro de costes en varias áreas:
- Entornos en nube: Ejecutar modelos más pequeños en entornos en la nube reduce la necesidad de hardware caro y de alto rendimiento y disminuye el consumo de energía.
- Implantaciones in situ: Los modelos más pequeños suponen menores costes de infraestructura y gastos de mantenimiento para las organizaciones que prefieren las implantaciones locales.
Mayor accesibilidad y despliegue
Los LLM destilados son más versátiles y accesibles, lo que permite su despliegue en distintas plataformas. Este alcance ampliado tiene varias implicaciones:
- Dispositivos móviles: Los modelos destilados pueden desplegarse en dispositivos móviles, permitiendo funciones avanzadas de IA en formatos portátiles y fáciles de usar.
- Dispositivos de borde: La capacidad de funcionar en dispositivos periféricos acerca las capacidades de IA al lugar donde se generan los datos, reduciendo la necesidad de conectividad constante y mejorando la privacidad de los datos.
- Aplicaciones más amplias: Desde la sanidad a las finanzas, pasando por la educación, los modelos destilados pueden integrarse en multitud de aplicaciones, haciendo que la IA avanzada sea accesible a más sectores y usuarios.
Ajuste
Las investigaciones muestran que las capacidades de reconocimiento de patrones de los modelos de lenguaje de base son tan potentes que a veces requieren relativamente poco entrenamiento adicional para aprender tareas específicas. Ese entrenamiento adicional ayuda al modelo a realizar mejores predicciones sobre una tarea específica. Este entrenamiento adicional, llamado ajuste fino, desbloquea el lado práctico de un LLM.
El ajuste fino se entrena con ejemplos específicos para la tarea que realizará tu aplicación. A veces, los ingenieros pueden ajustar un LLM de base en solo unos cien o unos pocos miles de ejemplos de entrenamiento.
A pesar de la cantidad relativamente pequeña de ejemplos de entrenamiento, el ajuste fino estándar suele ser costoso en términos de procesamiento. Esto se debe a que el ajuste fino estándar implica actualizar el peso y el sesgo de cada parámetro en cada iteración de backpropagation. Por suerte, un proceso más inteligente, llamado ajuste eficiente de parámetros, puede ajustar un LLM ajustando solo un subconjunto de parámetros en cada iteración de propagación inversa.
Por lo general, las predicciones de un modelo ajustado son mejores que las del LLM de base. Sin embargo, un modelo ajustado contiene la misma cantidad de parámetros que el LLM de base. Por lo tanto, si un LLM de base contiene diez mil millones de parámetros, la versión ajustada también contendrá diez mil millones de parámetros.
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.