Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
239
)
-
▼
febrero
(Total:
74
)
-
Steam sufrió un ataque DDoS sin precedentes aunque...
-
Docker Desktop para Windows con WSL o Hyper-V
-
Filtración masiva de datos de IoT con 2.734 millon...
-
Guía de compra GPU - Nomenclatura Tarjetas Gráfica...
-
WhatsApp se integra con Instagram para mostrar enl...
-
Android System SafetyCore
-
Google usará la IA para conocer tu edad y modifica...
-
Apple soluciona una vulnerabilidad Zero-Day explot...
-
Ataques de phishing en imágenes SVG
-
¿Qué es la generación aumentada de recuperación (R...
-
Goku AI: la inteligencia artificial china de códig...
-
AMD prepara una Radeon RX 9070 XTX con 32 GB de me...
-
Tutorial: SSH en Windows (Servidor y Cliente)
-
Túnel TCP con Cloudflare Tunnel
-
"Cambio automático de contraseñas" en Google Chrom...
-
La Unión Europea busca movilizar 200.000 millones ...
-
Microsoft elimina una página de ayuda para desinst...
-
Cloudflare Tunnels
-
¿Qué es una shell inversa?
-
Le Chat, la IA más avanzada hecha en Europa
-
Google Gemini 2.0 Pro IA
-
ChatGPT en WhatsApp
-
Filtrados los datos personales de 3 millones de us...
-
Movistar España bloquea internet en un intento por...
-
Thunderbolt vs USB-C: qué son, diferencias y cómo ...
-
El Reino Unido ordena a Apple que le permita acced...
-
Inteligencia artificial en local en tu PC
-
Qué fuente de alimentación elegir según la tarjeta...
-
Tecnología RTX Neural de nvidia
-
Mizuno confirma ataque ransomware BianLian con fil...
-
Múltiples vulnerabilidades críticas en productos d...
-
WinScript permite personalizar, optimizar y config...
-
Cloudflare Turnstile: una nueva alternativa a reCA...
-
NanaZip 5.0: todas las novedades del mejor compres...
-
Barcelona Supercomputing Center (BSC) estrena prim...
-
Cisco corrige vulnerabilidades críticas de ISE que...
-
Logran ejecutar DOOM en un adaptador de Lightning ...
-
Aprovechan vulnerabilidad de IIS de hace 6 años pa...
-
Exingeniero de Google es acusado en EEUU de robar ...
-
Vulnerabilidad zero-day crítica en Android
-
Verificación de identidad o 'Identity check' : la ...
-
Europa quiere prohibir el envío de consolas a Rusi...
-
La Comisión Europea quiere acabar con la exención ...
-
DeepSeek: Una investigación revela a dónde van tus...
-
Google cambia las directrices de su IA y elimina u...
-
Detenido en Alicante 'Natohub,' de 18 años que hac...
-
Diferencias y velocidades entre PCIe Gen 4 y PCIe ...
-
OCuLink, el mejor conector para gráficas externas ...
-
Así es la pila atómica que ha presentado China cap...
-
Instalar DeepSeek en local en Android con Termux
-
Todos los modelos de IA de OpenAI
-
Las impresoras 3D en Estados Unidos podrían ser in...
-
El Pentágono bloquea DeepSeek en menos de una sema...
-
Limpieza y mantenimiento de una tarjeta gráfica
-
Conectores PCI Express x16, x8, x4 y x1: diferenci...
-
Reportan algunos problemas para las GeForce RTX 5090
-
Microsoft presenta el Surface USB4 Dock por 99$
-
NVIDIA Studio Voice convierte el mediocre micrófon...
-
OpenAI quiere diseñar robots humanoides impulsados...
-
Europa anuncia OpenEuroLLM, su plan para plantarle...
-
OpenAI quiere reemplazar los smartphones con un di...
-
Análisis de las principales vulnerabilidades explo...
-
WhatsApp detecta un ataque de spyware tipo Pegasus...
-
El coste real de DeepSeek no fue de 6 millones de ...
-
Windows Paint tendrá un botón de Copilot para acel...
-
Guía DeepSeek: funciones y cosas que puedes hacer ...
-
Cómo utilizar un SSD NVMe en Raspberry Pi
-
OpenAI responde a DeepSeek publicando o3 para todos
-
Cómo crear gráficos a partir de datos con ChatGPT
-
App falsa de DeepSeek roba datos en Mac
-
Deep Research, nueva herramienta de investigación ...
-
NoName057 realiza nuevos ataques DDoS España: a la...
-
Detenida en Valencia una pareja clave en la gestió...
-
Manual funcionamiento GParted (edita, modifica y r...
-
-
▼
febrero
(Total:
74
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Vorwerk , la empresa alemana que fabrica los populares robots de cocina Thermomix , ha confirmado una brecha de datos que afectaría a su fo...
-
Una lista con las mejores herramientas gratis para instalar modelos de inteligencia artificial de forma local , y así crear tu propio ChatGP...
-
Lo primero y lo más importante es la potencia que vamos a necesitar, que estará determinada por el consumo de los componentes que vayamos ...
¿Qué es la generación aumentada de recuperación (RAG)?
La generación mejorada por recuperación (RAG) es el proceso de optimización de la salida de un modelo lingüístico de gran tamaño, de modo que haga referencia a una base de conocimientos autorizada fuera de los orígenes de datos de entrenamiento antes de generar una respuesta. Los modelos de lenguaje de gran tamaño (LLM) se entrenan con grandes volúmenes de datos y usan miles de millones de parámetros para generar resultados originales en tareas como responder preguntas, traducir idiomas y completar frases. RAG extiende las ya poderosas capacidades de los LLM a dominios específicos o a la base de conocimientos interna de una organización, todo ello sin la necesidad de volver a entrenar el modelo. Se trata de un método rentable para mejorar los resultados de los LLM de modo que sigan siendo relevantes, precisos y útiles en diversos contextos.
RAG - Retrieval Augmented Generation
¿Por qué es importante la generación aumentada por recuperación?
Los modelos de lenguaje de gran tamaño (LLM) son una tecnología clave de inteligencia artificial (IA) que impulsa los chatbots inteligentes y otras aplicaciones de procesamiento de lenguaje natural (NLP). El objetivo es crear bots que puedan responder a las preguntas de los usuarios en diversos contextos mediante referencias cruzadas de fuentes de conocimiento autorizadas. Desafortunadamente, la naturaleza de la tecnología del LLM introduce imprevisibilidad en las respuestas del LLM. Además, los datos de entrenamiento del LLM son estáticos e introducen una fecha límite en los conocimientos que tienen.
Los desafíos conocidos de los LLM incluyen los siguientes:
- Presentar información falsa cuando no tiene la respuesta.
- Presentar información desactualizada o genérica cuando el usuario espera una respuesta específica y actual.
- Crear una respuesta de fuentes no autorizadas.
- Crear respuestas inexactas debido a una confusión terminológica, en la que diferentes fuentes de entrenamiento utilizan la misma terminología para hablar de cosas diferentes.
Puede pensar en el modelo de lenguaje de gran tamaño como un nuevo empleado demasiado entusiasta que se niega a mantenerse informado de los acontecimientos actuales, pero que siempre responde a todas las preguntas con absoluta confianza. ¡Por desgracia, esta actitud puede afectar negativamente a la confianza de los usuarios y no es algo que quiera que emulen sus chatbots!
El RAG es un enfoque para resolver algunos de estos desafíos. Redirige el LLM para recuperar información relevante de fuentes de conocimiento autorizadas y predeterminadas. Las organizaciones tienen un mayor control sobre la salida de texto generada y los usuarios obtienen información sobre cómo el LLM genera la respuesta.
¿Cuáles son los beneficios de la generación aumentada de recuperación?
La tecnología RAG aporta varios beneficios a los esfuerzos de la IA generativa de una organización.
Implementación rentable
El desarrollo de chatbots normalmente comienza con un modelo básico. Los modelos fundacionales (FM) son LLM accesibles para API entrenados en un amplio espectro de datos generalizados y sin etiquetar. Los costos computacionales y financieros de volver a entrenar a los FM para obtener información específica de la organización o del dominio son altos. El RAG es un enfoque más rentable para introducir nuevos datos en el LLM. Hace que la tecnología de inteligencia artificial generativa (IA generativa) sea más accesible y utilizable.
Información actual
Incluso si los orígenes de datos de entrenamiento originales para un LLM son adecuados para sus necesidades, es difícil mantener la relevancia. El RAG les permite a los desarrolladores proporcionar las últimas investigaciones, estadísticas o noticias a los modelos generativos. Pueden usar el RAG para conectar el LLM directamente a las redes sociales en vivo, sitios de noticias u otras fuentes de información que se actualizan con frecuencia. El LLM puede entonces proporcionar la información más reciente a los usuarios.
Mayor confianza de los usuarios
El RAG le permite al LLM presentar información precisa con la atribución de la fuente. La salida puede incluir citas o referencias a fuentes. Los usuarios también pueden buscar ellos mismos los documentos fuente si necesitan más aclaraciones o más detalles. Esto puede aumentar la confianza en su solución de IA generativa.
Más control para los desarrolladores
Con el RAG, los desarrolladores pueden probar y mejorar sus aplicaciones de chat de manera más eficiente. Pueden controlar y cambiar las fuentes de información del LLM para adaptarse a los requisitos cambiantes o al uso multifuncional. Los desarrolladores también pueden restringir la recuperación de información confidencial a diferentes niveles de autorización y garantizar que el LLM genere las respuestas adecuadas. Además, también pueden solucionar problemas y hacer correcciones si el LLM hace referencia a fuentes de información incorrectas para preguntas específicas. Las organizaciones pueden implementar la tecnología de IA generativa con más confianza para una gama más amplia de aplicaciones.
¿Cómo funciona la generación aumentada de recuperación?
Sin el RAG, el LLM toma la información del usuario y crea una respuesta basada en la información en la que se entrenó o en lo que ya sabe. Con el RAG, se introduce un componente de recuperación de información que utiliza la entrada del usuario para extraer primero la información de un nuevo origen de datos. La consulta del usuario y la información relevante se proporcionan al LLM. El LLM utiliza los nuevos conocimientos y sus datos de entrenamiento para crear mejores respuestas. En las siguientes secciones se ofrece una descripción general del proceso.
Crear datos externos
Los nuevos datos fuera del conjunto de datos del entrenamiento original del LLM se denominan datos externos. Pueden provenir de varios orígenes de datos, como API, bases de datos o repositorios de documentos. Los datos pueden existir en varios formatos, como archivos, registros de bases de datos o texto largo. Otra técnica de IA, llamada incrustación de modelos de lenguaje, convierte los datos en representaciones numéricas y los almacena en una base de datos vectorial. Este proceso crea una biblioteca de conocimientos que los modelos de IA generativa pueden entender.
Recuperar información relevante
El siguiente paso es realizar una búsqueda de relevancia. La consulta del usuario se convierte en una representación vectorial y se compara con las bases de datos vectoriales. Por ejemplo, piense en un chatbot inteligente que pueda responder a las preguntas de recursos humanos de una organización. Si un empleado busca“¿Cuántas vacaciones anuales tengo?”, el sistema recuperará los documentos de la política de vacaciones anuales junto con el historial de vacaciones anteriores del empleado individual. Estos documentos específicos se devolverán porque son muy relevantes para lo que el empleado ha aportado. La relevancia se calculó y estableció mediante cálculos y representaciones vectoriales matemáticas.
Aumentar la solicitud de LLM
A continuación, el modelo RAG aumenta la entrada (o las indicaciones) del usuario al agregar los datos recuperados relevantes en contexto. Este paso utiliza técnicas de ingeniería de peticiones para comunicarse de manera efectiva con el LLM. El indicador aumentado permite que los modelos de lenguajes de gran tamaño generen una respuesta precisa a las consultas de los usuarios.
Actualizar datos externos
La siguiente pregunta podría ser: ¿qué pasa si los datos externos se vuelven obsoletos? Para mantener la información actualizada para su recuperación, actualice los documentos de forma asíncrona y actualice la representación incrustada de los documentos. Puede hacerlo mediante procesos automatizados en tiempo real o mediante el procesamiento periódico por lotes. Este es un desafío común en el análisis de datos: se pueden utilizar diferentes enfoques de ciencia de datos para la administración de cambios.
La inteligencia artificial (IA) generativa destaca por su capacidad para producir respuestas de texto basadas en grandes modelos de lenguaje (LLM, por sus siglas en inglés), en los que la IA se entrena con un gran número de puntos de datos. La buena noticia es que el texto generado suele ser fácil de leer y proporciona respuestas detalladas y globalmente pertinentes a las preguntas planteadas a través del software, generalmente llamadas consultas.
La mala noticia es que la información utilizada para generar la respuesta se limita a aquella usada para entrenar la IA, por lo común un LLM general. Los datos del LLM pueden llevar semanas, meses o años obsoletos, y tal vez no incluyan información específica sobre los productos o servicios de la organización en el caso de un bot conversacional corporativo de IA. Esto puede generar respuestas incorrectas que menoscaban la confianza en la tecnología de clientes y empleados.
¿Qué es la generación aumentada de recuperación (RAG)?
Ahí es donde entra en escena la generación aumentada de recuperación (RAG). La RAG permite optimizar los resultados de un LLM mediante información específica sin necesidad de modificar el modelo subyacente. Esa información particular puede estar más al día que el propio LLM, así como enfocarse en una organización o una industria en particular. Esto permite al sistema de IA generativa proporcionar respuestas contextualmente adecuadas a las consultas, así como basar dichas respuestas en datos extremadamente recientes.
La RAG llamó la atención de los desarrolladores de IA generativa tras la publicación de Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks ("Generación aumentada de recuperación para tareas de NLP que realizan un uso intensivo de información"), un artículo de 2020 publicado por Patrick Lewis y un equipo de Facebook AI Research. El concepto de RAG ha sido acogido con entusiasmo por muchos investigadores académicos y de la industria, que la ven como una forma de mejorar significativamente el valor de los sistemas de IA generativa.
En qué consiste la generación aumentada de recuperación
Tomemos el ejemplo de una liga deportiva que desea que los aficionados y medios de comunicación puedan usar el chat para consultar datos y obtener respuesta a sus preguntas sobre los jugadores, los equipos, la historia y las reglas del deporte, así como las estadísticas y clasificaciones actuales. Un LLM general podría responder a preguntas sobre la historia y las reglas o tal vez describir el estadio de un equipo en particular. Sin embargo, no podría comentar el partido de ayer por la noche ni proporcionar información actualizada sobre la lesión de un deportista en particular porque no dispondría de esa información y, dado que se necesita una potencia de computación significativa para volver a entrenar un LLM, no es factible mantener el modelo al día.
Además del LLM, grande y bastante estático, la liga deportiva posee o puede acceder a muchas otras fuentes de información, como bases de datos, almacenes de datos, documentos con biografías de los jugadores y fuentes de noticias que analizan cada partido en profundidad. La RAG permite a la IA generativa usar esta información. Ahora, el chat puede proporcionar información más oportuna, más adecuada al contexto y más precisa.
En pocas palabras, la RAG ayuda a los LLM a proporcionar respuestas más idóneas.
Conclusiones clave
- La RAG es una técnica de inteligencia artificial relativamente nueva que mejora la calidad de la IA generativa al permitir a grandes modelos de lenguaje (LLM) aprovechar recursos de datos adicionales sin necesidad de volver a entrenarlos.
- Los modelos RAG crean repositorios de conocimientos basados en los datos de la propia organización. Estos repositorios se pueden actualizar continuamente para ayudar a la IA generativa a brindar respuestas adaptadas al contexto y oportunas.
- Los chatbots y otros sistemas conversacionales que utilizan el procesamiento del lenguaje natural pueden beneficiarse enormemente de la RAG y la IA generativa.
- La implementación de RAG requiere tecnologías como bases de datos vectoriales, que permiten la codificación rápida de nuevos datos y la búsqueda en esos datos para alimentar el LLM.
¿Cómo funciona la generación aumentada de recuperación?
Piensa en toda la información de la que dispone una organización: bases de datos estructuradas, PDF y otros documentos no estructurados, blogs, fuentes de noticias y transcripciones de chat de sesiones de servicio al cliente pasadas. En la RAG, esta gran cantidad de datos dinámicos se traduce a un formato común y se almacena en una biblioteca de conocimientos accesible por el sistema de IA generativa.
Los datos de esa biblioteca de conocimientos se procesan en representaciones numéricas utilizando un tipo especial de algoritmo llamado modelo de lenguaje embebido y se almacenan en una base de datos vectorial, en la que se puede buscar rápidamente para recuperar la información contextual correcta.
RAG y grandes modelos de lenguaje (LLM)
Ahora, supongamos que un usuario final envía al sistema de IA generativa una consulta específica, por ejemplo: "¿Dónde se jugará el partido de esta noche, quiénes son los jugadores iniciales y qué dicen los periodistas sobre el enfrentamiento?" La pregunta se transforma en un vector y se utiliza para consultar la base de datos vectorial, que recupera la información pertinente en función del contexto de esa pregunta. Esa información contextual más la consulta original se introducen en el LLM, que genera una respuesta de texto basada tanto en su conocimiento generalizado (algo obsoleto) como en la información contextual, extremadamente oportuna.
Curiosamente, aunque el proceso de entrenamiento del LLM general lleva mucho tiempo y es costoso, este no es para nada el caso de las actualizaciones del modelo RAG. Los nuevos datos se pueden cargar en el modelo de lenguaje embebido y transformar en vectores de forma continua y gradual. De hecho, las respuestas de todo el sistema de IA generativa se pueden incorporar al modelo RAG para mejorar su rendimiento y precisión, porque, de este modo, sabe cómo ha respondido a una pregunta similar anteriormente.
Un beneficio adicional de la RAG es que al utilizar la base de datos vectorial, la IA generativa puede indicar cuál es la fuente de datos citada en su respuesta, algo que los LLM no pueden hacer. Por lo tanto, si el resultado de la IA generativa es inexacto, el documento que contiene esa información errónea se puede identificar y corregir rápidamente, y a continuación la información corregida se puede introducir en la base de datos vectorial.
En resumen, la RAG aporta pertinencia, contexto y precisión a la IA generativa, al ir más allá de lo que el LLM puede hacer.
Generación aumentada de recuperación frente a búsqueda semántica
La RAG no es la única técnica utilizada para mejorar la precisión de la IA generativa basada en LLM. Otra técnica es la búsqueda semántica, que ayuda al sistema de IA a entender el significado de una consulta mediante una comprensión profunda de las palabras y frases específicas de la pregunta.
La búsqueda tradicional se centra en las palabras clave. Por ejemplo, una consulta básica sobre las especies de árboles autóctonas de Francia podría buscar en la base de datos del sistema de IA utilizando "árboles" y "Francia" como palabras clave y conseguir datos que contengan ambas palabras clave, pero el sistema podría no comprender realmente el significado de los árboles en Francia y, por lo tanto, recuperar demasiada información, muy poca o incluso los datos incorrectos. Esa búsqueda basada en palabras clave también puede no recuperar toda la información porque es demasiado literal: los árboles autóctonos de Normandía podrían no incluirse, aunque estén en Francia, porque faltaba esa palabra clave.
La búsqueda semántica va más allá de la búsqueda por palabras clave al determinar el significado de las preguntas y los documentos de origen y usar ese significado para ofrecer resultados más precisos. La búsqueda semántica es una parte integral de la RAG.
Uso de la RAG en aplicaciones de chat
Cuando una persona desea una respuesta instantánea a una pregunta, resulta difícil superar la inmediatez y la facilidad de uso de un chatbot. La mayoría de los bots están entrenados para un número finito de intenciones, es decir, tareas o resultados deseados por el cliente, y responden a esas intenciones. Las funcionalidades de la RAG pueden mejorar los bots actuales al permitir que el sistema de IA proporcione respuestas en lenguaje natural a preguntas que no formen parte de la lista de intenciones.
El paradigma de "hacer una pregunta, obtener una respuesta" hace que los chatbots sean un caso de uso perfecto para la IA generativa, por muchas razones. A menudo, las preguntas requieren un contexto específico para generar una respuesta precisa, y dado que las expectativas de los usuarios de chatbots en cuanto a la pertinencia y la precisión a menudo son elevadas, queda clara la utilidad de las técnicas de RAG. De hecho, para muchas organizaciones, los chatbots pueden ser el punto de partida para el uso de la RAG y la IA generativa.
Para ofrecer una respuesta precisa a una pregunta, por lo general se requiere un contexto específico. Las respuestas a las consultas de los clientes sobre un producto recién lanzado, por ejemplo, no son útiles si los datos se refieren al modelo anterior. De hecho, hasta podrían ser engañosas. Y un excursionista que quiere saber si un parque está abierto este domingo espera información oportuna y precisa sobre ese parque concreto en esa fecha específica.
Beneficios de la generación aumentada de recuperación
Las técnicas de RAG se pueden utilizar para mejorar la calidad de las respuestas de un sistema de IA generativa a las consultas, más allá de lo que un LLM por sí solo puede ofrecer. Los beneficios son los siguientes:
- La RAG tiene acceso a información que puede ser más reciente que los datos utilizados para entrenar el LLM.
- Los datos del repositorio de conocimientos de la RAG se pueden actualizar continuamente sin incurrir en costes significativos.
- El repositorio de conocimientos de la RAG puede contener datos más contextuales que los datos de un LLM general.
- La fuente de la información de la base de datos vectorial de la RAG puede ser identificada. Y como se conoce el origen de los datos, se puede corregir o suprimir la información incorrecta de la RAG.
Retos de la generación aumentada de recuperación
Como la RAG es una tecnología relativamente nueva, lanzada en 2020, los desarrolladores de IA aún están aprendiendo a implementar mejor sus mecanismos de recuperación de información en la IA generativa. Estos son algunos de los desafíos clave:
- Mejorar el conocimiento y la comprensión de la RAG en las organizaciones, dada su novedad.
- Incremento de costes: pese a que la IA generativa con RAG es más cara de implementar que un LLM por sí solo, esta opción resulta menos onerosa que volver a entrenar el LLM frecuentemente.
- Determinar la mejor forma de modelar los datos estructurados y no estructurados de la biblioteca de conocimientos y la base de datos vectorial.
- Desarrollar los requisitos para que un proceso envíe datos de forma gradual al sistema RAG.
- Establecer procesos para gestionar los informes de imprecisiones y corregir o eliminar esas fuentes de información en el sistema RAG.
Ejemplos de generación aumentada de recuperación
Hay muchos ejemplos de los usos posibles de IA generativa aumentada con RAG.
Cohere, líder en el campo de la IA generativa y la RAG, ha escrito sobre un chatbot que puede proporcionar información contextual sobre un alquiler vacacional en las Islas Canarias, con respuestas factuales sobre la accesibilidad a las playas, la presencia de socorristas en las playas cercanas y la disponibilidad de canchas de voleibol a poca distancia.
Oracle ha descrito otros casos de uso de la RAG, como el análisis de informes financieros, la asistencia en la detección de gas y petróleo, la revisión de las transcripciones de las interacciones con los clientes de centros de llamadas y la búsqueda de estudios pertinentes en bases de datos médicas.
El futuro de la generación aumentada de recuperación
Hoy en día, en las primeras fases de la RAG, esta tecnología se está utilizando para proporcionar respuestas oportunas, precisas y contextuales a consultas. Estos casos de uso son adecuados para chatbots, correo electrónico, mensajes de texto y otras aplicaciones conversacionales.
En el futuro, las posibles orientaciones para la tecnología RAG serán ayudar a la IA generativa a tomar las medidas adecuadas en función de la información contextual y de las peticiones de los usuarios. Por ejemplo, un sistema de IA aumentada por RAG podría identificar el alquiler vacacional de playa mejor calificado en las Islas Canarias y luego iniciar la reserva de un bungalow de dos dormitorios a poca distancia de la playa durante un torneo de voleibol.
La RAG también podría ser capaz de ayudar con tipos de solicitudes más sofisticadas. Hoy en día, la IA generativa puede informar a un empleado sobre la política de reembolso de matrículas en cursos de formación de su empresa. La RAG permite agregar más datos contextuales para indicarle al empleado qué centros cercanos ofrecen cursos que se ajusten a esa política y tal vez recomendarle programas adecuados en función de la formación y los puestos previos del empleado. Tal vez incluso podría ayudarle a inscribirse en esos programas e iniciar una solicitud de reembolso.
¿Cuál es la diferencia entre la generación aumentada de recuperación y la búsqueda semántica?
La búsqueda semántica mejora los resultados del RAG para las organizaciones que desean añadir amplias fuentes de conocimiento externas a sus aplicaciones de LLM. Las empresas modernas almacenan grandes cantidades de información, como manuales, preguntas frecuentes, informes de investigación, guías de servicio al cliente y repositorios de documentos de recursos humanos, en varios sistemas. La recuperación del contexto es difícil a escala y, en consecuencia, reduce la calidad de los resultados generativos.
Las tecnologías de búsqueda semántica pueden escanear grandes bases de datos de información dispar y recuperar datos con mayor precisión. Por ejemplo, pueden responder a preguntas como“¿Cuánto se gastó en reparaciones de maquinaria el año pasado?” asignando la pregunta a los documentos pertinentes y devolviendo un texto específico en lugar de los resultados de la búsqueda. Luego, los desarrolladores pueden usar esa respuesta para proporcionar más contexto al LLM.
Las soluciones de búsqueda convencionales o de palabras clave en RAG producen resultados limitados para tareas intensivas en conocimiento. Los desarrolladores también deben lidiar con la incrustación de palabras, la fragmentación de documentos y otras complejidades a la hora de preparar sus datos manualmente. Por el contrario, las tecnologías de búsqueda semántica hacen todo el trabajo de preparación de la base de conocimientos para que los desarrolladores no tengan que hacerlo. También generan pasajes semánticamente relevantes y palabras del token ordenadas por relevancia para maximizar la calidad de la carga útil del RAG.
Preguntas frecuentes sobre la generación aumentada de recuperación
¿Es la RAG lo mismo que la IA generativa?
No. La generación aumentada de recuperación es una técnica que puede proporcionar respuestas más precisas a las consultas que un gran modelo generativo de lenguaje por sí solo porque la RAG utiliza información externa a los datos de los que ya dispone el LLM.
¿Qué tipo de información se utiliza en la RAG?
La RAG puede incorporar datos de muchas fuentes, como bases de datos relacionales, repositorios de documentos no estructurados, flujos de datos de Internet, fuentes de noticias de medios de comunicación, transcripciones de audio y registros de transacciones.
¿Cómo utiliza la RAG la IA generativa?
Datos de fuentes empresariales se incorporan a un repositorio de conocimientos y, a continuación, se convierten en vectores, que se almacenan en una base de datos vectorial. Cuando un usuario final realiza una consulta, la base de datos vectorial recupera la información contextual pertinente. Esta información contextual, junto con la consulta, se envía al LLM, que aprovecha el contexto para crear una respuesta más pertinente, precisa y adaptada.
¿Puede una RAG proporcionar referencias de los datos que recupera?
Sí. Las bases de datos vectoriales y los repositorios de conocimientos utilizados por la RAG contienen información específica sobre las fuentes de datos. Esto significa que las fuentes pueden ser citadas, por lo que, si una de ellas presenta un error, este se puede corregir o eliminar rápidamente para que las consultas posteriores no devuelvan esa información incorrecta.
Fuentes:
https://www.oracle.com/es/artificial-intelligence/generative-ai/retrieval-augmented-generation-rag/
https://aws.amazon.com/es/what-is/retrieval-augmented-generation/
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.