Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon NVIDIA AI Workbench, crear y probar aplicaciones gracias a la IA generativa


La IA generativa nos ha abierto todo un mundo de posibilidades, y su integración en diferentes aplicaciones y herramientas profesionales ha transformado por completo la manera en la que creamos, colaboramos, compartimos y trabajamos. NVIDIA AI Workbench es, en este sentido, uno de los mejores ejemplos, ya que nos permite simplificar flujos de trabajo y crear nuestros propios proyectos RAG, incluso aunque no tengamos conocimientos avanzados.




 

 Si te has perdido no te preocupes, RAG son las siglas de «retrieval-augmented generation», una técnica que mejora la precisión y la fiabilidad de modelos de IA generativa utilizando materiales y hechos suministrados a través de fuentes externas. Con ella podemos llenar un vacío importante que venía afectando a los LLMs desde sus orígenes, la necesidad de mantenerlos actualizados y debidamente «alimentados» para mantener su capacidad de comprensión si queremos profundizar en ciertos temas.

Imagina, por ejemplo, que quieres utilizar una IA generativa para crear imágenes concretas de un producto que tienes en tu cabeza, pero esa IA es incapaz de producir un resultado satisfactorio porque nunca ha visto nada parecido y no cuenta con la base necesaria para producir resultados relevantes. Con RAG podemos superar este escollo y proporcionar a la IA todo lo que necesita para que pueda producir resultados satisfactorios.


Todo esto representaba una carga de trabajo que podía llegar a ser bastante compleja, pero que se ha simplificado en gran mediad gracias a NVIDIA AI Workbench. Con ella podemos crear nuestros propios proyectos RAG, y nos ayudará a desarrollar, experimentar, probar y utilizar en fase de prototipo diferentes aplicaciones de IA en distintas GPUs, incluyendo desde modelos de portátiles hasta soluciones más potentes para centros de datos. Sí, también funciona en la nube.

NVIDIA AI Workbench: lista en minutos, y es gratuita

El proceso de instalación es muy sencillo, y una vez que este finaliza estamos listos para empezar a trabajar tanto en local como en remoto. Podemos utilizarla para arrancar un nuevo proyecto o para replicar alguno de los proyectos que están disponibles en GitHub o GitLab, lo que facilita no solo el inicio sino también la ejecución de trabajos colaborativos a través de esas plataformas.

Con NVIDIA AI Workbench todo es mucho más fácil, porque agiliza el proceso de configuración de un entorno de desarrollador celerado por GPU, algo que sin duda representa un valor muy grande para aquellos que están empezando en este mundillo, ya que elimina la carga de trabajo y los problemas que pueden derivar de la configuración de GPUs, las actualizaciones de drivers y los errores que estos puedan dar, así como otros temas relacionados con el uso de los datos, las inconsistencias y las particularidades de cada modelo.



 

También nos permite disfrutar de una colaboración perfecta, gracias a la integración de herramientas de control de versiones y de control de gestión de proyectos, y ofrece una consistencia total si en algún momento queremos escalar del modo local a la nube, tanto hacia arriba como hacia abajo. Esto hace que sea muy fácil mover nuestros proyectos y alternar entre local y nube en función de nuestras necesidades.


Para ayudar a aquellos usuarios con menos experiencia NVIDIA ofrece los RAG Workbench Project, que son muestras de desarrollo diseñados para empezar a funcionar sin necesidad de entrar en complicadas configuraciones. Se ejecutan en un contenedor que tiene todo lo necesario para mover la aplicación de IA, y tienen un enfoque totalmente híbrido.


Los RAG Workbench Project son compatibles con una gran variedad de LLMs, y su naturaleza híbrida nos da la posibilidad de elegir dónde queremos que se ejecute todo el proceso de inferencia, si en la nube o de forma local. Así, por ejemplo, podemos ejecutar el modelo integrado en un host y el proceso de inferencia en in servidor «Hugging Face Text Generation Inference», en microservicios como NVIDIA NIM o en otros servicios de terceros. Estos proyectos incluyen también:

  • Métricas de rendimiento que nos permitirán evaluar el rendimiento de cada proyecto, con valores como el tiempo de recuperación, tiempo hasta el primer token y velocidad del token.
  • Recuperación transparente, con un panel que muestra de forma precisa fragmentos de texto que han sido recuperados del contenido más relevante contextualmente en la base de datos de vectores, que es la que está alimentando al LLM y que mejoran la obtención de respuestas relevantes.
  • Respuestas personalizadas, que se pueden modificar partiendo de una gran variedad de parámetros, incluyendo el número máximo de tokens que se pueden generar, su temperatura y la penalización de frecuencia.

Si estás pensando en empezar a utilizar NVIDIA AI Workbench pero tienes muchas dudas te recomiendo que eches un vistazo a esta guía, en ella encontrarás toda la información que necesitas para comenzar con buen pie tu nueva aventura.

 

Fuentes:

https://www.muycomputer.com/2024/06/19/nvidia-ai-workbench-crear-y-probar-aplicaciones-nunca-fue-tan-facil-gracias-a-la-ia-generativa/


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.