Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Herramientas con interfaz web para Ollama (IA)


Ollama es una herramienta gratuita y de código abierto que permite a los usuarios ejecutar localmente grandes modelos lingüísticos (LLM). Simplifica la experiencia de la IA al permitirle interactuar con los LLM sin complicaciones en su máquina.

 


 

 
Desafortunadamente, ofrece una CLI, que puede no ser del gusto de todos Por lo tanto, puedes optar por mejorar tu experiencia (y hacerla más fácil) ejecutando LLMs localmente utilizando una interfaz de usuario web. Para lograrlo, tienes algunas herramientas de código abierto que proporcionan una interfaz de usuario web. 

Anything-llm

 

 La aplicación de IA todo en uno para escritorio y Docker con RAG integrado, agentes de IA, creador de agentes sin código y mucho más. 

Una aplicación completa que te permite convertir cualquier documento, recurso o pieza de contenido en contexto que cualquier LLM puede utilizar como referencia durante el chat. Esta aplicación te permite elegir qué LLM o base de datos vectorial quieres utilizar, además de admitir gestión multiusuario y permisos.

AnythingLLM es una aplicación full-stack donde puedes utilizar LLMs comerciales off-the-shelf o LLMs populares de código abierto y soluciones vectorDB para construir un ChatGPT privado sin compromisos que puedes ejecutar localmente así como alojar remotamente y ser capaz de chatear inteligentemente con cualquier documento que le proporciones.

AnythingLLM divide tus documentos en objetos llamados espacios de trabajo. Un espacio de trabajo funciona de forma muy parecida a un hilo, pero con el añadido de la contenedorización de sus documentos. Los espacios de trabajo pueden compartir documentos, pero no se comunican entre sí para que pueda mantener limpio el contexto de cada espacio de trabajo.

Page Assist

Page Assist es una interesante extensión de navegador de código abierto que permite ejecutar modelos locales de IA. Es compatible con Ollama, y te da un buen control para ajustar tu experiencia. Puedes instalarla en navegadores basados en Chromium o Firefox.

Desde permitirte gestionar fácilmente los modelos instalados, añadir archivos para analizar o investigar hasta poder habilitar la búsqueda en Internet, es una forma cómoda de acceder a los LLM directamente en tu navegador.

También puedes decidir compartir tus resultados con el mundo utilizando una URL autoalojada (no estoy seguro de quién querría eso, pero sí).

Open WebUI




 
Open WebUI es la solución más popular y rica en características para obtener una interfaz de usuario web para Ollama. El proyecto inicialmente tenía como objetivo ayudarle a trabajar con Ollama. Pero, a medida que evolucionó, quiere ser un proveedor de interfaz de usuario web para todo tipo de soluciones LLM.

Soporta APIs compatibles con OpenAI y funciona completamente offline. Se puede instalar rápidamente utilizando Docker o Kubernetes. Además, cuenta con una Progressive Web App para móviles, e integraciones de generación de imágenes.

Si quieres una interfaz de usuario web para Ollama, creo que es una recomendación fácil. Sin embargo, si buscas algo diferente, también hay muchas otras opciones.

Lobe Chat



Lobe Chat es un framework de interfaz de usuario similar a ChatGPT, local y centrado en la privacidad.

Puedes desplegar tu aplicación privada de chat Ollama usando Lobe Chat, y debería tener un aspecto bastante elegante. También está disponible como un script de un solo clic si utilizas Pinokio, el navegador de IA.

Lobe Chat también admite conversaciones de voz y generación de texto a imagen. Además, puedes mejorar sus capacidades utilizando plugins. También es compatible con Progressive Web App.

Text Generation Web UI


 

 Una interfaz de usuario web que se centra por completo en las capacidades de generación de texto, construida utilizando la biblioteca Gradio, un paquete Python de código abierto para ayudar a construir interfaces de usuario web para modelos de aprendizaje automático.

Text Generation Web UI presenta tres estilos de interfaz diferentes, un modo de chat tradicional, un modo de dos columnas y un modelo de cuaderno. Obtendrá soporte para modelos compatibles con OpenAI e integración con la librería de transformadores.

Ollama UI


 

 Si no necesitas nada sofisticado, ni un soporte de integración especial, sino más bien una experiencia básica con una interfaz de usuario web accesible, Ollama UI es lo que necesitas.

Se trata de una sencilla interfaz basada en HTML que te permite utilizar Ollama en tu navegador. También dispone de una extensión de Chrome para utilizarla. Como se puede ver en la captura de pantalla, se obtiene una simple opción desplegable para seleccionar el modelo que desea utilizar, y eso es todo.

Ollama GUI


 

 Mientras que todas las demás te permiten acceder a Ollama y otros LLM independientemente de la plataforma (en tu navegador), Ollama GUI es una app para usuarios de macOS.

La aplicación es gratuita y de código abierto, construida utilizando el marco SwiftUI, se ve bastante, por lo que no dudé en añadirla a la lista.

Sí, puede que no sea una herramienta de interfaz de usuario web que te permita acceder al modelo desde tu teléfono o cualquier navegador, pero es una opción factible para los usuarios de macOS.

Lord of LLMs Web UI


 

Un nombre bastante descriptivo, alias, LoLLMs Web UI es una solución decentemente popular para LLMs que incluye soporte para Ollama.

Soporta un rango de habilidades que incluyen generación de texto, generación de imágenes, generación de música y más. Puedes integrarlo con el repositorio de GitHub para un acceso rápido y elegir entre las diferentes personalidades que ofrece.

Puedes configurarlo en Linux usando el script de instalación automática, y eso es una forma fácil de empezar a usarlo. 

LibreChat



LibreChat es una alternativa de código abierto a ChatGPT que puedes implementar localmente o en la nube.

Es compatible con Ollama. Puede utilizar LLMs de código abierto y modelos propietarios populares como Google Vertex AI, ChatGPT, y más. Está hecho a medida para ser un clon de ChatGPT, por lo que no encontrarás nada único en la interfaz de usuario que ofrece. Pero, para algunos, la familiaridad de la interfaz de usuario puede ayudarle a navegar mejor.

Minimal LLM UI

 Minimal LLM UI es una opción inusual que proporciona una interfaz web para Ollama utilizando React, con el objetivo de ofrecerte un diseño limpio y moderno.

Puedes cambiar entre LLMs, y guardar tu conversación localmente usando una base de datos.

Enchanted

 


Enchanted es una app de código abierto que te permite conectarte a tus modelos privados, compatible con Ollama para obtener una experiencia fluida en todo el ecosistema Apple (iOS, macOS, Vision Pro).

Se trata de una herramienta útil para los usuarios que deseen la compatibilidad con la plataforma de Apple. Si querías tener una GUI y aún así tener la opción de configurar una interfaz de usuario web para acceder en macOS.

Msty.app (Non-FOSS)


 

 Msty es una fascinante aplicación disponible en múltiples plataformas, que proporciona una interfaz de usuario local para ejecutar modelos de IA o LLM.

Los aspectos más destacados de esta herramienta incluyen ramas conversacionales, y la capacidad de añadir pilas de conocimiento utilizando bóvedas Obsidian (y otros servicios).

Hollama


 

Hollama es otra opción de interfaz de usuario web mínima que ofrece una versión alojada públicamente que no necesita que te registres para poder utilizarla (los datos se almacenan localmente).


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.