Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
295
)
-
▼
marzo
(Total:
18
)
-
Protección de Datos de España multa con 1 millón d...
-
Realme 14 Pro y 14 Pro+ llegan a España haciendo g...
-
Herramientas con interfaz web para Ollama (IA)
-
GPT-4.5 de OpenAI rompe récords en las pruebas de ...
-
Desarrollan baterías que convierten energía nuclea...
-
Amazon trabaja en una IA (Nova) de razonamiento pa...
-
LaLiga bloquea direcciones IP de CloudFlare y afec...
-
Spotify bloquea definitivamente las APK piratas: u...
-
Nothing desvela la nueva serie Phone (3a), con cám...
-
Filtrados 570 GB de datos sensibles de CCOO
-
Procesadores que no deberías comprar en 2025
-
360XSS: inyección masiva de anuncios a través de p...
-
Google Translate mejorará sus traducciones con IA
-
Caso Interfactura, el posible hackeo que pone en j...
-
APIs y contraseñas confidenciales utilizadas para ...
-
¿Qué es DeepSeek y cómo dar tus primeros pasos con...
-
DeepSeek lanza un sistema de archivos de código ab...
-
El Corte Inglés sufre un ciberataque que ha filtra...
-
-
▼
marzo
(Total:
18
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
La modalidad de clonación de llaves electrónicas funciona mediante un dispositivo que interceptaba la señal de la llave original. Las lla...
-
El tunelado TCP es útil porque puedes reenviar conexiones que no son sólo sitios web ejecutando HTTP(s). Los casos de uso donde esto se ap...
-
Un fin de semana más, las operadoras han vuelto a ser protagonistas de numerosas críticas debido a los bloqueos de direcciones IP por orden ...
Herramientas con interfaz web para Ollama (IA)
Ollama es una herramienta gratuita y de código abierto que permite a los usuarios ejecutar localmente grandes modelos lingüísticos (LLM). Simplifica la experiencia de la IA al permitirle interactuar con los LLM sin complicaciones en su máquina.
Desafortunadamente, ofrece una CLI, que puede no ser del gusto de todos Por lo tanto, puedes optar por mejorar tu experiencia (y hacerla más fácil) ejecutando LLMs localmente utilizando una interfaz de usuario web. Para lograrlo, tienes algunas herramientas de código abierto que proporcionan una interfaz de usuario web.
Anything-llm
La aplicación de IA todo en uno para escritorio y Docker con RAG integrado, agentes de IA, creador de agentes sin código y mucho más.
Una aplicación completa que te permite convertir cualquier documento, recurso o pieza de contenido en contexto que cualquier LLM puede utilizar como referencia durante el chat. Esta aplicación te permite elegir qué LLM o base de datos vectorial quieres utilizar, además de admitir gestión multiusuario y permisos.
AnythingLLM es una aplicación full-stack donde puedes utilizar LLMs comerciales off-the-shelf o LLMs populares de código abierto y soluciones vectorDB para construir un ChatGPT privado sin compromisos que puedes ejecutar localmente así como alojar remotamente y ser capaz de chatear inteligentemente con cualquier documento que le proporciones.
AnythingLLM divide tus documentos en objetos llamados espacios de trabajo. Un espacio de trabajo funciona de forma muy parecida a un hilo, pero con el añadido de la contenedorización de sus documentos. Los espacios de trabajo pueden compartir documentos, pero no se comunican entre sí para que pueda mantener limpio el contexto de cada espacio de trabajo.
Page Assist
Desde permitirte gestionar fácilmente los modelos instalados, añadir archivos para analizar o investigar hasta poder habilitar la búsqueda en Internet, es una forma cómoda de acceder a los LLM directamente en tu navegador.
También puedes decidir compartir tus resultados con el mundo utilizando una URL autoalojada (no estoy seguro de quién querría eso, pero sí).
Soporta APIs compatibles con OpenAI y funciona completamente offline. Se puede instalar rápidamente utilizando Docker o Kubernetes. Además, cuenta con una Progressive Web App para móviles, e integraciones de generación de imágenes.
Si quieres una interfaz de usuario web para Ollama, creo que es una recomendación fácil. Sin embargo, si buscas algo diferente, también hay muchas otras opciones.
Lobe Chat
Lobe Chat es un framework de interfaz de usuario similar a ChatGPT, local y centrado en la privacidad.
Puedes desplegar tu aplicación privada de chat Ollama usando Lobe Chat, y debería tener un aspecto bastante elegante. También está disponible como un script de un solo clic si utilizas Pinokio, el navegador de IA.
Lobe Chat también admite conversaciones de voz y generación de texto a imagen. Además, puedes mejorar sus capacidades utilizando plugins. También es compatible con Progressive Web App.
Text Generation Web UI
Una interfaz de usuario web que se centra por completo en las capacidades de generación de texto, construida utilizando la biblioteca Gradio, un paquete Python de código abierto para ayudar a construir interfaces de usuario web para modelos de aprendizaje automático.
Text Generation Web UI presenta tres estilos de interfaz diferentes, un modo de chat tradicional, un modo de dos columnas y un modelo de cuaderno. Obtendrá soporte para modelos compatibles con OpenAI e integración con la librería de transformadores.
Ollama UI
Si no necesitas nada sofisticado, ni un soporte de integración especial, sino más bien una experiencia básica con una interfaz de usuario web accesible, Ollama UI es lo que necesitas.
Se trata de una sencilla interfaz basada en HTML que te permite utilizar Ollama en tu navegador. También dispone de una extensión de Chrome para utilizarla. Como se puede ver en la captura de pantalla, se obtiene una simple opción desplegable para seleccionar el modelo que desea utilizar, y eso es todo.
Ollama GUI
Mientras que todas las demás te permiten acceder a Ollama y otros LLM independientemente de la plataforma (en tu navegador), Ollama GUI es una app para usuarios de macOS.
La aplicación es gratuita y de código abierto, construida utilizando el marco SwiftUI, se ve bastante, por lo que no dudé en añadirla a la lista.
Sí, puede que no sea una herramienta de interfaz de usuario web que te permita acceder al modelo desde tu teléfono o cualquier navegador, pero es una opción factible para los usuarios de macOS.
Lord of LLMs Web UI
Un nombre bastante descriptivo, alias, LoLLMs Web UI es una solución decentemente popular para LLMs que incluye soporte para Ollama.
Soporta un rango de habilidades que incluyen generación de texto, generación de imágenes, generación de música y más. Puedes integrarlo con el repositorio de GitHub para un acceso rápido y elegir entre las diferentes personalidades que ofrece.
Puedes configurarlo en Linux usando el script de instalación automática, y eso es una forma fácil de empezar a usarlo.
LibreChat
LibreChat es una alternativa de código abierto a ChatGPT que puedes implementar localmente o en la nube.
Es compatible con Ollama. Puede utilizar LLMs de código abierto y modelos propietarios populares como Google Vertex AI, ChatGPT, y más. Está hecho a medida para ser un clon de ChatGPT, por lo que no encontrarás nada único en la interfaz de usuario que ofrece. Pero, para algunos, la familiaridad de la interfaz de usuario puede ayudarle a navegar mejor.
Minimal LLM UI
Minimal LLM UI es una opción inusual que proporciona una interfaz web para Ollama utilizando React, con el objetivo de ofrecerte un diseño limpio y moderno.
Puedes cambiar entre LLMs, y guardar tu conversación localmente usando una base de datos.
Enchanted
Enchanted es una app de código abierto que te permite conectarte a tus modelos privados, compatible con Ollama para obtener una experiencia fluida en todo el ecosistema Apple (iOS, macOS, Vision Pro).
Se trata de una herramienta útil para los usuarios que deseen la compatibilidad con la plataforma de Apple. Si querías tener una GUI y aún así tener la opción de configurar una interfaz de usuario web para acceder en macOS.
Msty.app (Non-FOSS)
Msty es una fascinante aplicación disponible en múltiples plataformas, que proporciona una interfaz de usuario local para ejecutar modelos de IA o LLM.
Los aspectos más destacados de esta herramienta incluyen ramas conversacionales, y la capacidad de añadir pilas de conocimiento utilizando bóvedas Obsidian (y otros servicios).
Hollama
Hollama es otra opción de interfaz de usuario web mínima que ofrece una versión alojada públicamente que no necesita que te registres para poder utilizarla (los datos se almacenan localmente).
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.