Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon
Mostrando entradas con la etiqueta tutorial. Mostrar todas las entradas
Mostrando entradas con la etiqueta tutorial. Mostrar todas las entradas

PostHeaderIcon Ejemplos y funcionamiento avanzado de la API de Ollama


 Como vimos en la entrada aanterior, Ollama nos permite interactuar con LLMs de una forma sencilla y transparente. Mucho más allá de realizar ciertas pruebas sencillas o iniciarnos en el mundo de los LLMs para comprobar su funcionamiento, en el mundo de desarrollo software se suelen necesitar opciones más avanzadas y personalizadas. En este entrada exploraremos estas opciones avanzadas que nos ofrece Ollama para poder personalizar nuestros modelos, así como hacer uso de su API y poder sacarle todo el partido para crear aplicaciones de IA.

 


PostHeaderIcon Instalar y configurar Ollama (servidor Local para servir modelos LLM de IA)


 Ollama es una aplicación que sirve como cliente y centro neurálgico para el uso de modelos LLM de inteligencia artificial. Lo que hace es centralizarlo todo, y permitir la carga de modelos, así como interactuar con ellos.




PostHeaderIcon Cómo integar la API de Ollama con Moodle para usar la IA en un Campus


 Ollama es un software, de código abierto, que permite ejecutar modelos de inteligencia artificial en tu hosting o tu propia computadora.  Una vez instalado en tu servidor puedes integrarlo en Moodle, y usarlos de manera gratuita . Por lo que el costo asociado, es el del servidor donde corre.Con Ollama puedes gestionar y tener diferentes modelos de IA sin necesidades de servicios de terceros, como ChatGPT, Gemini, Grok.  Entre los modelos de IA con Ollama, tenemos, por ejemplo: Deepseek, Llama, Gemma, Mistral, etc.

 

 



PostHeaderIcon Anything LLM: Una herramienta todo en uno para IA


 Anything LLM emerge como una solución integral para empresas y profesionales que buscan optimizar la gestión de documentos y procesos. Esta herramienta, diseñada para conectar modelos de lenguaje grande (LLM) con diversas fuentes de datos, ofrece control total y privacidad, y promete transformar la manera en que manejamos la información.

 


PostHeaderIcon Tutorial proxy inverso y balanceador de carga con HAProxy


 HAProxy es un software que nos permite balancear carga entre varios servidores. Se suele usar para balancear servicios web, pero puede balancear cualquier servicio que funcione bajo protocolo TCP. En este artículo os vamos a enseñar varias configuraciones de HAProxy incluso que tenga en cuenta las cookies, parece una tontería, pero puede provocar que fallen nuestra web. Imagínate que tienes 2 servidores web -en adelante frontales- cuando el usuario llega por primera vez a tu web lo hace en el frontal-01. Cuando el usuario se registra crea una cookie, el usuario siguen navegando y de repente HAProxy envía el tráfico al frontal-2, en ese servidor no existe la cookie y por tanto le cerrará la sesión :(, configurando adecuadamente HAProxy esto no sucederá.




PostHeaderIcon Load Balancing (Balanceo de carga) y failover con CloudFlare


La documentación de CloudFlare es extensa, pero la nomenclatura puede resultar ser un poco confusa al principio. Vamos a comprar el sistema Load Balancer de CloudFlare con otros sistemas como HAPRoxy con sus Backends y FrontEnds, y veremos cuál es el coste y las posibilidades que tenemos.


PostHeaderIcon Configurar e instalar Akvorado 2.0 para monitorizar el tráfico de red


El tráfico de red es como el agua que fluye en un río: alguien puede simplemente quedarse en la orilla y ver cómo fluye, o puede sumergirse más profundamente para comprender de dónde viene cada gota, adónde va y qué sucede en el camino. La mayoría de los administradores se conforman con la primera opción, pero aquellos que realmente quieren controlar su infraestructura eligen la segunda.




PostHeaderIcon Rate Limit con NGINX


Una de las características más útiles, pero a menudo malinterpretadas y mal configuradas, de NGINX es la limitación de velocidad. Permite limitar la cantidad de solicitudes HTTP que un usuario puede realizar en un período de tiempo determinado. Una solicitud puede ser tan simple como una solicitud GET para la página de inicio de un sitio web o una solicitud POST en un formulario de inicio de sesión.





PostHeaderIcon Protección contra DDoS de OPNsense


Un problema bastante molesto: es un servidor web que se ve regularmente paralizado por un ataque SYN flood. De repente, las páginas web y los servicios dejan de funcionar correctamente, aunque el hardware apenas estaba siendo utilizado. Esto se debe a conexiones TCP semiabiertas, un clásico ataque distribuido de denegación de servicio [DDoS].






PostHeaderIcon Smokeping, monitorización vía ping mediante gráficos RRD


Smokeping es una de las herramientas más útiles e importantes para hacer troubleshooting (resolución de problema) tanto de problemas internos de nuestra red, como hacia destinos fuera de la red. Smokeping nos permite ver en forma visual e intertemporal cómo ha estado la latencia y pérdidas de paquetes hacia diferentes destinos de red, en el último día, semana, mes, año o el intervalo de tiempo que queramos ver.





PostHeaderIcon Limitar el ancho de banda dinámicamente con OPNsense


Aprende a configurar el modelado dinámico del tráfico en OPNsense 25.1 para dar prioridad a las videollamadas, los videojuegos y otros servicios críticos frente a las descargas y el streaming. Esta guía paso a paso abarca FQ-CoDel, las reglas de modelado y las prácticas recomendadas para disfrutar de una red doméstica más rápida y fiable.




PostHeaderIcon ¿Qué son los agentes de IA? - La Nueva Frontera de la Inteligencia Artificial


Los agentes de IA representan un avance significativo en la forma en que interactuamos y utilizamos las tecnologías de inteligencia artificial. A diferencia de los sistemas de IA tradicionales que simplemente responden a consultas, los agentes de IA pueden realizar tareas de manera autónoma, tomar decisiones e interactuar con su entorno para alcanzar objetivos específicos.

 



PostHeaderIcon RAID y ZFS: ¿Qué son y para qué sirven?


Todos nosotros conocemos y hemos trabajado con sistema de archivos como NTFS en Windows, o EXT4 en Linux, sin embargo, existen otros sistemas de archivos con diferentes características, funcionamiento y rendimiento. Vamos a hablar en detalle sobre el sistema de archivos ZFS, el mejor sistema de archivos para servidores NAS donde la integridad de los archivos es uno de los aspectos más importantes, sin olvidar la protección de los datos frente a un ransomware o malfuncionamiento de uno de los discos. ¿Estás preparado para saberlo todo sobre ZFS?





PostHeaderIcon Qué es el Model Context Protocol (MCP) y cuál es su papel en el desarrollo de la inteligencia artificial general


Todavía es pronto para sentirnos cerca de la inteligencia artificial general (AGI). Aunque la atención se concentra en modelos cada vez más potentes, como GPT-4, muchos investigadores creen que la capacidad de razonar de manera amplia y flexible no llegará únicamente a fuerza de escalar parámetros. En lugar de un solo cerebro gigantesco, la apuesta de vanguardia se inclina hacia arquitecturas distribuidas, donde varios agentes colaboran, se comunican y, en última instancia, toman decisiones de forma conjunta.

 



PostHeaderIcon Temperatura GPU (Tarjeta Gráfica)


Conocer la temperatura de tu tarjeta gráfica puede ser esencial si tu PC se vuelve inestable: el sobrecalentamiento puede ser la causa. Para un uso ligero, la temperatura de tu tarjeta gráfica puede no ser un gran problema: tu tarjeta gráfica se encarga principalmente de la pantalla y los correos electrónicos típicos, el procesamiento de textos y la navegación web apenas utilizan la GPU.



PostHeaderIcon Sistema de archivos ReFS vs NTFS en Windows 11


Cuando instalamos desde cero el sistema operativo de Microsoft, Windows 11, tenemos la posibilidad de personalizar múltiples parámetros para adaptar el software a nuestras necesidades. Ahora nos vamos a centrar en el sistema de archivos que podemos utilizar en la última versión.

 



PostHeaderIcon Instalar LM Studio (IA LLM en local)


Una de las mejores opciones de instalar DeepSeek u otro modelo LLM es instalarlo en tu PC es a través de LM Studio. Esta aplicación se presenta como una de las soluciones más accesibles para instalar y gestionar distintos modelos de IA. Además, es compatible con Windows, macOS y Linux.






PostHeaderIcon Cómo instalar Stable Diffusion (para generar imágenes mediante IA) en Windows con AUTOMATIC1111


Stable Diffusion es una potente herramienta que te permite crear imágenes impresionantes utilizando solo texto. Con su interfaz de usuario web, podrás interactuar de manera sencilla y crear imágenes sorprendentes con solo unos pocos clics.




PostHeaderIcon Generar imágenes mediante IA con Stable Diffusion


Stable Diffusion XL (SDXL) es el último modelo de imagen AI que puede generar personas realistas, texto legible y diversos estilos artísticos con una excelente composición de imagen. Se trata de una versión más grande y mejorada del célebre modelo Stable Diffusion v1.5, y de ahí el nombre SDXL.



PostHeaderIcon MySQL Replication (Master-Slave)


Cuando se trabaja con bases de datos, puede resultar útil disponer de varias copias de los datos. Esto proporciona redundancia en caso de que falle uno de los servidores de bases de datos y puede mejorar la disponibilidad, escalabilidad y rendimiento general de una base de datos. La práctica de sincronizar datos a través de múltiples bases de datos separadas se denomina replicación.