Stable Diffusion es una potente herramienta que te permite crear imágenes impresionantes utilizando solo texto. Con su interfaz de usuario web, podrás interactuar de manera sencilla y crear imágenes sorprendentes con solo unos pocos clics.
Herramientas para generar imágenes con inteligencia artificial, basados en Stable Diffusion
Forge
Desarrollado por Lymin Zhang, el desarrollador de Fooocus o ControlNet (extensión de Stable Diffusion que permite un mayor control sobre la imagen que generamos), Forge funciona más rápido que Automatic1111 con la misma memoria gráfica. En función de la cantidad de memoria que disponga nuestra tarjeta gráfica su rendimiento será más optimo, a menor cantidad mejor rendimiento notaremos:
- 6GB – mejora de un 60a un 75%
- 8Gb – mejora de un 30% a un 45%
- 24GB – mejora de un 3 a un 6%
La interfaz es muy similar a la que vemos en Automatic1111. Además de contar con extensiones instaladas por defecto como Controlnet, SVD o Z123. Otro punto a su favor es su compatibilidad con el modelo Flux1.
ComfyUI
ComfyUI se lanzó en GitHub en enero de 2023. Requiere de algunos conocimientos técnicos para su instalación pero en poco tiempo prevén lanzar una versión de escritorio compatible con Windows y MacOS que harán mucho más fácil su instalación y la gestión de extensiones.
ComfyUI es una interfaz que ha tenido muy buena aceptación por parte de la comunidad a pesar de su aparente complejidad, ya que no trabajamos con una interfaz predeterminada.
ComfyUI lleva la flexibilidad a un nivel completamente nuevo. Vamos añadiendo nodos a su mesa de trabajo (cada uno de los cuales representa una operación o modelo diferente) según necesitemos realizar una determinada acción; como generar imágenes de alta resolución, aplicar técnicas de retoque o combinar varios modelos para obtener mejores resultados
La conexión entre los diferentes nodos crea flujos que podremos guardar para recuperar en otra ocasión o compartirlo en su comunidad con otros usuarios, lo que nos facilitará realizar determinadas tareas.
Este enfoque de programación visual facilita la creación de prototipos, la prueba y la iteración de ideas. Aquí tienes los primeros pasos para empezar a generar imágenes con esta herramienta.
Automatic1111
Automatic1111 fue la primera interfaz donde podíamos ejecutar modelos basados en Stable Difussion, fueron muchos los que empezamos a usarlo gracias a los Notebooks ejecutados en Google Collab. Actualmente sigue teniendo un buen soporte por parte de la comunidad, aunque existe cierta preferencia a Forge, ya que su rendimiento está más optimizado.
Antes de comenzar el proceso de instalación, asegúrate de que tu PC cumple con los requisitos de hardware necesarios para ejecutar Stable Diffusion de manera óptima. Asegúrate de tener lo siguiente:
- Tarjeta gráfica NVIDIA con al menos 8 GB de memoria.
- 20 GB de almacenamiento en tu disco duro o SSD.
- 16 GB de memoria del sistema.
Es importante contar con una tarjeta gráfica potente para poder aprovechar al máximo las capacidades de Stable Diffusion. Recuerda que estas son solo las especificaciones mínimas, por lo que si cuentas con una tarjeta más potente, obtendrás mejores resultados.
Pros:
- Interfaz de usuario fácil de usar.
- Capacidad para crear imágenes impresionantes con solo texto.
- Requisitos de hardware mínimos.
Contras:
- Requiere una tarjeta gráfica NVIDIA.
- Gran cantidad de almacenamiento necesario.
Instalación manual del software
Instalación de herramientas Git y Python
La instalación de Stable Diffusion requiere la instalación de algunos programas adicionales que no vienen por defecto en Windows. A continuación, te mostraré cómo descargar e instalar estos programas para que puedas continuar con la instalación de Stable Diffusion.
3.1 Descargar Python Para comenzar, necesitarás descargar Python, un lenguaje de programación ampliamente utilizado que es necesario para ejecutar Stable Diffusion. Asegúrate de descargar la versión recomendada e instalarla siguiendo las instrucciones en pantalla.
3.2 Descargar Git El siguiente programa que necesitarás descargar es Git, un sistema de control de versiones que te permitirá clonar el repositorio de Automatic 1111 necesario para la instalación de Stable Diffusion. Descarga la versión recomendada e instálala siguiendo las instrucciones en pantalla.
3.3 Descargar el Cuaderno de Herramientas de CUDA Si tu tarjeta gráfica NVIDIA no es compatible con Stable Diffusion de forma automática, es posible que debas descargar el Cuaderno de Herramientas de CUDA. Este cuaderno proporciona las bibliotecas necesarias para aprovechar al máximo tu tarjeta gráfica. Descarga el Cuaderno de Herramientas de CUDA desde el sitio web de NVIDIA e instálalo siguiendo las instrucciones proporcionadas.
Crear una carpeta para la interfaz de usuario web de Stable Diffusion e instalar
Instalación automática Windows
El webui.zip es una distribución binaria para personas que no pueden instalar python y git.
Todo está incluido - simplemente haz doble clic en run.bat para lanzar.
No hay requisitos aparte de Windows 10. Sólo NVIDIA.
Después de ejecutar una vez, debe ser posible copiar la instalación a otro equipo y lanzar allí sin conexión.
Flujo de trabajo básico para Automatic1111
Estos son los pasos esenciales para comenzar a generar imágenes:
- Elige el modelo Stable Diffusion. Para empezar usa uno base como v1.5.
- Escribe una descripción detallada de la imagen que quieres crear. Sé específico.
- Establece el tamaño en píxeles del resultado, como 512×512 px.
- Indica la cantidad de imágenes a generar cada vez. Mínimo unas pocas.
- Haz clic en el botón Generar. En pocos segundos tendrás tus imágenes de IA.
Entendiendo los parámetros básicos de Automatic1111
A continuación explico con más detalle las diversas opciones de configuración disponibles:
- Modelo: Elige el modelo que quieras utilizar. Cada modelo tiene una especialización distinta, hay modelos muy concretos para obtener resultados muy precisos por ejemplo de paisajes, o de personas, y también hay modelos más generalistas como SDXL.
- Sampling method, o método de muestreo se refiere a la forma en que se seleccionan los píxeles de la imagen original para crear la imagen escalada. Cada método de muestreo puede darte resultados muy distintos, por lo que debes conocerlos y elegir aquel que genere las imágenes que más se adapten a tus gustos.
- Sampling steps se refieren a la cantidad de veces que se aplica el método de muestreo para crear la imagen escalada. Normalmente, a más pasos, más calidad y detalle, pero a partir de 50 los resultados no serán tan buenos. Lo ideal es entre 30 y 50.
- Hires fix: Emplea upscalers basados en IA para aumentar la resolución nativa de 512px a dimensiones mayores.
- Refiner: nos permite aplicar otro modelo para refinar ciertos aspectos de la imagen.
- Width-Height: se refiere a las dimensiones de la imagen a generar. Es importante que tengamos en cuenta las dimensiones que utiliza cada modelo. Por ejemplo, SDXL es bueno para 1024×1024, y Stable Diffusion 1.5 es bueno para 512×512.
- CFG Scale: Es una escala en la que indicamos cuánto de fiel queremos que sea la generación al prompt. Cuanto más bajo sea el número, más libertad le damos. Cuanto más alto, más estricto será. Te recomendamos trabajar entre el 5 y el 8.
- Batch count: Se refiere al número de lotes de imágenes que queremos generar.
- Batch size: se refiere al número de imágenes que queremos generar por cada lote. Si el batch count es 2, y el batch size es 4, generaremos 2×4 imágenes = 8.
- Semilla: Permite fijar el contenido variando este número. Resulta muy útil una vez que obtienes una composición que te gusta, para después ajustar el prompt conservando los elementos principales.
- Semilla extra: Sirve para mezclar dos semillas distintas e interpolar sus resultados. Así puedes crear variaciones a partir de imágenes existentes.
Consejos para mejores resultados
Algunas recomendaciones para crear mejores imágenes con tus prompts:
- Sé lo más descriptivo posible. Cuanto más detalles, mejor.
- Utiliza adjetivos para colores, expresiones, poses, etc. Ej: «mujer pelirroja sonriendo».
- Prueba prompts similares varias veces. La IA no siempre acierta a la primera.
- Aumenta el tamaño de salida para más calidad. Por ejemplo 1024×1024 px.
- Juega con los ajustes avanzados para generar más variaciones.
Principales funciones
Algunas de las funciones más útiles en la pestaña img2img:
- Boceto: Dibuja sobre un lienzo en blanco o negro para luego generar la imagen final por IA.
- Relleno: Regenera zonas marcadas con el pincel, dejando el resto intacto.
- Subir imagen: Usa máscaras externas para seleccionar las áreas a rellenar.
- Lote: Procesa múltiples imágenes a la vez aplicando la misma configuración.
- Upscaling: Aumenta la resolución de imágenes con escaladores de IA.
Ajustes y personalización
En la pestaña Ajustes puedes configurar opciones para personalizar AUTOMATIC1111:
- Modelos de restauración facial para mejorar retratos.
- VAEs para optimizar ojos y rostros en modelos v1.
- Accesos rápidos personalizados para activar funciones recurrentes.
Pestaña Imagen a Imagen
En la pestaña img2img puedes modificar imágenes existentes y crear otras nuevas tomándolas como base.
Inicializar Stable Diffusion
Configuraciones extra a través de COMMANDLINE_ARGS
set COMMANDLINE_ARGS=--autolaunch --update-check
Opciones extra
-xformers o --opt-sdp-attention
- add --autolaunch para que web UI inicie el navegador web automáticamente después de que web UI se haya iniciado.
- add --update-check le notificará cuando haya una nueva versión de webui.
Funcionamiento con la CPU
--use-cpu all --precision full --no-half --skip-torch-cuda-test
Uso óptimo de SDXL
- Nvidia (12gb+) --xformers
- Nvidia (8gb) --medvram-sdxl --xformers
- Nvidia (4gb) --lowvram --xformers
Cambiar la ubicación de la carpeta de modelos
- El disco principal tiene poco espacio
- Está utilizando modelos en múltiples herramientas y no quiere almacenarlos dos veces
- La carpeta de modelos por defecto es stable-diffusion-webui/models










No hay comentarios:
Publicar un comentario