-
▼
2025
(Total:
470
)
-
▼
abril
(Total:
36
)
-
¿Qué es la cuantización, los parámetros y la tempe...
-
ByteDance DreamActor-M1: La IA que anima tu foto e...
-
Docker Model Runner: ejecución sencilla de modelos...
-
Amazon se une a la lista de interesados en comprar...
-
La Justicia francesa obliga a CloudFlare bloquear ...
-
Samsung sufre una filtración de datos de 270.000 r...
-
Con 21 años creó una IA que engaña en entrevistas ...
-
Anthropic presenta Claude para la Educación, una I...
-
Microsoft presenta la máquina de recuperación rápi...
-
No hace falta pagar para tener un escritorio remot...
-
La Policía Nacional detiene en España a 16 persona...
-
Microsoft filtró una clave de activación un mes an...
-
Los internautas españoles claman contra la Justici...
-
Movistar no levanta el bloqueo de las IP de Cloudf...
-
Sanción a Apple de 150M€ por abuso de posición dom...
-
Archivos de FGR, SAT y más de 1,500 sitios mexican...
-
Gen-4, la IA que genera videos más realistas que Sora
-
Microsoft Word permite resumir documentos de cient...
-
Vulnerabilidades críticas en PHP y Apache Tomcat
-
Microsoft quiere cambiar el pantallazo azul de la ...
-
El Gobierno de España aprueba el DNI digital, que ...
-
Elon Musk afirma que le ha dado a la madre de su ú...
-
Un juzgado admite la demanda millonaria de la OCU ...
-
Google admite no saber por qué su IA aprende cosas...
-
Filtrados 2.800 millones de usuarios de Twitter/X,...
-
Una mujer recupera el habla 18 años después de un ...
-
Amazon Nova Act es la nueva IA que puede navegar l...
-
Un usuario se compró un lavavajillas conectado de ...
-
Hackean la megafonía de El Corte Inglés e incitan ...
-
Temperatura GPU (Tarjeta Gráfica)
-
Cifrado extremo a extremo ¿qué es?
-
Bjarne Stroustrup, creador de C++, aconseja a los ...
-
OpenAI aumenta las recompensas de su programa de v...
-
Sistema de archivos ReFS vs NTFS en Windows 11
-
Instalar LM Studio (IA LLM en local)
-
La banda del Niño Skin consiguió 'empurar' al guar...
-
-
▼
abril
(Total:
36
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
- El robo del siglo: así perpetró Corea del Norte el mayor hurto de activos digitales de la historia para financiar su pro
- Nuevo DNI digital: cómo funciona y cuándo será posible llevar el DNI en el móvil
- Trump restó importancia a la filtración de planes militares de EEUU en un chat
- Corea del Norte prepara un ejército de hackers: especializados en IA para espiar a Occidente
- Elon Musk cobra la API de Twitter (X) a precio de oro: esta app te permite usarla gratis
¿Qué es la cuantización, los parámetros y la temperatura en los LLM?
Los grandes modelos lingüísticos (LLM) vienen en todos los sabores. Cada vez son más grandes en cuanto al número de parámetros y más capaces de aprender y procesar los datos. Cuantos más parámetros tenga un modelo, más complejo será y más datos podrá procesar. Sin embargo, esto tiene el inconveniente de que su formación y despliegue resultan caros.
Docker Model Runner: ejecución sencilla de modelos generativos locales LLM
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.

Anthropic asegura haber descubierto cómo ‘piensan’ los modelos de IA
Anthropic, la compañía responsable de Claude 3.7 Sonnet, afirma haber descifrado cómo "piensan" los modelos de IA. Investigadores de la empresa llevaron a cabo un estudio para comprender el funcionamiento de los modelos de lenguaje de gran tamaño (LLM). Sus hallazgos podrían ofrecer una visión más clara sobre cómo generan respuestas, toman decisiones o producen resultados engañosos.
DeepSeek presenta un nuevo modelo de IA optimizado: DeepSeek V3-0324 (700GB)
DeepSeek, la empresa china que puso de cabeza a OpenAI y otras empresas tecnológicas, ha lanzado la última versión de su modelo estrella: DeepSeek V3-0324. Esta inesperada actualización introduce mejoras en rendimiento y accesibilidad, posicionándolo como uno de los modelos de IA más avanzados para el usuario final. Una de sus características más llamativas es su capacidad para ejecutarse en un Mac Studio con chip M3 a una velocidad sorprendente.
NVIDIA presenta los modelos de razonamiento de IA Llama Nemotron
NVIDIA (NASDAQ:NVDA), el gigante de semiconductores ha anunciado el lanzamiento de su familia de modelos Llama Nemotron, diseñados para mejorar las capacidades de razonamiento de IA para desarrolladores y empresas. Se dice que los nuevos modelos mejoran las tareas matemáticas de varios pasos, codificación, razonamiento y toma de decisiones complejas, con mejoras de precisión de hasta un 20% y optimizaciones de velocidad de inferencia 5 veces superiores en comparación con los modelos existentes.
La IA de código abierto iguala a los mejores LLM propietarios en la resolución de casos médicos complejos
Los hallazgos sugieren que las herramientas
de IA de código abierto se están volviendo cada vez más competitivas y
podrían ofrecer una alternativa valiosa a los modelos propietarios.
“Hasta donde sabemos, esta es la primera vez que un modelo de IA de
código abierto iguala el rendimiento de GPT-4 en casos tan complejos
evaluados por médicos”, afirmó el autor principal, Arjun Manrai.
Google anuncia Gemma 3: su nueva IA ligera para dispositivos locales
Google acaba de hacer oficial Gemma 3, una nueva serie de modelos de IA que ofrece varios tamaños de parámetros y que puede ejecutarse tanto en una sola GPU como TPU. Gemma es una versión más ligera de Gemini y es abierta a todo el mundo, siendo estas dos características sus principales ventajas respecto a Gemini. La intención por parte de Google con Gemma es dotar a los usuarios de las herramientas necesarias para desarrollar aplicaciones que sean capaces de aprovechar todo el potencial de la IA y todo ello sin limitaciones en cuanto a hardware.
La china Alibaba lanza una IA que dice mejorar a DeepSeek y se dispara en bolsa
La tecnológica china Alibaba ha desvelado este jueves su nueva inteligencia artificial (IA), que asegura mejora a DeepSeek y presenta batalla a alternativas occidentales como ChatGPT. El anuncio le ha valido un impulso del 8% en bolsa, lo que hace que en el año ya trepe el 70%, por encima de los 300.000 millones de dólares en valor bursátil.
Herramientas con interfaz web para Ollama (IA)
APIs y contraseñas confidenciales utilizadas para entrenar LLM
Se ha descubierto que un conjunto de datos utilizado para entrenar modelos de lenguaje grandes (LLM) contiene casi 12.000 secretos activos, que permiten una autenticación exitosa. Los hallazgos resaltan una vez más cómo las credenciales codificadas de forma dura (hardcoding) plantean un grave riesgo de seguridad tanto para los usuarios como para las organizaciones, sin mencionar que agravan el problema cuando los LLM terminan sugiriendo prácticas de codificación inseguras a sus usuarios.
OWASP Top 10 para aplicaciones de modelos de lenguaje de gran tamaño (LLM)
El Top 10 de riesgos para programas LLM de 2025 comenzó en 2023 como un esfuerzo impulsado por la comunidad para destacar y abordar problemas de seguridad específicos de las aplicaciones de IA.
NVIDIA Tesla P40 en un ordenador personal para IA LLM
La NVIDIA Tesla P40, que en su día fue una potencia en el ámbito de las GPU de servidor, está diseñada principalmente para tareas de aprendizaje profundo e inteligencia artificial. Equipada con 24 GB de VRAM GDDR5, esta GPU es una opción interesante para quienes deseen ejecutar modelos de generación local de texto, como los basados en arquitecturas GPT (Generative Pre-trained Transformer). Este artículo explora la viabilidad, las posibles ventajas y el proceso de instalación de la Tesla P40 en un ordenador de consumo.
Anthropic presenta Claude 3.7 Sonnet: la primera IA híbrida capaz de razonar y programar
Anthropic ha lanzado Claude 3.7 Sonnet, bautizado como el primer modelo de razonamiento híbrido del mundo. La compañía integrada por exempleados de OpenAI consiguió desarrollar un modelo de IA capaz de ofrecer respuestas rápidas o llevar a cabo un razonamiento profundo. La doble funcionalidad de esta IA representa un cambio significativo respecto a los modelos de la competencia.
¿Qué es la generación aumentada de recuperación (RAG)?
La generación mejorada por recuperación (RAG) es el proceso de optimización de la salida de un modelo lingüístico de gran tamaño, de modo que haga referencia a una base de conocimientos autorizada fuera de los orígenes de datos de entrenamiento antes de generar una respuesta. Los modelos de lenguaje de gran tamaño (LLM) se entrenan con grandes volúmenes de datos y usan miles de millones de parámetros para generar resultados originales en tareas como responder preguntas, traducir idiomas y completar frases. RAG extiende las ya poderosas capacidades de los LLM a dominios específicos o a la base de conocimientos interna de una organización, todo ello sin la necesidad de volver a entrenar el modelo. Se trata de un método rentable para mejorar los resultados de los LLM de modo que sigan siendo relevantes, precisos y útiles en diversos contextos.
Inteligencia artificial en local en tu PC
Una lista con las mejores herramientas gratis para instalar modelos de inteligencia artificial de forma local, y así crear tu propio ChatGPT con modelos como DeepSeek, Llama, y más. Se trata de modelos de código abierto, lo que quiere decir que puedes instalarlos y usarlos gratis en tu ordenador.
Europa anuncia OpenEuroLLM, su plan para plantarle cara a Silicon Valley y China con IA de código abierto
Los grandes avances en materia de inteligencia artificial hoy llegan desde Estados Unidos y China, y eso no es novedad. Sin embargo, Europa no quiere quedarse atrás y aspira a cerrar la brecha de la mano de OpenEuroLLM, un proyecto para crear modelos de lenguaje de próxima generación de código abierto.
¿Qué son los tokens en el contexto de los LLM?
Los tokens son palabras, juegos de caracteres o combinaciones de palabras y signos de puntuación generados por modelos de lenguaje grandes (LLM) cuando descomponen texto. La tokenización es el primer paso del entrenamiento. El LLM analiza las relaciones semánticas entre tokens, como la frecuencia con la que se usan juntos o si se usan en contextos similares. Después del entrenamiento, el LLM usa esos patrones y relaciones para generar una secuencia de tokens de salida en función de la secuencia de entrada.
¿Qué es el destilado de una LLM?
La destilación es una técnica de entrenamiento de LLM en la que un modelo más pequeño y eficiente (como GPT-4o mini) se entrena para imitar el comportamiento y los conocimientos de un modelo más grande y complejo (como GPT-4o).
Instalar DeepSeek (destilado) con Ollama en tu ordenador para usarlo de forma local
DeepSeek, la herramienta china que revoluciona la IA mundial
Con una inteligencia artificial cada vez más presente en nuestros dispositivos, hay una aplicación que está rompiendo moldes actualmente. Y no es ChatGPT: DeepSeek, una app basada en los modelos chinos de ese mismo nombre, brinda una herramienta realmente completa, potente y sin coste. Encima, es Open Source. Y se puede descargar al móvil.