-
▼
2025
(Total:
530
)
-
▼
abril
(Total:
96
)
-
ServerlessHorrors: la web que recoge las peores pe...
-
Estados Unidos deja atrás las cintas magnéticas co...
-
FACUA pide a la AEPD que investigue a Cecotec por ...
-
Le han enseñado todos los capítulos de ‘Tom y Jerr...
-
¿Qué son los «embeddings» en un LLM?
-
¿Qué es una ventana de contexto en un LLM?
-
Diferencias entre los procesadores Ryzen, Threadri...
-
Los videojuegos ya generan más dinero con micropag...
-
La historia de la Inteligencia Artificial (IA)
-
Duelo de titanes: procesadores Intel Xeon y AMD EPYC
-
Firebase Studio de Google te permite programar gra...
-
Jeff Bezos funda una compañía de coches eléctricos...
-
Linus Torvalds se rinde ante Git: "Es más popular ...
-
La promesa de AMD Strix Halo de jugar con un PC Ga...
-
Google convierte cualquier documento en un pódcast...
-
OpenSSH 10 se despide de DSA y da la bienvenida al...
-
Vulnerabilidad de Windows aprovechada para instala...
-
Los procesadores fotónicos, infinitamente más rápi...
-
Millones de ordenadores sumergidos en fluidos para...
-
Hackean el sitio de filtraciones del grupo de rans...
-
AMD anuncia los procesadores Ryzen 8000HX para por...
-
Disponible Commandos: Origins, una precuela que re...
-
Samsung Ballie, un robot de uso doméstico utiliza ...
-
Google lanza un protocolo abierto para que los age...
-
Anbernic RG 557, una consola portátil con Android ...
-
Archivo JPEG en WhatsApp para Windows podría ser u...
-
Tranquilo y arrepentido, así se ha mostrado el Alc...
-
Cecotec fue hackeada en 2023 y lo dice ahora: roba...
-
El uso de IA generativa hace más "tontas" a las pe...
-
Microsoft despide a una ingeniera marroquí por neg...
-
Google anuncia Sec-Gemini, un modelo de IA para re...
-
Asus, Dell, HP, Lenovo y Razer detienen sus envíos...
-
Qué es el Model Context Protocol (MCP) y cuál es s...
-
Android 16 llega hoy a los móviles Xiaomi
-
Donald Trump cree que Estados Unidos puede fabrica...
-
¿Cuánto dinero ha perdido Apple por los aranceles ...
-
Aseguran haber robado los datos de la Lista Robins...
-
La empresa matriz de Kellogg's, víctima de un cibe...
-
FreeDOS 1.4, el DOS de código abierto
-
Shotcut 25.03 ya está disponible
-
Apple ha hecho algo para mitigar los aranceles: fl...
-
Deepseek-R1: El Modelo Revolucionario que Eleva lo...
-
El bufete de abogados de Javier Tebas también usa ...
-
El CEO de Google advierte: su inteligencia artific...
-
Desarticulada una organización que creaba vídeos d...
-
La ONU alerta: la IA podría destruir más de 8 mill...
-
China anuncia un cable que transmite video 8K y al...
-
OpenAI podría añadir marcas de agua visibles a las...
-
Círculo azul de Instagram con Meta AI: qué es y có...
-
Las tecnológicas chinas apuestan por la IA con mod...
-
Gestor de paquetes Debian APT 3.0 con una interfaz...
-
Restaurar un SSD con el método del ciclo de energía
-
El invierno de la IA: así fue el período en el que...
-
Comprar un PC con ARM en 2025
-
NVIDIA publica todas sus tecnologías PhysX y Flow ...
-
Desarrollar software en 2027 será como dirigir una...
-
Así está cambiando la IA la forma en que el mundo ...
-
Crea un pasaporte falso en cinco minutos con ChatG...
-
China ha comenzado la producción masiva de batería...
-
Meta presenta Llama 4, su nuevo modelo LLM de inte...
-
¿Qué es la cuantización, los parámetros y la tempe...
-
ByteDance DreamActor-M1: La IA que anima tu foto e...
-
Docker Model Runner: ejecución sencilla de modelos...
-
Amazon se une a la lista de interesados en comprar...
-
La Justicia francesa obliga a CloudFlare bloquear ...
-
Samsung sufre una filtración de datos de 270.000 r...
-
Con 21 años creó una IA que engaña en entrevistas ...
-
Anthropic presenta Claude para la Educación, una I...
-
Microsoft presenta la máquina de recuperación rápi...
-
No hace falta pagar para tener un escritorio remot...
-
La Policía Nacional detiene en España a 16 persona...
-
Microsoft filtró una clave de activación un mes an...
-
Los internautas españoles claman contra la Justici...
-
Movistar no levanta el bloqueo de las IP de Cloudf...
-
Sanción a Apple de 150M€ por abuso de posición dom...
-
Archivos de FGR, SAT y más de 1,500 sitios mexican...
-
Gen-4, la IA que genera videos más realistas que Sora
-
Microsoft Word permite resumir documentos de cient...
-
Vulnerabilidades críticas en PHP y Apache Tomcat
-
Microsoft quiere cambiar el pantallazo azul de la ...
-
El Gobierno de España aprueba el DNI digital, que ...
-
Elon Musk afirma que le ha dado a la madre de su ú...
-
Un juzgado admite la demanda millonaria de la OCU ...
-
Google admite no saber por qué su IA aprende cosas...
-
Filtrados 2.800 millones de usuarios de Twitter/X,...
-
Una mujer recupera el habla 18 años después de un ...
-
Amazon Nova Act es la nueva IA que puede navegar l...
-
Un usuario se compró un lavavajillas conectado de ...
-
Hackean la megafonía de El Corte Inglés e incitan ...
-
Temperatura GPU (Tarjeta Gráfica)
-
Cifrado extremo a extremo ¿qué es?
-
Bjarne Stroustrup, creador de C++, aconseja a los ...
-
OpenAI aumenta las recompensas de su programa de v...
-
Sistema de archivos ReFS vs NTFS en Windows 11
-
Instalar LM Studio (IA LLM en local)
-
La banda del Niño Skin consiguió 'empurar' al guar...
-
-
▼
abril
(Total:
96
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
- Este Centro de Llamadas Fraudulento es HACKEADO y DESTRUIDO con Malware del FBI
- El robo del siglo: así perpetró Corea del Norte el mayor hurto de activos digitales de la historia para financiar su pro
- Nuevo DNI digital: cómo funciona y cuándo será posible llevar el DNI en el móvil
- Trump restó importancia a la filtración de planes militares de EEUU en un chat
- Corea del Norte prepara un ejército de hackers: especializados en IA para espiar a Occidente
¿Qué son los «embeddings» en un LLM?
¿Qué es una ventana de contexto en un LLM?
La ventana de contexto (o "longitud de contexto") de un modelos de lenguaje de gran tamaño (LLM) es la cantidad de texto, en token, que el modelo puede considerar o "recordar" en cualquier momento. De forma sencilla podemos definir la ventana de contexto de un Gran Modelo de Lenguaje como la cantidad de tokens que el modelo puede procesar al momento de interpretar una secuencia de texto.
Qué es el Model Context Protocol (MCP) y cuál es su papel en el desarrollo de la inteligencia artificial general
Todavía es pronto para sentirnos cerca de la inteligencia artificial general (AGI). Aunque la atención se concentra en modelos cada vez más potentes, como GPT-4, muchos investigadores creen que la capacidad de razonar de manera amplia y flexible no llegará únicamente a fuerza de escalar parámetros. En lugar de un solo cerebro gigantesco, la apuesta de vanguardia se inclina hacia arquitecturas distribuidas, donde varios agentes colaboran, se comunican y, en última instancia, toman decisiones de forma conjunta.
Deepseek-R1: El Modelo Revolucionario que Eleva los Estándares de los LLM de Código Abierto 🚀
Deepseek-R1 no pretende haber iniciado la revolución en los LLM de
código abierto —esa responsabilidad recae en pioneros como Alpaca—, sino
que llega para elevar los estándares.
Con un rendimiento sobresaliente, eficiencia operativa y una filosofía
de código abierto, Deepseek-R1 y sus versiones destiladas están
destinados a impulsar una nueva era en la integración de inteligencia
artificial en aplicaciones, investigación y desarrollo colaborativo.
¿Qué es la cuantización, los parámetros y la temperatura en los LLM?
Los grandes modelos lingüísticos (LLM) vienen en todos los sabores. Cada vez son más grandes en cuanto al número de parámetros y más capaces de aprender y procesar los datos. Cuantos más parámetros tenga un modelo, más complejo será y más datos podrá procesar. Sin embargo, esto tiene el inconveniente de que su formación y despliegue resultan caros.
Docker Model Runner: ejecución sencilla de modelos generativos locales LLM
Docker ha lanzado hace muy poco una nueva herramienta que promete simplificar y optimizar el trabajo con modelos de inteligencia artificial generativa en entornos locales: Docker Model Runner. Si trabajas con Docker y te interesan los grandes modelos de lenguaje, esta nueva característica podría transformar tu flujo de trabajo de manera importante.

Anthropic asegura haber descubierto cómo ‘piensan’ los modelos de IA
Anthropic, la compañía responsable de Claude 3.7 Sonnet, afirma haber descifrado cómo "piensan" los modelos de IA. Investigadores de la empresa llevaron a cabo un estudio para comprender el funcionamiento de los modelos de lenguaje de gran tamaño (LLM). Sus hallazgos podrían ofrecer una visión más clara sobre cómo generan respuestas, toman decisiones o producen resultados engañosos.
DeepSeek presenta un nuevo modelo de IA optimizado: DeepSeek V3-0324 (700GB)
DeepSeek, la empresa china que puso de cabeza a OpenAI y otras empresas tecnológicas, ha lanzado la última versión de su modelo estrella: DeepSeek V3-0324. Esta inesperada actualización introduce mejoras en rendimiento y accesibilidad, posicionándolo como uno de los modelos de IA más avanzados para el usuario final. Una de sus características más llamativas es su capacidad para ejecutarse en un Mac Studio con chip M3 a una velocidad sorprendente.
NVIDIA presenta los modelos de razonamiento de IA Llama Nemotron
NVIDIA (NASDAQ:NVDA), el gigante de semiconductores ha anunciado el lanzamiento de su familia de modelos Llama Nemotron, diseñados para mejorar las capacidades de razonamiento de IA para desarrolladores y empresas. Se dice que los nuevos modelos mejoran las tareas matemáticas de varios pasos, codificación, razonamiento y toma de decisiones complejas, con mejoras de precisión de hasta un 20% y optimizaciones de velocidad de inferencia 5 veces superiores en comparación con los modelos existentes.
La IA de código abierto iguala a los mejores LLM propietarios en la resolución de casos médicos complejos
Los hallazgos sugieren que las herramientas
de IA de código abierto se están volviendo cada vez más competitivas y
podrían ofrecer una alternativa valiosa a los modelos propietarios.
“Hasta donde sabemos, esta es la primera vez que un modelo de IA de
código abierto iguala el rendimiento de GPT-4 en casos tan complejos
evaluados por médicos”, afirmó el autor principal, Arjun Manrai.
Google anuncia Gemma 3: su nueva IA ligera para dispositivos locales
Google acaba de hacer oficial Gemma 3, una nueva serie de modelos de IA que ofrece varios tamaños de parámetros y que puede ejecutarse tanto en una sola GPU como TPU. Gemma es una versión más ligera de Gemini y es abierta a todo el mundo, siendo estas dos características sus principales ventajas respecto a Gemini. La intención por parte de Google con Gemma es dotar a los usuarios de las herramientas necesarias para desarrollar aplicaciones que sean capaces de aprovechar todo el potencial de la IA y todo ello sin limitaciones en cuanto a hardware.
La china Alibaba lanza una IA que dice mejorar a DeepSeek y se dispara en bolsa
La tecnológica china Alibaba ha desvelado este jueves su nueva inteligencia artificial (IA), que asegura mejora a DeepSeek y presenta batalla a alternativas occidentales como ChatGPT. El anuncio le ha valido un impulso del 8% en bolsa, lo que hace que en el año ya trepe el 70%, por encima de los 300.000 millones de dólares en valor bursátil.
Herramientas con interfaz web para Ollama (IA)
APIs y contraseñas confidenciales utilizadas para entrenar LLM
Se ha descubierto que un conjunto de datos utilizado para entrenar modelos de lenguaje grandes (LLM) contiene casi 12.000 secretos activos, que permiten una autenticación exitosa. Los hallazgos resaltan una vez más cómo las credenciales codificadas de forma dura (hardcoding) plantean un grave riesgo de seguridad tanto para los usuarios como para las organizaciones, sin mencionar que agravan el problema cuando los LLM terminan sugiriendo prácticas de codificación inseguras a sus usuarios.
OWASP Top 10 para aplicaciones de modelos de lenguaje de gran tamaño (LLM)
El Top 10 de riesgos para programas LLM de 2025 comenzó en 2023 como un esfuerzo impulsado por la comunidad para destacar y abordar problemas de seguridad específicos de las aplicaciones de IA.
NVIDIA Tesla P40 en un ordenador personal para IA LLM
La NVIDIA Tesla P40, que en su día fue una potencia en el ámbito de las GPU de servidor, está diseñada principalmente para tareas de aprendizaje profundo e inteligencia artificial. Equipada con 24 GB de VRAM GDDR5, esta GPU es una opción interesante para quienes deseen ejecutar modelos de generación local de texto, como los basados en arquitecturas GPT (Generative Pre-trained Transformer). Este artículo explora la viabilidad, las posibles ventajas y el proceso de instalación de la Tesla P40 en un ordenador de consumo.
Anthropic presenta Claude 3.7 Sonnet: la primera IA híbrida capaz de razonar y programar
Anthropic ha lanzado Claude 3.7 Sonnet, bautizado como el primer modelo de razonamiento híbrido del mundo. La compañía integrada por exempleados de OpenAI consiguió desarrollar un modelo de IA capaz de ofrecer respuestas rápidas o llevar a cabo un razonamiento profundo. La doble funcionalidad de esta IA representa un cambio significativo respecto a los modelos de la competencia.
¿Qué es la generación aumentada de recuperación (RAG)?
La generación mejorada por recuperación (RAG) es el proceso de optimización de la salida de un modelo lingüístico de gran tamaño, de modo que haga referencia a una base de conocimientos autorizada fuera de los orígenes de datos de entrenamiento antes de generar una respuesta. Los modelos de lenguaje de gran tamaño (LLM) se entrenan con grandes volúmenes de datos y usan miles de millones de parámetros para generar resultados originales en tareas como responder preguntas, traducir idiomas y completar frases. RAG extiende las ya poderosas capacidades de los LLM a dominios específicos o a la base de conocimientos interna de una organización, todo ello sin la necesidad de volver a entrenar el modelo. Se trata de un método rentable para mejorar los resultados de los LLM de modo que sigan siendo relevantes, precisos y útiles en diversos contextos.
Inteligencia artificial en local en tu PC
Una lista con las mejores herramientas gratis para instalar modelos de inteligencia artificial de forma local, y así crear tu propio ChatGPT con modelos como DeepSeek, Llama, y más. Se trata de modelos de código abierto, lo que quiere decir que puedes instalarlos y usarlos gratis en tu ordenador.
Europa anuncia OpenEuroLLM, su plan para plantarle cara a Silicon Valley y China con IA de código abierto
Los grandes avances en materia de inteligencia artificial hoy llegan desde Estados Unidos y China, y eso no es novedad. Sin embargo, Europa no quiere quedarse atrás y aspira a cerrar la brecha de la mano de OpenEuroLLM, un proyecto para crear modelos de lenguaje de próxima generación de código abierto.