Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon
Mostrando entradas con la etiqueta LLM. Mostrar todas las entradas
Mostrando entradas con la etiqueta LLM. Mostrar todas las entradas

PostHeaderIcon DeepSeek presenta un nuevo modelo de IA optimizado: DeepSeek V3-0324 (700GB)


DeepSeek, la empresa china que puso de cabeza a OpenAI y otras empresas tecnológicas, ha lanzado la última versión de su modelo estrella: DeepSeek V3-0324. Esta inesperada actualización introduce mejoras en rendimiento y accesibilidad, posicionándolo como uno de los modelos de IA más avanzados para el usuario final. Una de sus características más llamativas es su capacidad para ejecutarse en un Mac Studio con chip M3 a una velocidad sorprendente.

 




PostHeaderIcon NVIDIA presenta los modelos de razonamiento de IA Llama Nemotron


NVIDIA (NASDAQ:NVDA), el gigante de semiconductores  ha anunciado el lanzamiento de su familia de modelos Llama Nemotron, diseñados para mejorar las capacidades de razonamiento de IA para desarrolladores y empresas. Se dice que los nuevos modelos mejoran las tareas matemáticas de varios pasos, codificación, razonamiento y toma de decisiones complejas, con mejoras de precisión de hasta un 20% y optimizaciones de velocidad de inferencia 5 veces superiores en comparación con los modelos existentes.






PostHeaderIcon La IA de código abierto iguala a los mejores LLM propietarios en la resolución de casos médicos complejos


Los hallazgos sugieren que las herramientas de IA de código abierto se están volviendo cada vez más competitivas y podrían ofrecer una alternativa valiosa a los modelos propietarios. “Hasta donde sabemos, esta es la primera vez que un modelo de IA de código abierto iguala el rendimiento de GPT-4 en casos tan complejos evaluados por médicos”, afirmó el autor principal, Arjun Manrai.

 


 


PostHeaderIcon Google anuncia Gemma 3: su nueva IA ligera para dispositivos locales


Google acaba de hacer oficial Gemma 3, una nueva serie de modelos de IA que ofrece varios tamaños de parámetros y que puede ejecutarse tanto en una sola GPU como TPU. Gemma es una versión más ligera de Gemini y es abierta a todo el mundo, siendo estas dos características sus principales ventajas respecto a Gemini. La intención por parte de Google con Gemma es dotar a los usuarios de las herramientas necesarias para desarrollar aplicaciones que sean capaces de aprovechar todo el potencial de la IA y todo ello sin limitaciones en cuanto a hardware.






PostHeaderIcon La china Alibaba lanza una IA que dice mejorar a DeepSeek y se dispara en bolsa


La tecnológica china Alibaba ha desvelado este jueves su nueva inteligencia artificial (IA), que asegura mejora a DeepSeek y presenta batalla a alternativas occidentales como ChatGPT. El anuncio le ha valido un impulso del 8% en bolsa, lo que hace que en el año ya trepe el 70%, por encima de los 300.000 millones de dólares en valor bursátil.




PostHeaderIcon Herramientas con interfaz web para Ollama (IA)


Ollama es una herramienta gratuita y de código abierto que permite a los usuarios ejecutar localmente grandes modelos lingüísticos (LLM). Simplifica la experiencia de la IA al permitirle interactuar con los LLM sin complicaciones en su máquina.

 



PostHeaderIcon APIs y contraseñas confidenciales utilizadas para entrenar LLM


Se ha descubierto que un conjunto de datos utilizado para entrenar modelos de lenguaje grandes (LLM) contiene casi 12.000 secretos activos, que permiten una autenticación exitosa. Los hallazgos resaltan una vez más cómo las credenciales codificadas de forma dura (hardcoding) plantean un grave riesgo de seguridad tanto para los usuarios como para las organizaciones, sin mencionar que agravan el problema cuando los LLM terminan sugiriendo prácticas de codificación inseguras a sus usuarios.



PostHeaderIcon OWASP Top 10 para aplicaciones de modelos de lenguaje de gran tamaño (LLM)


El Top 10 de riesgos para programas LLM de 2025 comenzó en 2023 como un esfuerzo impulsado por la comunidad para destacar y abordar problemas de seguridad específicos de las aplicaciones de IA.

 



PostHeaderIcon NVIDIA Tesla P40 en un ordenador personal para IA LLM


La NVIDIA Tesla P40, que en su día fue una potencia en el ámbito de las GPU de servidor, está diseñada principalmente para tareas de aprendizaje profundo e inteligencia artificial. Equipada con 24 GB de VRAM GDDR5, esta GPU es una opción interesante para quienes deseen ejecutar modelos de generación local de texto, como los basados en arquitecturas GPT (Generative Pre-trained Transformer). Este artículo explora la viabilidad, las posibles ventajas y el proceso de instalación de la Tesla P40 en un ordenador de consumo.



PostHeaderIcon Anthropic presenta Claude 3.7 Sonnet: la primera IA híbrida capaz de razonar y programar


Anthropic ha lanzado Claude 3.7 Sonnet, bautizado como el primer modelo de razonamiento híbrido del mundo. La compañía integrada por exempleados de OpenAI consiguió desarrollar un modelo de IA capaz de ofrecer respuestas rápidas o llevar a cabo un razonamiento profundo. La doble funcionalidad de esta IA representa un cambio significativo respecto a los modelos de la competencia.

 




PostHeaderIcon ¿Qué es la generación aumentada de recuperación (RAG)?


La generación mejorada por recuperación (RAG) es el proceso de optimización de la salida de un modelo lingüístico de gran tamaño, de modo que haga referencia a una base de conocimientos autorizada fuera de los orígenes de datos de entrenamiento antes de generar una respuesta. Los modelos de lenguaje de gran tamaño (LLM) se entrenan con grandes volúmenes de datos y usan miles de millones de parámetros para generar resultados originales en tareas como responder preguntas, traducir idiomas y completar frases. RAG extiende las ya poderosas capacidades de los LLM a dominios específicos o a la base de conocimientos interna de una organización, todo ello sin la necesidad de volver a entrenar el modelo. Se trata de un método rentable para mejorar los resultados de los LLM de modo que sigan siendo relevantes, precisos y útiles en diversos contextos.








PostHeaderIcon Europa anuncia OpenEuroLLM, su plan para plantarle cara a Silicon Valley y China con IA de código abierto


Los grandes avances en materia de inteligencia artificial hoy llegan desde Estados Unidos y China, y eso no es novedad. Sin embargo, Europa no quiere quedarse atrás y aspira a cerrar la brecha de la mano de OpenEuroLLM, un proyecto para crear modelos de lenguaje de próxima generación de código abierto.

 



PostHeaderIcon ¿Qué son los tokens en el contexto de los LLM?


Los tokens son palabras, juegos de caracteres o combinaciones de palabras y signos de puntuación generados por modelos de lenguaje grandes (LLM) cuando descomponen texto. La tokenización es el primer paso del entrenamiento. El LLM analiza las relaciones semánticas entre tokens, como la frecuencia con la que se usan juntos o si se usan en contextos similares. Después del entrenamiento, el LLM usa esos patrones y relaciones para generar una secuencia de tokens de salida en función de la secuencia de entrada.




PostHeaderIcon ¿Qué es el destilado de una LLM?


 La destilación es una técnica de entrenamiento de LLM en la que un modelo más pequeño y eficiente (como GPT-4o mini) se entrena para imitar el comportamiento y los conocimientos de un modelo más grande y complejo (como GPT-4o).







PostHeaderIcon Instalar DeepSeek (destilado) con Ollama en tu ordenador para usarlo de forma local


Cómo instalar DeepSeek en tu ordenador, para poder utilizarlo cuando quieras. Hay varias maneras de hacerlo, pero nosotros vamos a intentar recurrir a una de las más sencillas que sean posibles, y que funcione tanto con Windows como con macOS y GNU Linux.

 





PostHeaderIcon DeepSeek, la herramienta china que revoluciona la IA mundial


Con una inteligencia artificial cada vez más presente en nuestros dispositivos, hay una aplicación que está rompiendo moldes actualmente. Y no es ChatGPT: DeepSeek, una app basada en los modelos chinos de ese mismo nombre, brinda una herramienta realmente completa, potente y sin coste. Encima, es Open Source. Y se puede descargar al móvil.

 


PostHeaderIcon Cómo bloquear y demorar bots IA de Scraping web


Un web Crawler, robot rastreador, araña o motor de búsqueda descarga e indexa contenido de todo Internet. El objetivo de un robot de este tipo es aprender de qué trata (casi) cada página web de la web, de modo que se pueda recuperar la información cuando sea necesaria. Se los llama "rastreadores web" porque "rastrear" (crawler) es el término técnico que se utiliza para acceder automáticamente a un sitio web y obtener datos a través de un programa de software.

 

 



PostHeaderIcon ¿Qué es un LLM?


En los últimos años, los modelos de lenguaje grande (LLM, por sus siglas en inglés) han revolucionado la inteligencia artificial. Desde asistentes virtuales capaces de responder preguntas complejas hasta sistemas que generan textos, traducen idiomas o incluso colaboran en tareas creativas, los LLM han demostrado ser una de las tecnologías más avanzadas y versátiles en el panorama tecnológico actual. Pero ¿qué es exactamente un LLM y cómo funciona?






PostHeaderIcon Investigadores hacen jailbreak a robots para causar el caos


Unos investigadores de la Universidad de Pensilvania descubrieron que los robots con IA son vulnerables a jailbreaks y hackeos. Estos han conseguido desarrollar una tecnología que permite atacar a los robots vulnerables usando un LLM y se denomina RoboPAIR. Este ataque afecta a perros-robot como los que hemos visto en algunas noticias (marca Unitree Robotics). También al Jackal UGV de pequeño tamaño y que pertenece al grupo de robots para investigación y reconocimiento y también afecta a vehículos autónomos con IA.