Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon
Mostrando entradas con la etiqueta LLM. Mostrar todas las entradas
Mostrando entradas con la etiqueta LLM. Mostrar todas las entradas

PostHeaderIcon Nvidia presenta su primer superordenador personal con IA:DGX Spark puede con los modelos de lenguaje más potentes en local


Un supercomputador con inteligencia artificial del tamaño de un Mini PC para olvidarse de la nube y usar DeepSeek, Llama, Gemini y cualquier otro modelo de lenguaje que lo permita, en modo local. Así es el nuevo DGX Spark de Nvidia, que se podrá comprar desde mañana mismo... Si tienes 3.999 dólares.

 



PostHeaderIcon Anthropic revela lo fácil que es «envenenar» a la IA para que responda lo que quieras


 Anthropic reveló que unos cuantos documentos tendrían el poder de "envenenar" cualquier modelo de lenguaje. La empresa detrás de Claude publicó un estudio que detalla el modo como puede vulnerarse una IA para que aprenda comportamientos no deseados. Según Anthropic, un conjunto de 250 documentos sería suficiente para crear una vulnerabilidad en modelos de cualquier tamaño a través de un ataque de data poisoning.






PostHeaderIcon DeepSeek presenta un nuevo modelo de inteligencia artificial que cambia la manera en que se entrena y responde


En 2002 se produjo el primer lanzamiento relevante, ChatGPT, y desde entonces hemos visto una evolución sin precedentes, con varios hitos entre los que destaca Deepseek.





PostHeaderIcon Qwen3-Max: la IA más avanzada de China con 1 billón de parámetros compite con Grok4 y GPT-5


También en Asia están cada vez más involucrados en este segmento del mercado tecnológico. Ahora las acciones de Alibaba han subido casi un 10% tras anunciar un acuerdo de NVIDIA, las futuras inversiones en IA y su modelo más complejo hasta el momento, Qwen3-Max.





PostHeaderIcon Grok, la IA de Elon Musk, ha consumido para entrenarse la misma energía que una ciudad entera


El desarrollo de modelos de inteligencia artificial no solo requiere grandes inversiones económicas, también implica un enorme coste energético y medioambiental. Ese es el caso de Grok, el polémico asistente de IA creado por xAI, compañía fundada por Elon Musk. 


 



PostHeaderIcon MalTerminal: el primer malware que integra GPT-4 para crear ransomware y evadir defensas


 Investigadores han detectado MalTerminal, el ejemplo más antiguo conocido de malware que incorpora capacidades de modelos de lenguaje amplio (LLM), como GPT-4, para crear ransomware y reverse shells bajo demanda. Esta nueva tendencia supone un cambio en las tácticas de los atacantes y plantea retos inéditos para los defensores.





PostHeaderIcon Preguntas trampa para «ir a pillar» a los LLM: hasta los mejores fallan con preguntas tan triviales


 A continuación, una lista de algunas de las preguntas típicas con que se puede probar en plan rápido cualquier nueva versión de un LLM y hacerla fallar miserablemente, cuestionando si realmente ha mejorado, es tan potente como dicen o qué narices pasa en esas «cajas negras».





PostHeaderIcon OpenAI gana a Grok al ajedrez


Ocho modelos de lenguaje compitieron durante tres días en un evento de ajedrez, sin haber tenido entrenamiento específico previo. La final se jugó entre los rivales empresariales Grok, propiedad de X, y OpenAI, creadora de Chat GPT.




PostHeaderIcon OpenAI presenta su nuevo modelo gratuito gpt-oss que ya se puede descargar para usarlo


OpenAI ha anunciado GPT-OSS, un modelo de peso abierto bajo licencia Apache 2.0 que puede descargarse gratuitamente y, en su variante pequeña, ejecutarse incluso en un portátil. Un movimiento que nadie esperaba del todo, sobre todo porque todas las miradas estaban puestas en la inminente llegada de GPT-5.




PostHeaderIcon LameHug: el primer malware con IA que hackea Windows usando ZIP y lenguaje natural


La etapa de los ciberataques impulsados con grandes modelos de lenguaje (LLM) de inteligencia artificial ha comenzado. Y la guerra cibernética se ha recrudecido.




PostHeaderIcon ¿Qué pruebas se usan para medir lo "inteligente" que es una IA?


 ChatGPT de OpenAI y DeepSeek R1; Grok de x.AI y Qwen 3 de Alibaba; Gemini de Google y Claude de Anthropic. La lista de grandes modelos de lenguaje (LLM) podría ser mucho más larga: según la lista parcial de Wikipedia, y ciñéndonos solo a los más conocidos, existen actualmente casi 70 en el mercado. Este número aumentaría enormemente si tomáramos en cuenta también los modelos especializados, y llegaría a varios centenares si incluyéramos todos los LLM indexados en la plataforma colaborativa HuggingFace.

 



PostHeaderIcon Kimi K2, una IA de código abierto que supera a Gemini y ChatGPT en tareas de programación


A unos meses de que DeepSeek sorprendiera al mundo, otra IA proveniente de China busca meter miedo a ChatGPT y Gemini. Kimi K2 es un nuevo modelo de Moonshot AI que promete convertirte en un programador de élite. Sus creadores afirman que Kimi puede competir con los grandes, aunque los supera un apartado: es de código abierto.

 



PostHeaderIcon Un estudio descubre que la IA no comprende lo que dice


Un estudio realizado por la Universidad de Harvard, la Universidad de Chicago y el Instituto Tecnológico de Massachussets descubrió que los modelos de IA no entienden lo que dicen. Los investigadores encontraron que casi todos los modelos de lenguaje pueden generar respuestas correctas, pero no son capaces de aplicar ese conocimiento en la práctica.

 



PostHeaderIcon Microsoft presenta Mu, un modelo de lenguaje pequeño que se ejecuta localmente en ordenadores con Windows 11 y chip de IA


Desde hace un tiempo, Microsoft ha intentado reducir su dependencia de OpenAI con el desarrollo de modelos de lenguaje locales. Un ejemplo es Phi, un modelo pequeño capaz de vencer a los LLM en algunas tareas sin requerir un poder de cómputo mayor. Hoy la tecnológica ha dado un paso más en este camino y presentó Mu, una IA que puede ejecutarse de forma local en tu ordenador con Windows 11.

 




PostHeaderIcon WhiteRabbitNeo un LLM (un "ChatGPT") para hacking


El uso de LLMs en el mundo del hacking y el pentesting es algo habitual, pero tener que lidiar con los Guardarraíles y los detectores de Harmful Mode obligan a tirar de técnicas de Prompt Smuggling, Prompt Injection & Jailbreak para poder conseguir el objetivo, pero también tenemos algunos modelos como WhiteRabbitNeo, que es un LLM para que cargues en tu Ollama, para que lo uses en tu propio software de Pentesting & Hacking, o para que lo uses en su versión web - tipo ChatGPT - para hacer trabajos en el Red Team o en los equipos SecOps sin ninguna censura.



PostHeaderIcon OpenAI anuncia su IA más poderosa e inteligente a la fecha: o3-pro


OpenAI ha presentado su modelo de IA más poderoso a la fecha. A pocos meses del lanzamiento de o3 y 4-mini, la empresa contraataca con o3-pro, un modelo de razonamiento diseñado para pensar a largo plazo. Según OpenAI, su IA ofrece respuestas más fiables y supera en amplio margen a o1-pro y o3.



PostHeaderIcon Magistral es el nuevo modelo de razonamiento de Mistral que «piensa» más rápido que ChatGPT en tareas complejas


La carrera por la inteligencia artificial no es exclusiva de OpenAI y Google. Otras empresas están creando alternativas que, si bien no compiten codo a codo con los grandes, pueden destacar en otras áreas. Tal es el caso de Mistral, la compañía francesa que acaba de presentar sus nuevos modelos de razonamiento multilingüe, Magistral.




PostHeaderIcon ¿Cuánta información memoriza realmente un LLM?


El debate entre memorización y generalización en los LLM (modelos de lenguaje extensos, por sus siglas en inglés) no es nuevo. Pero pocas veces se aborda con la precisión casi quirúrgica con la que lo han hecho un grupo de investigadores de Meta, Google DeepMind, NVIDIA y la Universidad de Cornell. ¿Cuánto puede recordar un LLM de sus datos de entrenamiento? ¿Cuándo deja de memorizar hechos concretos y empieza a aprender patrones? Estas preguntas, en apariencia filosóficas, son en realidad cuantificables. Y eso es justo lo que se ha logrado en este nuevo estudio: medir, con exactitud, cuántos bits puede almacenar un modelo.




PostHeaderIcon Mistral Code es un nuevo agente de IA capaz de escribir código, ejecutar comandos y gestionar tareas completas


Los asistentes de programación se están poniendo de moda en la industria tecnológica. Con el lanzamiento de Codex, algunas empresas han visto una ventana de oportunidad para lanzar agentes que pueden ayudarte a programar aplicaciones de forma autónoma. Tal es el caso de Mistral Code, una IA "todo en uno" que podría convertirse en el mejor aliado de los desarrolladores de software.







PostHeaderIcon Guía de seguridad y privacidad de la IA de OWASP


La inteligencia artificial (IA) está en auge, al igual que la preocupación por su seguridad y privacidad. Estas guías son documentos que proporcionan información clara y práctica sobre el diseño, la creación, las pruebas y la adquisición de sistemas de IA seguros y que preserven la privacidad.