Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

PostHeaderIcon Apple presenta el nuevo diseño de software Liquid Glass para todas sus plataformas


La Conferencia Mundial de desarrolladores de Apple ha tenido como gran estrella a Liquid Glass, un nuevo diseño de software que por primera vez se aplica a todas las plataformas de la compañía, incluyendo iOS 26, iPadOS 26, macOS Tahoe 26, watchOS 26 y tvOS 26. Apple asegura que con este movimiento se gana uniformidad a la vez que se mantienen las características específicas de cada sistema operativo. Las primeras versiones betas para desarrolladores ya se encuentran disponibles, mientras que las betas públicas se lanzarán el próximo mes.

 



PostHeaderIcon Las mejores alternativas a WhatsApp 2025: seguridad y privacidad


Existen mensajeros cifrados gratuitos similares a WhatsApp para iPhone, Android y ordenadores de sobremesa, y algunas aplicaciones de código abierto no piden número de teléfono.

 



PostHeaderIcon Microsoft anuncia un programa de ciberseguridad para Europa


Microsoft ha anunciado la puesta en marcha de un Programa Europeo de Seguridad, que se suma al Programa de Seguridad Gubernamental que tiene en marcha la compañía a nivel global.





PostHeaderIcon Qué son los Agentes de IA y por qué se dice que modificarán el mundo de la ciberseguridad


“Se avecinan ciberataques por parte de agentes de IA”. La frase, que titula un artículo reciente del MIT, advierte sobre un escenario factible e invita a profundizar sobre una temática que podrá cambiarlo todo en el futuro cercano.






PostHeaderIcon ¿Cuánta información memoriza realmente un LLM?


El debate entre memorización y generalización en los LLM (modelos de lenguaje extensos, por sus siglas en inglés) no es nuevo. Pero pocas veces se aborda con la precisión casi quirúrgica con la que lo han hecho un grupo de investigadores de Meta, Google DeepMind, NVIDIA y la Universidad de Cornell. ¿Cuánto puede recordar un LLM de sus datos de entrenamiento? ¿Cuándo deja de memorizar hechos concretos y empieza a aprender patrones? Estas preguntas, en apariencia filosóficas, son en realidad cuantificables. Y eso es justo lo que se ha logrado en este nuevo estudio: medir, con exactitud, cuántos bits puede almacenar un modelo.