Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

PostHeaderIcon DeepSeek sufre una filtración de datos


Wiz Research ha descubierto una falla (ya corregida) de seguridad importante en DeepSeek, que exponía una base de datos que contiene información confidencial de los usuarios y datos internos.





PostHeaderIcon Actualizaciones de seguridad críticas para iPhone, iPad y Mac


Apple ha publicado actualizaciones de seguridad para abordar una vulnerabilidad crítica de ejecución de código arbitrario que está siendo explotada activamente. La vulnerabilidad, identificada como CVE-2025-24085, es un error de uso después de la liberación (use-after-free) en el componente CoreMedia, que podría permitir a una aplicación maliciosa instalada en el dispositivo elevar sus privilegios. Apple ha confirmado que esta vulnerabilidad puede haber sido explotada en versiones de iOS anteriores a iOS 17.2.




PostHeaderIcon Parece un inocente PDF, pero es una estafa bancaria con una nueva técnica ocultación enlaces


No solo debemos tener cuidado con los enlaces a los que accedemos o las apps que instalamos en nuestros móviles: también hay que extremar las precauciones con los archivos que abrimos. Especialmente si se trata de documentos en formato PDF, ya que están utilizándose para robar información personal y bancaria de un modo capaz de esquivar las medidas de seguridad más habituales.





PostHeaderIcon DeepSeek tendrá un clon «100% abierto» desarrollado por Hugging Face


A unos días de tomar por sorpresa a la industria de IA, DeepSeek continúa robándose los reflectores. Empresas como OpenAI y Microsoft han declarado estar sorprendidas de su desarrollo, aunque otros ya fueron más lejos e intentan descifrarla. Tal es el caso de Hugging Face, quien se ha dado a la tarea de replicar el modelo de razonamiento de DeepSeek, aunque como código abierto.




PostHeaderIcon ¿Qué son los tokens en el contexto de los LLM?


Los tokens son palabras, juegos de caracteres o combinaciones de palabras y signos de puntuación generados por modelos de lenguaje grandes (LLM) cuando descomponen texto. La tokenización es el primer paso del entrenamiento. El LLM analiza las relaciones semánticas entre tokens, como la frecuencia con la que se usan juntos o si se usan en contextos similares. Después del entrenamiento, el LLM usa esos patrones y relaciones para generar una secuencia de tokens de salida en función de la secuencia de entrada.