Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

PostHeaderIcon Investigadores canadienses afirman que un ajuste del kernel de Linux podría reducir el consumo de energía de los centros de datos en un 30%


La actualización tiene el potencial de reducir significativamente el impacto ambiental de los centros de datos, ya que la informática representa hasta el 5% del uso diario de energía en el mundo. Casi todo el tráfico web se enruta a través de centros de datos, la mayoría de los cuales utilizan el sistema operativo de código abierto Linux.

 



PostHeaderIcon Vulnerabilidad crítica en Cacti (SNMP)


Se ha descubierto una vulnerabilidad crítica en Cacti, el popular marco de gestión de fallas y monitoreo de red de código abierto. Esta falla, identificada como CVE-2025-22604, podría permitir a un atacante autenticado ejecutar código de manera remota en servidores vulnerables, comprometiendo la integridad y seguridad de los sistemas afectados.

 



PostHeaderIcon FARM discos duros Seagate


Field Accessible Reliability Metrics (FARM) que Seagate ha utilizado con algunos clientes para mejorar la predicción de fallos de los discos duros. FARM proporciona una supervisión diaria de muchos más parámetros que SMART y que estas métricas internas proporcionan un mejor análisis y gestión de dispositivos a escala.  El tamaño del registro de FARM es de 96 KB y la estructura del registro es similar a las estadísticas de dispositivos ATA. 

 




PostHeaderIcon DeepSeek habría sido entrenada con datos robados a OpenAI


DeepSeek ha sacudido el mundillo tecnológico con tanta fuerza que parece haber pinchado la burbuja de la IA. Sus credenciales son desde luego impresionantes, porque en teoría es un ejemplo de que es posible crear modelos de IA potentes y muy avanzados con consumo de recursos y un coste mucho más bajo que el de otros equivalentes, como ChatGPT, por poner un ejemplo muy conocido.






PostHeaderIcon Alibaba presenta Qwen2.5-Max, su poderosa IA


Alibaba anunció el lanzamiento de Qwen2.5-Max, un modelo MoE entrenado en más de 20 billones de tokens. La compañía afirma que su nueva IA supera a DeepSeek V3 en varios benchmarks, incluyendo pruebas de conocimiento general y resolución de problemas. Alibaba añadió que su modelo se entrenó con metodologías seleccionadas de Ajuste Fino Supervisado (SFT) y Aprendizaje de Refuerzo a Partir de Retroalimentación Humana (RLHF).