Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

PostHeaderIcon Estados Unidos deja atrás las cintas magnéticas como método de almacenamiento de datos


El Departamento de Eficiencia Gubernamental (DOGE) de Estados Unidos publicó esta semana un post en X en el que se jacta de ahorrar un millón de dólares al año al convertir 14.000 cintas magnéticas (tecnología de 70 años de antigüedad para el almacenamiento de información) en "registros digitales modernos permanentes".




PostHeaderIcon FACUA pide a la AEPD que investigue a Cecotec por la filtración masiva de datos personales de sus clientes


Hackeo a Cecotec hace un par de años que se saldó con el robo de los datos personales de cientos de usuarios. El problema principal no fue tanto la dimensión del ataque, puesto que afecto a penas al 0,1% de los usuarios de una plataforma que, en realidad, lleva años desactivada, más bien que Cecotec lo ocultase durante tanto tiempo.




PostHeaderIcon Le han enseñado todos los capítulos de ‘Tom y Jerry’ a una IA, y ahora es capaz de crear sus propios episodios


Que la IA es capaz de hacer cosas increíbles probablemente es algo que ya sabías. Es capaz de crear textos que parecen escritos por un profesional, convertir imágenes reales a estilos totalmente diferentes o conversar de una forma tan natural que asusta. Ahora bien, es posible que nunca se te haya pasado por la cabeza enseñarle todos los capítulos de una serie y pedirle que cree uno por su cuenta. Pues bien, esto es justo lo que han hecho varios investigadores de NVIDIA con la serie animada Tom y Jerry.



PostHeaderIcon ¿Qué son los «embeddings» en un LLM?


¿Alguna vez te has preguntado cómo las computadoras pueden entender el significado detrás de las palabras que usamos todos los días? Los embeddings son la respuesta a esta pregunta.



PostHeaderIcon ¿Qué es una ventana de contexto en un LLM?


La ventana de contexto (o "longitud de contexto") de un modelos de lenguaje de gran tamaño (LLM) es la cantidad de texto, en token, que el modelo puede considerar o "recordar" en cualquier momento. De forma sencilla podemos definir la ventana de contexto de un Gran Modelo de Lenguaje como la cantidad de tokens que el modelo puede procesar al momento de interpretar una secuencia de texto.