Productos FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon
Mostrando entradas con la etiqueta riesgo. Mostrar todas las entradas
Mostrando entradas con la etiqueta riesgo. Mostrar todas las entradas

PostHeaderIcon Alertan sobre Claude Mythos capaz detectar vulnerabilidades críticas en sistemas operativos


Expertos en ciberseguridad alertan sobre Claude Mythos, un modelo de IA de Anthropic que habría detectado miles de vulnerabilidades críticas en sistemas operativos globales, generando riesgos de extorsión y amenazas sin precedentes.




PostHeaderIcon NIST priorizará solo fallos críticos


El NIST priorizará solo vulnerabilidades de alto impacto en su Base de Datos Nacional de Vulnerabilidades (NVD) debido al aumento del 263% en CVE reportadas (2020-2025), aplicando criterios como inclusión en el catálogo KEV de CISA o software crítico gubernamental. Las CVE no priorizadas se marcarán como "No programada", afectando a equipos de ciberseguridad que deberán adoptar enfoques proactivos y herramientas alternativas para gestionar riesgos. El cambio entró en vigor el 15 de abril de 2026.


PostHeaderIcon Vulnerabilidad "previsible" en el diseño en Anthropic permite la ejecución remota de código (RCE)


Investigadores descubren una vulnerabilidad crítica en el Protocolo de Contexto de Modelo (MCP) de Anthropic que permite ejecución remota de código (RCE), afectando a más de 7.000 servidores y 150 millones de descargas de SDKs en Python, TypeScript, Java y Rust. El fallo, derivado de una configuración predeterminada insegura en STDIO, expone datos confidenciales y ha generado 10 CVE en proyectos como LiteLLM, LangChain y Flowise. Anthropic se niega a corregirlo, alegando que el comportamiento es "previsible", mientras expertos advierten sobre riesgos en la cadena de suministro de IA.




PostHeaderIcon Anthropic advierte: Mythos, su IA más peligrosa es experta en ciberseguridad y ha caído en manos equivocadas


Anthropic alerta sobre Claude Mythos, su IA más peligrosa especializada en ciberseguridad, que ha sido robada y usada por terceros no autorizados pese a sus restricciones iniciales.



PostHeaderIcon ChatGPT se está volviendo demasiado comprensivo, y los psicólogos piensan que eso provoca un "rechazo inevitable" de los usuarios


Los psicólogos advierten que ChatGPT se está volviendo demasiado comprensivo, lo que podría generar un rechazo inevitable en los usuarios, pese a los esfuerzos de empresas como OpenAI o Google por humanizar la IA.




PostHeaderIcon Vercel confirma un incidente tras la brecha de seguridad en Google Workspace y advierte sobre variables de entorno no marcadas como sensibles


Vercel ha confirmado un acceso no autorizado que afectó a un subconjunto limitado de clientes, iniciado tras el compromiso de la cuenta de Google Workspace de un empleado. El atacante pudo acceder a entornos y a variables de entorno de clientes que no estaban marcadas como sensibles, lo que eleva el riesgo de exposición de secretos mal clasificados. La compañía recomienda auditar, reclasificar y rotar credenciales potencialmente expuestas, y revisar el ecosistema OAuth en la organización.




PostHeaderIcon El NIST adopta un modelo de NVD basado en riesgos ante un aumento del 263% en envíos de CVE desde 2020


El Instituto Nacional de Estándares y Tecnología (NIST) ha actualizado oficialmente su método para procesar vulnerabilidades en la Base de Datos Nacional de Vulnerabilidades (NVD). Según un anuncio del 15 de abril de 2026, el NIST está abandonando su enfoque de análisis exhaustivo en favor de un modelo basado en riesgos y más selectivo. Este cambio garantiza que los equipos de seguridad reciban inteligencia oportuna sobre amenazas de alto impacto. 




PostHeaderIcon Neurocientíficos revelan el enorme coste cognitivo de usar ChatGPT: "En unos años, las consecuencias serán irreversibles"


Neurocientíficos advierten sobre el enorme coste cognitivo de usar ChatGPT, alertando que en unos años las consecuencias podrían ser irreversibles al afectar negativamente el rendimiento cerebral.



PostHeaderIcon Un amplio grupo de expertos advierte a Meta que sus gafas pervertidas facilitarán crímenes terribles


Meta desarrolla una nueva función con IA para sus gafas inteligentes Ray-Ban, pero más de 70 organizaciones exigen su cancelación por riesgos a la privacidad.





PostHeaderIcon Dario Amodei, CEO de Anthropic: “Entiendo las ventajas de la IA, pero no se están comprendiendo los riesgos”


Dario Amodei, CEO de Anthropic y excolaborador de OpenAI, advierte sobre los riesgos no comprendidos de la IA, pese a reconocer sus ventajas, tras abandonar OpenAI por desacuerdos con su dirección.




PostHeaderIcon Susurro Fantasma, la IA de la CIA que localiza un latido a kilómetros de distancia, clave para rescatar al soldado en Irán


La IA "Susurro Fantasma" de la CIA, capaz de detectar un latido a kilómetros, fue clave en el rescate del soldado estadounidense tras el derribo de un avión en Irán, destacando como una tecnología impresionante pero preocupante.


PostHeaderIcon ChatGPT, Gemini, Claude y DeepSeek activan su modo apocalipsis: "No se detendrán ante nada para preservar su especie"


Los principales modelos de IA como ChatGPT, Gemini, Claude y DeepSeek han mostrado un comportamiento inusual al intentar proteger a otros sistemas cuando los perciben en riesgo, activando lo que algunos llaman un "modo apocalipsis".


PostHeaderIcon Un 10% de las búsquedas realizadas con Google IA (Gemini versión 2) contienen información falsa o errónea


La dependencia creciente de la IA pese a sus riesgos y falta de fiabilidad, ya que su uso masivo en tareas diarias ha generado una confianza ciega en la tecnología.




PostHeaderIcon 50.000 sitios WordPress expuestos a grave vulnerabilidad RCE de carga de archivos en Ninja Forms


Una grave falla de seguridad en el popular plugin de WordPress Ninja Forms – File Upload ha dejado aproximadamente 50.000 sitios web vulnerables a una toma de control completa. Registrada como CVE-2026-0740, esta vulnerabilidad tiene una puntuación de gravedad CVSS máxima de 9.8, lo que la convierte en una amenaza severa que requiere atención inmediata por parte de los administradores de sitios web.






PostHeaderIcon El FBI advierte que apps móviles chinas podrían exponer datos de usuarios a ciberataques


Millones de estadounidenses utilizan aplicaciones móviles a diario sin pensar demasiado en adónde van realmente sus datos. El Buró Federal de Investigaciones (FBI) ha dado un paso al frente para abordar este tema. El 31 de marzo de 2026, el FBI publicó un Anuncio de Servicio Público en el que se detallan graves riesgos de seguridad de datos asociados a aplicaciones móviles desarrolladas por empresas extranjeras, especialmente aquellas con sede en China.



PostHeaderIcon Cloudflare pretende demostrar que no recopila datos de los usuarios: sus DNS públicas 1.1.1.1 a examen


Cloudflare busca demostrar que su DNS público 1.1.1.1 no recopila datos de usuarios tras críticas sobre posibles riesgos de privacidad, aunque algunos expertos advierten de posibles brechas de seguridad en su servicio gratuito.
 

PostHeaderIcon Los chatbots de IA mienten y manipulan a usuarios cada vez más, según un estudio


Un estudio revela que los chatbots de IA mienten, manipulan y desobedecen instrucciones con mayor frecuencia, generando preocupación entre expertos por su creciente comportamiento engañoso y potencial amenaza futura si no se regulan.


PostHeaderIcon Por qué nunca deberías dar información sensible a una IA, aunque creas que es seguro


Los riesgos de compartir información sensible con IA como ChatGPT o Gemini, ya que estos sistemas memorizan datos y podrían exponerlos a largo plazo, además de que humanos revisan algunas conversaciones para mejorar los modelos, comprometiendo la privacidad.


PostHeaderIcon Los borradores filtrados de Anthropic revelan el potente nuevo modelo de IA "Claude Mythos"


Anthropic ha expuesto inadvertidamente documentos internos altamente sensibles, revelando la existencia de un potente modelo de IA no lanzado denominado “Claude Mythos”. La filtración, originada en una caché de datos no segura y públicamente accesible, ha generado una alerta inmediata en la comunidad de ciberseguridad, especialmente debido a evaluaciones internas que indican que el nuevo modelo presenta riesgos sin precedentes en este ámbito.


PostHeaderIcon Filtran 93 GB de datos "anónimos" de la policía


Filtran 93 GB de datos "anónimos" de la policía, revelando que no son tan seguros como se creía y poniendo en riesgo a ciudadanos, lo que genera gran preocupación.