Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
270
)
-
▼
febrero
(Total:
105
)
-
Clonación de llaves electrónicas permite robar veh...
-
GPU NVIDIA A100 para IA
-
Grupo Lazarus de Corea del Norte se hace con un bo...
-
OWASP Top 10 para aplicaciones de modelos de lengu...
-
En México usan citas falsas del SAT para propagar ...
-
Ciberataque en México: grupo de ransomware Lockbit...
-
Microsoft está probando una versión de Office para...
-
Los servicios de VPN podrían abandonar Francia si ...
-
Google presenta Gemini Code Assist, una IA gratuit...
-
Ella tiene un tórrido romance con ChatGPT
-
NVIDIA Tesla P40 en un ordenador personal para IA LLM
-
Hackean a Comisiones Obreras - CCOO y amenazan con...
-
Gmail reemplaza los SMS por códigos QR para aument...
-
Anthropic presenta Claude 3.7 Sonnet: la primera I...
-
Un banco Argentino deberá devolverle $140 millones...
-
RAID 10: la combinación de RAID entre espejo y str...
-
Elon Musk pide destruir la Estación Espacial Inter...
-
Detenido por hackear al Betis. Su objetivo: conseg...
-
El primer SSD PCIe Gen5 de Micron con una velocida...
-
Activación permanente de Windows y Office con una ...
-
Cloudflare emprende acciones legales contra LaLiga...
-
Microsoft presenta Muse, un modelo de IA generativ...
-
Ingeniería Social orientada a engañar usuarios par...
-
Vulnerabilidades de seguridad de OpenSSH hace que ...
-
DeepSeek-V3 vs DeepSeek-R1: cuáles son las diferen...
-
GPU: VRAM y FPS ¿Qué relación tienen en el rendimi...
-
PHP: mod_php vs CGI vs FastCGI vs FPM
-
RansomHub fue el principal grupo de ransomware de ...
-
Microsoft bloquea 7.000 ataques a contraseñas por ...
-
Trucos para Telegram
-
Vulnerabilidad crítica en FortiOS Security Fabric ...
-
Steam sufrió un ataque DDoS sin precedentes aunque...
-
Docker Desktop para Windows con WSL o Hyper-V
-
Filtración masiva de datos de IoT con 2.734 millon...
-
Guía de compra GPU - Nomenclatura Tarjetas Gráfica...
-
WhatsApp se integra con Instagram para mostrar enl...
-
Android System SafetyCore
-
Google usará la IA para conocer tu edad y modifica...
-
Apple soluciona una vulnerabilidad Zero-Day explot...
-
Ataques de phishing en imágenes SVG
-
¿Qué es la generación aumentada de recuperación (R...
-
Goku AI: la inteligencia artificial china de códig...
-
AMD prepara una Radeon RX 9070 XTX con 32 GB de me...
-
Tutorial: SSH en Windows (Servidor y Cliente)
-
Túnel TCP con Cloudflare Tunnel
-
"Cambio automático de contraseñas" en Google Chrom...
-
La Unión Europea busca movilizar 200.000 millones ...
-
Microsoft elimina una página de ayuda para desinst...
-
Cloudflare Tunnels
-
¿Qué es una shell inversa?
-
Le Chat, la IA más avanzada hecha en Europa
-
Google Gemini 2.0 Pro IA
-
ChatGPT en WhatsApp
-
Filtrados los datos personales de 3 millones de us...
-
Movistar España bloquea internet en un intento por...
-
Thunderbolt vs USB-C: qué son, diferencias y cómo ...
-
El Reino Unido ordena a Apple que le permita acced...
-
Inteligencia artificial en local en tu PC
-
Qué fuente de alimentación elegir según la tarjeta...
-
Tecnología RTX Neural de nvidia
-
Mizuno confirma ataque ransomware BianLian con fil...
-
Múltiples vulnerabilidades críticas en productos d...
-
WinScript permite personalizar, optimizar y config...
-
Cloudflare Turnstile: una nueva alternativa a reCA...
-
NanaZip 5.0: todas las novedades del mejor compres...
-
Barcelona Supercomputing Center (BSC) estrena prim...
-
Cisco corrige vulnerabilidades críticas de ISE que...
-
Logran ejecutar DOOM en un adaptador de Lightning ...
-
Aprovechan vulnerabilidad de IIS de hace 6 años pa...
-
Exingeniero de Google es acusado en EEUU de robar ...
-
Vulnerabilidad zero-day crítica en Android
-
Verificación de identidad o 'Identity check' : la ...
-
Europa quiere prohibir el envío de consolas a Rusi...
-
La Comisión Europea quiere acabar con la exención ...
-
DeepSeek: Una investigación revela a dónde van tus...
-
Google cambia las directrices de su IA y elimina u...
-
Detenido en Alicante 'Natohub,' de 18 años que hac...
-
Diferencias y velocidades entre PCIe Gen 4 y PCIe ...
-
OCuLink, el mejor conector para gráficas externas ...
-
Así es la pila atómica que ha presentado China cap...
-
Instalar DeepSeek en local en Android con Termux
-
Todos los modelos de IA de OpenAI
-
Las impresoras 3D en Estados Unidos podrían ser in...
-
El Pentágono bloquea DeepSeek en menos de una sema...
-
Limpieza y mantenimiento de una tarjeta gráfica
-
Conectores PCI Express x16, x8, x4 y x1: diferenci...
-
Reportan algunos problemas para las GeForce RTX 5090
-
Microsoft presenta el Surface USB4 Dock por 99$
-
NVIDIA Studio Voice convierte el mediocre micrófon...
-
OpenAI quiere diseñar robots humanoides impulsados...
-
Europa anuncia OpenEuroLLM, su plan para plantarle...
-
OpenAI quiere reemplazar los smartphones con un di...
-
Análisis de las principales vulnerabilidades explo...
-
WhatsApp detecta un ataque de spyware tipo Pegasus...
-
El coste real de DeepSeek no fue de 6 millones de ...
-
Windows Paint tendrá un botón de Copilot para acel...
-
Guía DeepSeek: funciones y cosas que puedes hacer ...
-
Cómo utilizar un SSD NVMe en Raspberry Pi
-
OpenAI responde a DeepSeek publicando o3 para todos
-
Cómo crear gráficos a partir de datos con ChatGPT
-
-
▼
febrero
(Total:
105
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Gracias a un nuevo método de activación permanente, han conseguido eludir por completo el sistema de protección de derechos digitales (DRM) ...
-
Una semana para pagar el rescate. Ese es el plazo que ha dado al sindicato Comisiones Obreras el grupo Hunter International , una de las or...
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
OWASP Top 10 para aplicaciones de modelos de lenguaje de gran tamaño (LLM)
El Top 10 de riesgos para programas LLM de 2025 comenzó en 2023 como un esfuerzo impulsado por la comunidad para destacar y abordar problemas de seguridad específicos de las aplicaciones de IA.
Desde entonces, la tecnología ha seguido extendiéndose por industrias y aplicaciones, al igual que los riesgos asociados. A medida que los LLM se integran más profundamente en todo, desde las interacciones con los clientes hasta las operaciones internas, los desarrolladores y los profesionales de seguridad están descubriendo nuevas vulnerabilidades y formas de contrarrestarlas.
LLM01:2025 Inyección de mensajes (prompt)
Una vulnerabilidad de inyección de mensajes ocurre cuando los mensajes del usuario alteran el comportamiento o la salida del LLM de maneras no deseadas. Estas entradas pueden afectar al modelo incluso si son imperceptibles para los humanos, por lo tanto, las inyecciones de mensajes no necesitan ser visibles o legibles para los humanos, siempre que el contenido sea analizado por el modelo.
Las vulnerabilidades de inyección de mensajes existen en la forma en que los modelos procesan los mensajes y en cómo la entrada puede obligar al modelo a pasar incorrectamente datos de mensajes a otras partes del modelo, lo que puede provocar que violen las pautas, generen contenido dañino, permitan el acceso no autorizado o influyan en decisiones críticas.
LLM02:2025 Divulgación de información confidencial
La información confidencial puede afectar tanto al LLM como a su contexto de aplicación. Esto incluye información personal identificable (PII), detalles financieros, registros médicos, datos comerciales confidenciales, credenciales de seguridad y documentos legales. Los modelos propietarios también pueden tener métodos de capacitación únicos y código fuente considerado confidencial, especialmente en modelos cerrados o básicos.
LLM03:2025 - Cadena de suministro
Este fallo ocurre cuando un LLM no está adecuadamente aislado cuando tiene acceso a recursos externos o sistemas sensibles. Las vulnerabilidades comunes incluyen la separación insuficiente del entorno del LLM de otros sistemas críticos o almacenes de datos, permitir que el LLM acceda a recursos sensibles sin restricciones adecuadas y no limitar las capacidades del LLM, como permitirle realizar acciones a nivel de sistema o interactuar con otros procesos.
LLM04:2025 Envenenamiento de datos y modelos
El envenenamiento de datos ocurre cuando se manipulan los datos de preentrenamiento, ajuste o incorporación para introducir vulnerabilidades, puertas traseras o sesgos. Esta manipulación puede comprometer la seguridad, el rendimiento o el comportamiento ético del modelo, lo que genera resultados perjudiciales o capacidades deterioradas. Los riesgos comunes incluyen un rendimiento degradado del modelo, contenido sesgado o tóxico y explotación de sistemas posteriores.
LLM05:2025 Manejo inadecuado de salidas
El manejo inadecuado de la salida se refiere específicamente a la validación, el saneamiento y el manejo insuficientes de las salidas generadas por los modelos de lenguaje grandes antes de que se transmitan a otros componentes y sistemas. Dado que el contenido generado por LLM se puede controlar mediante una entrada rápida, este comportamiento es similar a proporcionar a los usuarios acceso indirecto a funciones adicionales.
El manejo inadecuado de la salida se diferencia de la dependencia excesiva en que se ocupa de las salidas generadas por LLM antes de que se transmitan, mientras que la dependencia excesiva se centra en preocupaciones más amplias en torno a la dependencia excesiva de la precisión y la idoneidad de las salidas de LLM. La explotación exitosa de una vulnerabilidad de manejo inadecuado de la salida puede dar lugar a XSS y CSRF en navegadores web, así como SSRF, escalamiento de privilegios o ejecución remota de código en sistemas backend.
LM06:2025 Agencia excesiva
A menudo, el desarrollador de un sistema basado en LLM le otorga un grado de agencia: la capacidad de llamar a funciones o interactuar con otros sistemas a través de extensiones (a veces denominadas herramientas, habilidades o complementos por diferentes proveedores) para realizar acciones en respuesta a una solicitud. La decisión sobre qué extensión invocar también puede delegarse en un "agente" de LLM para que la determine dinámicamente en función de la solicitud de entrada o la salida de LLM. Los sistemas basados en agentes generalmente realizarán llamadas repetidas a un LLM utilizando la salida de invocaciones anteriores para fundamentar y dirigir las invocaciones posteriores.
La agencia excesiva es la vulnerabilidad que permite que se realicen acciones dañinas en respuesta a resultados inesperados, ambiguos o manipulados de un LLM, independientemente de la causa del mal funcionamiento del LLM.
LLM07:2025 Fuga de mensajes del sistema
La vulnerabilidad de fuga de mensajes del sistema en los LLM se refiere al riesgo de que los mensajes o instrucciones del sistema utilizados para dirigir el comportamiento del modelo también puedan contener información confidencial que no estaba destinada a ser descubierta. Los mensajes del sistema están diseñados para guiar la salida del modelo en función de los requisitos de la aplicación, pero pueden contener secretos inadvertidamente. Cuando se descubren, esta información se puede utilizar para facilitar otros ataques.
LLM08:2025 Debilidades de los vectores y las incrustaciones
Las vulnerabilidades de los vectores y las incrustaciones presentan riesgos de seguridad significativos en los sistemas que utilizan la generación aumentada de recuperación (Retrieval Augmented Generation - RAG ) con modelos de lenguaje grandes (LLM). Las debilidades en la forma en que se generan, almacenan o recuperan los vectores y las incrustaciones pueden ser explotadas por acciones maliciosas (intencionadas o no) para inyectar contenido dañino, manipular los resultados del modelo o acceder a información confidencial.
La Generación Aumentada de Recuperación (RAG) es una técnica de adaptación de modelos que mejora el rendimiento y la relevancia contextual de las respuestas de las aplicaciones LLM, combinando modelos de lenguaje entrenados previamente con fuentes de conocimiento externas.
LLM09:2025 Desinformación
La desinformación de los LLM plantea una vulnerabilidad fundamental para las aplicaciones que dependen de estos modelos. La desinformación se produce cuando los LLM producen información falsa o engañosa que parece creíble. Esta vulnerabilidad puede provocar violaciones de seguridad, daños a la reputación y responsabilidad legal.
LLM10:2025 Consumo ilimitado
El consumo ilimitado se refiere al proceso en el que un modelo de lenguaje grande (LLM) genera resultados basados en consultas o indicaciones de entrada. La inferencia es una función fundamental de los LLM, que implica la aplicación de patrones y conocimientos aprendidos para producir respuestas o predicciones relevantes.
Fuente: OWASP
Fuentes:
https://blog.segu-info.com.ar/2025/02/owasp-top-10-para-aplicaciones-de.html
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.