Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
704
)
-
▼
abril
(Total:
194
)
-
¿Por qué usar tarjetas de crédito cuando puedes pa...
-
Revelan un aumento record de ciberataques automati...
-
El Ayuntamiento de Badajoz sufre un ataque de rans...
-
OpenAI presenta un asistente de compras para ChatGPT
-
Winhance 4 permite un Windows más limpio, rápido y...
-
Anthropic descubrió que su Claude IA tiene su prop...
-
Vulnerabilidad Zero-Day crítica en SAP NetWeaver 7.xx
-
Meta AI presenta una app independiente para móviles
-
NotebookLM, el cuaderno de IA de Google, ya puede ...
-
ChatGPT revierte su última actualización tras desc...
-
Vibe coding o cómo crear una app sin tener ni idea...
-
Alibaba presenta los modelos de IA Qwen3, con capa...
-
Crea una lijadora de velocidad variable utilizando...
-
DeepSeek R2 está en fase de desarrollo: se entrena...
-
El Robotaxi de Tesla no será tan autónomo como Elo...
-
La IA revoluciona el diagnóstico y los tratamiento...
-
Windows te dejará insultar: podrás quitar el filtr...
-
CMF presenta el Phone 2 Pro es lo que todo móvil b...
-
El Consejo Europeo descarta un ciberataque como or...
-
ASUS activa el giroscopio de sus GeForce RTX 50 RO...
-
Google dice que «Find My Device» es 4 veces más rá...
-
Google asegura que si la IA se encarga de tareas a...
-
La nueva actualización de Windows incluye un fallo...
-
Apple planea trasladar a la India la producción de...
-
Brave integra Cookiecrumbler: el uso de la IA para...
-
Android 15 está solo en el 4,5% de los dispositivo...
-
Un chaval de 17 años inventó en 2011 lo que hacemo...
-
Ray Kurzweil, futurista y experto en IA: “En 2040 ...
-
Dos adolescentes robaron 24 millones en criptomone...
-
Filtrados en Telegram cientos de contraseñas de us...
-
Filtración de datos con más de 665.000 estudios mé...
-
HACKRON 2025: 29 mayo en Tenerife, las islas Canarias
-
Grok ve a través de la cámara y añade audio multil...
-
Logitech y Anker dan las primeras señales del impa...
-
Estados Unidos acusa a Europa de ‘extorsión económ...
-
Elon Musk prestó millones para comprar una casa y ...
-
Un "gracias" a ChatGPT consume más que 10 búsqueda...
-
Perro-robot puede pastorear ovejas sin ayuda humana
-
La opción que deberías desactivar en ChatGPT si qu...
-
YouTube Music estrena dos nuevas funciones
-
La Comisión Europea multa a Apple con 500 millones...
-
Western Digital y Microsoft están extrayendo de lo...
-
OpenAI trabaja en una red social con IA
-
Intel despedirá a 21.000 empleados, el 20% de su p...
-
Mavinject.exe: inyección de DLL utilizando la util...
-
DOOM funcionando en un código QR de solo 2,5 kilob...
-
Una vaca ha logrado cortar la conexión a internet ...
-
Google no eliminará las cookies de terceros en Chrome
-
MAGI-1, la IA china de código abierto, que genera ...
-
Google paga «millones» a Samsung por preinstalar G...
-
OutRun tendrá una película de la mano de Michael B...
-
OpenAI dispuesta a comprar Chrome si la justicia o...
-
Malware chino SuperCard X para Android es capaz de...
-
Wikipedia lanza un conjunto de datos para entrenar...
-
FramePack permite generar vídeos por IA con solo 6...
-
Microsoft Copilot ya es capaz de crear presentacio...
-
Smartphones y tablets tendrán que utilizar nueva e...
-
Hertz sufre un robo de información que afecta a má...
-
Ordenadores cuánticos: el qubit reemplaza al bit
-
El fundador de Telegram prefiere salir del mercado...
-
Instagram utiliza la IA para detectar a los adoles...
-
China presenta un cañón de 16 tubos para derribar ...
-
Meta quiere usar tus datos para entrenar su IA: si...
-
G1, el robot que practica artes marciales
-
¿Cuáles son los mejores sistemas operativos para l...
-
¿Por qué Graphene OS sólo es compatible con los te...
-
Western Digital anuncia discos duros de 40 TB para...
-
Vulnerabilidad crítica en la función extract() de ...
-
#laligagate, la movilización de usuarios y webs pa...
-
Operación Bonanza, una estafa piramidal de más de ...
-
Ucrania equipa sus drones con malware para sabotea...
-
Proxmox lanza la versión 8.4 de su plataforma de v...
-
Los primeros robots humanoides en correr una media...
-
Vulnerabilidad Windows NTLM explotada para robo de...
-
Vulnerabilidad en Cisco Webex permite ejecutar cód...
-
"ChatGPT es mi amigo y mi terapeuta": cada vez más...
-
Onorato IA, el loro robot que acompaña, habla y cu...
-
Investigadores descubren una nueva forma de evitar...
-
Alerta por la nueva función de Instagram que muest...
-
Un abogado cita sentencias "inexistentes" inventad...
-
Cuáles son los principales ataques a modelos de in...
-
RAID y ZFS: ¿Qué son y para qué sirven?
-
La justicia de Estados Unidos determina que Google...
-
Hackeó la Xbox antes que nadie y de paso logró alg...
-
Alertan sobre el aumento de los casos de clonación...
-
Windows 7 Elite Edition, ¿por qué no puede ser así...
-
OpenAI presenta o3 y o4-mini, sus modelos de razon...
-
Utilizar la IA de OpenAI para averiguar la ubicaci...
-
Meta empieza a usar lo que publicas en Facebook e ...
-
Los teléfonos Android se reiniciarán solos tras 3 ...
-
Make web mapping (open source) great again
-
El disco en PS5 de Indiana Jones y el Gran Círculo...
-
Desarrollan una herramienta de IA financiada por e...
-
ChatGPT se convierte en la aplicación móvil más de...
-
Google Chrome corrige un error de privacidad que a...
-
Fortinet advierte que atacantes pueden conservar e...
-
4chan hackeado, roban datos personales y el código...
-
La vida útil de los certificados SSL/TLS se reduci...
-
ServerlessHorrors: la web que recoge las peores pe...
-
Estados Unidos deja atrás las cintas magnéticas co...
-
-
▼
abril
(Total:
194
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Flipper Zero es una de las herramientas más utilizadas por los hackers un dispositivo que, a pesar de su pequeño tamaño, puede hacer un gr...
-
La Organización de Consumidores y Usuarios (OCU) de España ha sufrido una brecha de datos, La filtración de información se publicó en novi...
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
Cuáles son los principales ataques a modelos de inteligencia artificial
Los modelos de inteligencia artificial se convirtieron en activos valiosos para cibercriminales y en un objetivo atractivo por la cantidad de información que procesan y por su uso cada vez más frecuente en diversas industrias.
Los ataques a los modelos de IA varían desde el robo de propiedad intelectual, filtrado de información —e incluso su manipulación para generar resultados erróneos, sesgados—, hasta la utilización de su infraestructura para propósitos maliciosos como, por ejemplo, el uso de servidores comprometidos para comandar redes de bots o ataques similares.
Algunos elementos modelos de IA y sus vulnerabilidades
Para comprender cómo podría la IA ser objetivo, desgranaremos algunos de sus elementos expuestos y sus vulnerabilidades. Estas no son las únicas partes expuestas ni únicas vulnerabilidades, pero podríamos considerarlas dentro de las básicas a las siguientes:
Datos
Todos los modelos son alimentados con datos de entrenamiento que deben tener calidad y confiabilidad para garantizar el funcionamiento correcto de la tecnología.
Estos datos podrían ser vulnerables y un ciberatacante podría introducir algunos de tipo malicioso y de esa manera manipular el comportamiento o los ouputs del modelo.
APIS
Las APIs (Application Programming Interface) expuestas también se pueden intervenir para manipular el modelo o extraer información sensible.
Estructura interna
También la estructura interna del modelo, inclusive sus algoritmos, podrían ser susceptibles a ataques adversariales o extracción de información confidencial.
Servidores
Fuera de ataques al funcionamiento del modelo en sí, este se podría ver afectado en caso de que los servidores o bases de datos donde se almacene su información o se procese el modelo sean blanco de diversos ataques que interrumpan el sistema.
¿Cuáles son los principales ataques contra modelos de IA?
Data Poisoning (Envenenamiento de Datos): consiste en la manipulación de los datos de entrenamiento con el objetivo de alterar el comportamiento del modelo.
Ataques Adversariales: que suceden cuando se generan inputs o entradas manipuladas de manera casi imperceptible para los humanos, pero que inducirán errores en el modelo. Por ejemplo, la manipulación de imágenes para hacer que un modelo de reconocimiento facial confunda identidades.
Control del Modelo y Explotación: podría suceder que los cibercriminales tomen el control del modelo durante su producción aprovechándolo con distintos fines como ejecución de otros ataques como denegación de servicio aprovechando para generar comando y control (C&C) e incluso mezclarlo con bots.
Model Inversion Attack (Inversión de Modelo): el objetivo es inferir y obtener información sensible a partir de las predicciones del modelo. Por ejemplo, en modelos que identifican datos faciales se podría llegar reconstruir los rostros originales tomando como base los resultados del modelo frente a ciertas peticiones.
Model Extraction Attack (Extracción de Modelo): En este tipo de ataque se envían diferentes consultas al modelo para luego analizar las salidas con el objeto de entender y reconstruir su estructura interna, así como su lógica, De esta manera se podría imitar o replicar un modelo sin necesidad de acceso directo al código fuente o datos de entrenamiento.
Ataque de Evasión (Evasion Attack): para el caso se modifican los inputs de los modelos con el fin de evadir detección de ciertas actividades o generar una clasificación errónea. Se ha utilizado en sistemas de detección de fraudes, por ejemplo, y en modelos de seguridad de tipo antimalware y firewalls basados en IA. Los atacantes utilizan códigos maliciosos que puedan generar que el modelo victima clasifique un archivo como legítimo, por ejemplo, y esto mediante generación de inputs alterados de forma imperceptible
Malware en Infraestructuras: fuera de ataques directos al modelo, estos están sujetos a que sus servidores sean infectados con diferentes clases de malware que pudiera interrumpir su operatividad, bloquearlos e incluso lograr filtrar información.
Vale aclarar que estos son tan solo algunos de posibles ataques, para más información podemos recomendar la matriz de MITRE ATLAS™.
Casos de vulneraciones de modelos IA
Existen una gran variedad de ejemplos de vulneraciones a modelos de IA, pero, para finalizar, mencionaremos algunos de ellos:
- Tay de Microsoft: ya en el año 2016 un chatbot de IA lanzado por Microsoft fue manipulado por usuarios para aprender y replicar discursos de odio en menos de 24 horas.
- Ataque a GPT-3/OpenAI: se ha visto intentos de extracción de información confidencial de modelos de OpenAI consultas o peticiones específicas que induzcan a revelar datos sensibles utilizados en su entrenamiento.
- Meta y la filtración de modelos de IA (2023): El modelo desarrollado por Meta LLaMA fue filtrado antes de su lanzamiento y utilizados y accedido por terceros, lo que generó preocupación sobre la protección de modelos propietarios en entornos abiertos.
Conclusiones
Los ataques dirigidos ya han puesto foco en modelos de IA, su funcionamiento e infraestructura. La seguridad debe abordarse desde una perspectiva integral, protegiendo todas las capas del funcionamiento de esta tecnología, partiendo de datos de entrenamiento, implementación del modelo y luego posteriores fases de acceso o interacción con este.
Fuentes:
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.