Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
1507
)
-
▼
marzo
(Total:
16
)
-
SURXRAT: ataque de RAT en Android roba control tot...
-
Europa desarrolla un chip inspirado en el cerebro ...
-
Perplexity Computer y el salto a la IA operativa
-
Pueden abusar de la función Terminal en vivo de Co...
-
Crean un falso sitio de Avast para robar datos de ...
-
Utiliza a Claude, la IA de Anthropic, para robar 1...
-
Kali Linux integra Claude AI para pruebas de penet...
-
Google desmantela infraestructura de hackers chino...
-
Cisco corrige un zero-day crítico en Catalyst SD-W...
-
LG UltraGear evo G9, el monitor 5K más grande del ...
-
NVIDIA mostraría el primer Sample de su GPU Feynma...
-
Intel confirma Unified Core, la vuelta a un solo t...
-
Desbloquea todo el contenido de Resident Evil 4 Re...
-
Giro de 180 grados a las IPTV en Italia: Javier Te...
-
No crees una contraseña con IA, ni ChatGPT, ni Gem...
-
¿Cuánto aportó el furor por la IA a la economía en...
-
-
▼
marzo
(Total:
16
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
¿Por qué los textos que genera ChatGPT son tan aburridos? El fallo invisible de la IA
Una IA busca venganza de un humano después de que este le rechace su sugerencia de código: escribe una entrada en el blog criticándolo
Ciberdelincuentes usan Gemini para robar datos de Google Calendar
Investigadores hackean Gemini de Google mediante inyecciones de prompts
Ataques a IA: Prompt Injection y Data Poisoning
La IA está en todas partes y cada vez suma más usuarios. El paso lógico es que también fuera el objetivo de ataques maliciosos. Según un informe de Crowdstrike, la IA se ha convertido en el arma predilecta para los ciberdelincuentes, que la usan para automatizar y perfeccionar sus ataques, especialmente el ransomware. El MIT analizó más de 2.800 ataques ransomware y descubrieron que el 80% habían empleado IA.
Google explica los mejores trucos para crear imágenes espectaculares con Gemini
Gemini sigue evolucionando cada día que pasa y acaba de dar un paso más en lo que es la creación de imágenes. Después de lanzar su nuevo editor de fotos gratis, ahora permite crear ilustraciones desde cero, editarlas, fusionar conceptos y mantener los personajes a lo largo de las diferentes creaciones.
Vibe coding o cómo crear una app sin tener ni idea de programación: ¿alucinación de la IA o realidad?
Guía DeepSeek: funciones y cosas que puedes hacer gratis con esta inteligencia artificial
DeepSeek ha entrado como un elefante en una cacharrería en el sector. Lo ha hecho por ser de código abierto y que cualquiera pueda descargarlo y alojarlo en su ordenador, pero también porque su versión completa tiene capacidades a la altura de modelos por los que empresas como OpenAI están cobrando hasta 200 euros al mes.
OpenAI presenta Sora, su nueva herramienta para generar vídeo a partir de texto
Sora, una herramienta que en su actual versión experimental permite generar vídeos de hasta 60 segundos. La compañía liderada por Sam Altman asegura que el modelo es capaz de generar escenas realistas, adhiriéndose a las indicaciones de los usuarios. Todo esto, manteniendo la calidad de los fotogramas.
Inyección de prompts: el mayor fallo de seguridad de la IA generativa
Es fácil engañar a los grandes modelos de lenguaje (LLM, por sus siglas en inglés) que hacen funcionar a chatbots como ChatGPT de OpenAI y Bard de Google. En un experimento realizado en febrero, unos investigadores de seguridad forzaron a Bing de Microsoft a comportarse como un estafador. Las instrucciones ocultas en una página web creada por el equipo ordenaban al chatbot que solicitara a quien lo usaba los datos de su cuenta bancaria. Este tipo de ataque, en el que la información encubierta obliga al sistema de inteligencia artificial (IA) a comportarse de forma no deseada, es solo el principio.









