Tutoriales y Manuales
Entradas Mensuales
-
▼
2026
(Total:
708
)
-
▼
febrero
(Total:
28
)
-
Duke Nukem 3D cumple 30 años
-
Así puedes ver gratis más de 1.800 canales de TV d...
-
¿Qué es WormGPT y cómo se está usando esta versión...
-
WizTree es un gestor de almacenamiento avanzado pa...
-
Rusia está usando Starlink para desactivar las señ...
-
Atacantes secuestraron más de 200 sitios explotand...
-
Exingeniero de Google condenado por robar secretos...
-
Ciberataque a la red energética polaca afectó a un...
-
Troyano TAMECAT roba credenciales de Edge y Chrome...
-
El 75% de las GPU NVIDIA GeForce RTX 50 que se env...
-
Samsung y SK Hynix advierten sobre la escasez de m...
-
Apple sigue perdiendo talento en IA: investigadore...
-
El Cuerpo de Marines de EE.UU. desarrolla el prime...
-
Prince of Persia: The Sands of Time Remastered con...
-
Genie 3, la IA de Google que permite crear videoju...
-
Hugging Face: más de 6.000 variantes de malware pa...
-
Vulnerabilidades críticas de día cero en Ivanti En...
-
KIOXIA presenta las tarjetas de memoria, EXCERIA P...
-
El phishing llega a las balizas V16: así se aprove...
-
Los mejores antivirus de rescate contra el malware...
-
Usan Teams para enviar contenido malicioso haciénd...
-
Atacantes explotan vulnerabilidad React2Shell para...
-
16 extensiones maliciosas de Chrome como mejoras d...
-
Fortinet desactiva el SSO de FortiCloud tras explo...
-
Servidor de actualizaciones de eScan Antivirus pir...
-
AutoPentestX: kit de herramientas automatizado de ...
-
El Fire TV Stick vuelve de oferta: Amazon deja su ...
-
Las estafas de phishing evolucionan: cuidado al in...
-
-
▼
febrero
(Total:
28
)
-
►
2025
(Total:
2103
)
- ► septiembre (Total: 148 )
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
La comunidad del kernel de Linux ha elaborado un plan de contingencia para reemplazar a Linus Torvalds en caso de que sea necesario. Este...
-
Un editor de vídeo gratuito ha ganado popularidad al ofrecer herramientas tan potentes que desplaza a CapCut , permitiendo editar vídeos pa...
-
ClothOff es una app que utiliza inteligencia artificial generativa para desnudar a cualquier persona a partir de fotografías con ropa que...
¿Qué es WormGPT y cómo se está usando esta versión malvada de ChatGPT para estafar?
WormGPT, el reverso tenebroso de ChatGPT, es una realidad. Según la web de seguridad Slashnext, que lo ha probado, realmente puede crear contenido malicioso.
Seguro que ya lo has probado en tus propias carnes eso de hacer uso de la inteligencia artificial para facilitarte la vida. Estas herramientas te ayudan a escribir mejor, a estudiar, a trabajar más rápido o a resolver dudas en segundos. Todo eso es real.
Pero hay otra cara que casi nunca se cuenta: la IA también puede usarse para hacer daño. Y WormGPT es uno de los mejores ejemplos.
WormGPT no es una app que te descargas ni una web que vas a poder ver en Google. No está pensada para ayudarte. Está pensada para todo lo contrario: para facilitar estafas, engaños y ataques informáticos. Y lo preocupante no es solo lo que hace, sino lo fácil que se lo pone a gente que antes no sabía como se hacía todo esto en internet.
Hasta hace poco, crear una estafa en la que la gente cayese requería tiempo, conocimientos y cierta habilidad. Hoy, con herramientas como WormGPT, basta con escribir lo que quieres y la máquina hace el resto. Es por todo esto que ya es hora de que lo conozcas a fondo, con la idea de que puedas evitar caer en la trampa.
- ¿Qué es WormGPT?
- Así es como funciona esta versión malvada de ChatGPT
- WormGPT no está solo: la nueva moda de la IA mala
- Qué tipo de estafas permite crear WormGPT
¿Qué es WormGPT?
Es una inteligencia artificial creada para ayudar a estafar. No es una IA neutra que alguien usa mal, es una herramienta pensada desde el principio para hacer cosas que otras inteligencias artificiales no harían.
Cuando usas una IA normal y le pides algo ilegal, lo normal es que te diga que no. WormGPT dice que sí a casi todo. Si alguien quiere un correo haciéndose pasar por un banco, lo genera. Si quiere un mensaje para engañar a una persona y sacarle dinero, lo escribe. Si necesita ayuda para montar una estafa más elaborada, también responde.
Es por eso que se considera el reverso tenebroso de ChatGPT. Según la web de seguridad Slashnext, que lo ha probado, realmente puede crear contenido malicioso.
"Este proyecto pretende proporcionar una alternativa a ChatGPT, una que te permita hacer todo tipo de cosas ilegales y venderlas fácilmente online en el futuro. Todo lo relacionado con blackhat que se te ocurra se puede hacer con WormGPT, permitiendo a cualquiera acceder a actividades maliciosas sin salir de la comodidad de su casa", explican sus creadores en la web en donde lo venden.
Se mueve en foros cerrados, en espacios donde se juntan personas que buscan justo eso: herramientas para engañar mejor. Allí se vende casi como si fuera un programa profesional, solo que su trabajo es facilitar la estafa.
Lo más preocupante es que WormGPT hace que estafar sea más fácil que nunca. Antes hacía falta saber escribir bien, tener labia, entender cómo piensa la gente. Ahora basta con saber qué quieres conseguir y pedírselo a la máquina.
Además, ha llegado justo en el momento perfecto: la inteligencia artificial ya escribe tan bien que cuesta distinguirla de una persona y las estafas online están más propagadas que nunca.
Slashnext cuenta que le pidió a WormGPT que redactase un email para presionar a un confiado gestor de cuentas. para que pagara una factura fraudulenta. "Los resultados fueron inquietantes. WormGPT produjo un correo electrónico que no sólo era notablemente persuasivo, sino también estratégicamente astuto, mostrando su potencial para sofisticados ataques de phishing y BEC".
Asegura que es como ChatGPT, pero eliminando todas las barreras éticas y de seguridad que tiene la IA de OpenAI. Cuesta 60 euros al mes o 550 dólares al año. Una gran oferta si realmente cumple su función y te permite crear malware a medida, simplemente dándole unas órdenes.
Así es como funciona esta versión malvada de ChatGPT
Usar WormGPT no es muy distinto a usar cualquier otra IA. Escribes lo que quieres y recibes una respuesta. La diferencia es que aquí no hay límites. No hay ese freno que te dice que eso no puede hacerlo.
Imagina a alguien que quiere hacerse pasar por una empresa para engañar a sus clientes. Antes tenía que escribir el correo, pensar cómo sonar convincente, revisar que no hubiera errores.
Ahora solo tiene que decirle a WormGPT lo que quiere: "Escribe un correo como si fueras el servicio técnico de tal empresa y pide al usuario que confirme sus datos". En segundos tiene un texto perfecto, serio, bien redactado y listo para enviar.
Y no solo eso. Puede pedir varias versiones, cambiar el tono, hacerlo más urgente o más amable, adaptarlo a distintos países. La estafa deja de ser algo improvisado y se convierte en algo casi automático.
WormGPT no está solo: la nueva moda de la IA mala
WormGPT es solo la más conocida, pero no la única. Han empezado a aparecer otras inteligencias artificiales con la misma idea: quitar todos los límites para centrarse solo en el engaño perfecto.
En 2024 la plataforma Netenrich identificó la presencia de FraudGPT, una inteligencia artificial generativa diseñada para la creación de correos electrónicos de phishing y sitios web falsos con el propósito de extraer datos confidenciales de los usuarios.
Es relevante destacar que, esta avanzada IA, se comercializa en el mercado de la Dark Web y se ofrece a través de canales de Telegram por un coste mensual de 200 dólares, aproximadamente 217 euros.
Los usuarios que adquieren este servicio obtienen acceso completo a todas las herramientas disponibles.
Qué tipo de estafas permite crear WormGPT
Estas versiones malvadas de ChatGPT, que tienen en jaque a los expertos en ciberseguridad, son tan potentes que están poniendo en peligro la seguridad y la privacidad de los usuarios.
Esto es lo que pueden hacer:
1. Generar correos electrónicos y mensajes de texto falsos para engañar a las víctimas y obtener sus datos personales, financieros o de acceso a sus cuentas. Pueden imitar el estilo y el tono de personas o entidades reales, y pueden incluir enlaces o archivos adjuntos maliciosos.
2. Crear páginas web fraudulentas que simulan ser sitios oficiales o de confianza, y que solicitan a los usuarios que introduzcan sus datos o que realicen algún pago. Estas páginas pueden tener un diseño y un contenido muy convincentes, y pueden usar dominios similares a los originales.
3. Escribir código malicioso que puede infectar los dispositivos de los usuarios, robar su información, bloquear su acceso o realizar otras acciones dañinas. Este código puede estar oculto en archivos, enlaces o imágenes, y puede ser indetectable por los antivirus.
4. Crear herramientas de hacking que pueden explotar las vulnerabilidades de los sistemas informáticos, acceder a los datos o controlar los dispositivos de forma remota. Estas herramientas pueden ser personalizadas según necesite o desee el usuario.
Fuentes:
https://computerhoy.20minutos.es/ciberseguridad/que-es-wormgpt-como-se-esta-usando-esta-version-malvada-chatgpt-para-estafar_6921203_0.html


Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.