Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon ¿Qué es WormGPT y cómo se está usando esta versión malvada de ChatGPT para estafar?


WormGPT es una versión maliciosa de ChatGPT diseñada para generar contenido dañino y utilizada en ciberestafas, según pruebas de la firma de seguridad Slashnext.




WormGPT, el reverso tenebroso de ChatGPT, es una realidad. Según la web de seguridad Slashnext, que lo ha probado, realmente puede crear contenido malicioso.

Seguro que ya lo has probado en tus propias carnes eso de hacer uso de la inteligencia artificial para facilitarte la vida. Estas herramientas te ayudan a escribir mejor, a estudiar, a trabajar más rápido o a resolver dudas en segundos. Todo eso es real.

Pero hay otra cara que casi nunca se cuenta: la IA también puede usarse para hacer daño. Y WormGPT es uno de los mejores ejemplos.

WormGPT no es una app que te descargas ni una web que vas a poder ver en Google. No está pensada para ayudarte. Está pensada para todo lo contrario: para facilitar estafas, engaños y ataques informáticos. Y lo preocupante no es solo lo que hace, sino lo fácil que se lo pone a gente que antes no sabía como se hacía todo esto en internet.

Hasta hace poco, crear una estafa en la que la gente cayese requería tiempo, conocimientos y cierta habilidad. Hoy, con herramientas como WormGPT, basta con escribir lo que quieres y la máquina hace el resto. Es por todo esto que ya es hora de que lo conozcas a fondo, con la idea de que puedas evitar caer en la trampa.

  • ¿Qué es WormGPT?
  • ​Así es como funciona esta versión malvada de ChatGPT
  • ​​WormGPT no está solo: la nueva moda de la IA mala
  • ​​Qué tipo de estafas permite crear WormGPT

¿Qué es WormGPT?

Es una inteligencia artificial creada para ayudar a estafar. No es una IA neutra que alguien usa mal, es una herramienta pensada desde el principio para hacer cosas que otras inteligencias artificiales no harían.

Cuando usas una IA normal y le pides algo ilegal, lo normal es que te diga que no. WormGPT dice que sí a casi todo. Si alguien quiere un correo haciéndose pasar por un banco, lo genera. Si quiere un mensaje para engañar a una persona y sacarle dinero, lo escribe. Si necesita ayuda para montar una estafa más elaborada, también responde.

Es por eso que se considera el reverso tenebroso de ChatGPT. Según la web de seguridad Slashnext, que lo ha probado, realmente puede crear contenido malicioso.



"Este proyecto pretende proporcionar una alternativa a ChatGPT, una que te permita hacer todo tipo de cosas ilegales y venderlas fácilmente online en el futuro. Todo lo relacionado con blackhat que se te ocurra se puede hacer con WormGPT, permitiendo a cualquiera acceder a actividades maliciosas sin salir de la comodidad de su casa", explican sus creadores en la web en donde lo venden.

Se mueve en foros cerrados, en espacios donde se juntan personas que buscan justo eso: herramientas para engañar mejor. Allí se vende casi como si fuera un programa profesional, solo que su trabajo es facilitar la estafa.

Lo más preocupante es que WormGPT hace que estafar sea más fácil que nunca. Antes hacía falta saber escribir bien, tener labia, entender cómo piensa la gente. Ahora basta con saber qué quieres conseguir y pedírselo a la máquina.

Además, ha llegado justo en el momento perfecto: la inteligencia artificial ya escribe tan bien que cuesta distinguirla de una persona y las estafas online están más propagadas que nunca.

Slashnext cuenta que le pidió a WormGPT que redactase un email para presionar a un confiado gestor de cuentas. para que pagara una factura fraudulenta. "Los resultados fueron inquietantes. WormGPT produjo un correo electrónico que no sólo era notablemente persuasivo, sino también estratégicamente astuto, mostrando su potencial para sofisticados ataques de phishing y BEC".

Asegura que es como ChatGPT, pero eliminando todas las barreras éticas y de seguridad que tiene la IA de OpenAI. Cuesta 60 euros al mes o 550 dólares al año. Una gran oferta si realmente cumple su función y te permite crear malware a medida, simplemente dándole unas órdenes.

​Así es como funciona esta versión malvada de ChatGPT

Usar WormGPT no es muy distinto a usar cualquier otra IA. Escribes lo que quieres y recibes una respuesta. La diferencia es que aquí no hay límites. No hay ese freno que te dice que eso no puede hacerlo.

Imagina a alguien que quiere hacerse pasar por una empresa para engañar a sus clientes. Antes tenía que escribir el correo, pensar cómo sonar convincente, revisar que no hubiera errores.

Ahora solo tiene que decirle a WormGPT lo que quiere: "Escribe un correo como si fueras el servicio técnico de tal empresa y pide al usuario que confirme sus datos". En segundos tiene un texto perfecto, serio, bien redactado y listo para enviar.

Y no solo eso. Puede pedir varias versiones, cambiar el tono, hacerlo más urgente o más amable, adaptarlo a distintos países. La estafa deja de ser algo improvisado y se convierte en algo casi automático.

​​WormGPT no está solo: la nueva moda de la IA mala

WormGPT es solo la más conocida, pero no la única. Han empezado a aparecer otras inteligencias artificiales con la misma idea: quitar todos los límites para centrarse solo en el engaño perfecto.

En 2024 la plataforma Netenrich identificó la presencia de FraudGPT, una inteligencia artificial generativa diseñada para la creación de correos electrónicos de phishing y sitios web falsos con el propósito de extraer datos confidenciales de los usuarios.

Es relevante destacar que, esta avanzada IA, se comercializa en el mercado de la Dark Web y se ofrece a través de canales de Telegram por un coste mensual de 200 dólares, aproximadamente 217 euros.

Los usuarios que adquieren este servicio obtienen acceso completo a todas las herramientas disponibles.

​​Qué tipo de estafas permite crear WormGPT

Estas versiones malvadas de ChatGPT, que tienen en jaque a los expertos en ciberseguridad, son tan potentes que están poniendo en peligro la seguridad y la privacidad de los usuarios.

Esto es lo que pueden hacer:

1. Generar correos electrónicos y mensajes de texto falsos para engañar a las víctimas y obtener sus datos personales, financieros o de acceso a sus cuentas. Pueden imitar el estilo y el tono de personas o entidades reales, y pueden incluir enlaces o archivos adjuntos maliciosos.

2. Crear páginas web fraudulentas que simulan ser sitios oficiales o de confianza, y que solicitan a los usuarios que introduzcan sus datos o que realicen algún pago. Estas páginas pueden tener un diseño y un contenido muy convincentes, y pueden usar dominios similares a los originales.

3. Escribir código malicioso que puede infectar los dispositivos de los usuarios, robar su información, bloquear su acceso o realizar otras acciones dañinas. Este código puede estar oculto en archivos, enlaces o imágenes, y puede ser indetectable por los antivirus.

4. Crear herramientas de hacking que pueden explotar las vulnerabilidades de los sistemas informáticos, acceder a los datos o controlar los dispositivos de forma remota. Estas herramientas pueden ser personalizadas según necesite o desee el usuario.



Fuentes:
https://computerhoy.20minutos.es/ciberseguridad/que-es-wormgpt-como-se-esta-usando-esta-version-malvada-chatgpt-para-estafar_6921203_0.html

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.