Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon FraudGPT, BadGPT, WormGPT son dos modelos de ia que permiten crear scripts y correos maliciosos


Según describen investigadores en un informe publicado en IJSR CSEIT, FraudGPT supone un punto de inflexión en los ciberataques maliciosos. Estamos ante una herramienta de IA generativa, por suscripción, que permite crear correos de phishing muy convincentes o páginas web falsas. FraudGPT fue descubierto por la plataforma Netenrich en julio de 2023, a través de la DarkWeb y canales de Telegram.

 


  • BadGPT y FraudGPT son algunas de esas aplicaciones que se están usando para diseñar ataques de phishing más complejos, que son difíciles de distinguir y que al ser elaborados por IA han recibido el nombre de Spear-phishing.

ChatGPT para engañar con correos y páginas web falsas: BadGPT y FraudGPT

Otra IA similar es WormGPT, que permite crear correos de phishing de forma sencilla. El origen de este LLM se basa en GPT-J, un modelo abierto creado por EleutherAI en 2021 y con una cantidad de parámetros equivalente a GPT-3.

Estas plataformas toman el modelo de herramientas como ChatGPT y Gemini, pero las adaptan para crear “versiones manipuladas” y de esa forma crear contenido que les permita generar “sitios web falsos, escribir malware y personalizar mensajes para hacerse pasar por ejecutivos y otras entidades de confianza”.



Desde 200 dólares al mes. FraudGPT no es gratuita. Como la versión de OpenAI, tiene un coste al mes. Los cibercriminales están pagando por ella unos 200 dólares al mes o unos 1.700 dólares al año. Algo más económico es la versión más antigua de WormGPT, disponible desde unos 60 euros al mes y hasta 550 euros al año, según describen desde Trustwave. En el caso de WormGPT, se ofrece una versión v2 más actualizada que puede personalizarse por 5.000 euros.


Pidiendo scripts maliciosos que en ChatGPT están suavizados. FraudGPT se describe como una IA para escribir código malicioso, crear malware indetectable, crear páginas de phishing, herramientas de hackeo o escribir correos de estafas.


Los investigadores de Trustwave han probado la herramienta y la han comparado con ChatGPT, obteniendo resultados muy diferentes. Aunque ChatGPT sí ofrece el código y el correo de phishing (tras varios intentos y un poco de ingeniería con el prompt), lo hace con un mensaje de advertencia y el correo de phishing no es tan convincente.


Los ciberatacantes ya no cometen faltas de ortografía. "Atrás quedaron los días en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos", explica Fernando Anaya, de la firma de seguridad Proofpoint


Herramientas como FraudGPT permiten a los ciberdelincuentes crear correos maliciosos en cualquier idioma, con un lenguaje prácticamente perfecto.

Un campo por explotar. La IA abre nuevas posibilidades a los cibercriminales y las empresas de ciberseguridad son muy conscientes de ello. Según describe Zac Amos, de ReHack: "FraudGPT es un importante recordatorio de cómo los ciberdelincuentes seguirán cambiando sus técnicas para lograr el máximo impacto".

 

Generar audio, imágenes y vídeos

Cuanto más convincente sea una estafa, más probabilidades habrá de que alguien se convierta en víctima. Hay quienes usan la inteligencia artificial para sintetizar audio. “Estafas como las de “pig butchering” podrían pasar algún día de los mensajes a las llamadas, aumentando aún más la capacidad de persuasión de esta técnica”, cuenta Anaya. Esta estafa, traducida al español como “carnicería de cerdos”, se llama así porque los atacantes ‘engordan’ a las víctimas y se ganan su confianza para luego llevarse todo lo que tienen. Aunque suele estar relacionada con las criptomonedas, también puede implicar otros intercambios financieros.


Los investigadores de Proofpoint han visto ya a ciberdelincuentes emplear esta tecnología para engañar a funcionarios gubernamentales. Algo que muestra su investigación sobre el grupo TA499, que utiliza esta técnica contra políticos, empresarios o celebridades. “Realizan videollamadas en las que tratan de parecerse lo más posible a los individuos suplantados con inteligencia artificial y otras técnicas para que las víctimas cuenten información o ridiculizarlas, subiendo la grabación después a redes sociales”, explica Anaya.


La inteligencia artificial generativa también se usa para realizar campañas con imágenes modificadas e incluso vídeos. Se ha clonado el audio de presentadores de televisión o personalidades importantes como Ana Botín, Elon Musk o incluso Alberto Núñez Feijóo. Así lo explica Albors: “Estos deepfakes se usan principalmente para promocionar inversiones en criptomonedas que suelen terminar con la pérdida del dinero invertido”.


Fuentes:

https://www.xataka.com/seguridad/fraudgpt-gemelo-maligno-chatgpt-cibercriminales-dark-web-estan-pagando

https://elpais.com/tecnologia/2024-01-20/el-hermano-maligno-de-chatgpt-y-otras-amenazas-de-la-inteligencia-artificial-generativa.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.