Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Videollamadas con la cara y la voz clonada de tu mujer para pedirte dinero: las estafas con inteligencia artificial se disparan en China


Un estafador chino utilizó la inteligencia artificial para hacerse pasar por un amigo de confianza de un empresario y convencerle de que le entregara millones de yuanes, según han declarado las autoridades.




  • En los últimos días en el país asiático se han dado a conocer varios casos de estafas relacionadas con la IA

Fraude con inteligencia artificial en China: se hizo pasar por el amigo de un empresario y le robó USD 600 mil

  • El estafador usó tecnología para cambiar su rostro y su voz y convenció a un empresario de transferirle 4,3 millones de yuanes

La víctima, de apellido Guo, recibió el mes pasado una videollamada de una persona que parecía y sonaba como un amigo cercano.

Pero la persona que llamaba era en realidad un estafador que “utilizaba tecnología inteligente de inteligencia artificial para cambiar su rostro” y su voz, según un artículo publicado el lunes por un portal de medios de comunicación asociado al gobierno de la ciudad meridional de Fuzhou.

El estafador “se hacía pasar por un buen amigo (de Guo) y perpetraba el fraude”, decía el artículo.

Guo fue convencido para que transfiriera 4,3 millones de yuanes (609.000 dólares) después de que el estafador afirmara que otro amigo necesitaba que el dinero saliera de la cuenta bancaria de una empresa para pagar la garantía de un concurso público.

El estafador pidió el número de la cuenta bancaria personal de Guo y luego afirmó que se había transferido una suma equivalente a esa cuenta, enviándole una captura de pantalla de un registro de pago fraudulento.

Sin comprobar que había recibido el dinero, Guo envió dos pagos desde la cuenta de su empresa por un total de la cantidad solicitada.

“En ese momento, comprobé la cara y la voz de la persona que me llamaba por vídeo, así que bajé la guardia”, afirma Guo en el artículo.

Sólo se dio cuenta de su error después de enviar un mensaje al amigo cuya identidad había sido robada, que no tenía conocimiento de la transacción.

Guo avisó a la policía, que notificó a un banco de otra ciudad que no procediera con las transferencias, y consiguió recuperar 3,4 millones de yuanes, según el artículo. Añadía que se estaba intentando recuperar el resto de los fondos, pero no identificaba a los autores de la estafa.

Desde que la empresa estadounidense OpenAI lanzó en noviembre ChatGPT, un chatbot que imita el habla humana, la atención se ha centrado en los peligros potenciales de la innovadora tecnología de IA.

China ha anunciado ambiciosos planes para convertirse en líder mundial de la IA en 2030, y una serie de empresas tecnológicas como Alibaba, JD.com, NetEase y ByteDance, matriz de TikTok, se han apresurado a desarrollar productos similares.

ChatGPT no está disponible en China, pero el software estadounidense está adquiriendo una base de usuarios chinos que utilizan redes privadas virtuales para acceder a él con el fin de escribir redacciones y estudiar para los exámenes.

Pero también se utiliza con fines más nefastos.

Este mes, la policía de la provincia noroccidental de Gansu informó de que se habían tomado “medidas coercitivas” contra un hombre que utilizó ChatGPT para crear una noticia falsa sobre un accidente de autobús mortal que se difundió ampliamente en las redes sociales.

La ley que regula los deepfakes, que entró en vigor en enero, prohíbe el uso de esta tecnología para producir, publicar o transmitir noticias falsas.

Y un proyecto de ley propuesto el mes pasado por el regulador de Internet de Pekín exigiría que todos los nuevos productos de IA se sometieran a una “evaluación de seguridad” antes de ser lanzados al público.


Fuentes:

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.