Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
1019
)
- ► septiembre (Total: 50 )
-
▼
2023
(Total:
710
)
-
▼
noviembre
(Total:
41
)
- La colaboración internacional permite desmantelar ...
- Las estafas más comunes en Facebook Marketplace
- Ucrania hackea la Agencia de Transporte Aéreo de R...
- ChatGPT personalizados pueden exponer datos
- Q-Star (Q*): la nueva IA de OpenAI que amenaza a l...
- Científicos chinos crean una «capa de invisibilida...
- China hackeó durante 2 años al mayor fabricante de...
- ¿Final del Proyecto ModSecurity WAF?
- Los creadores de Stable Diffusion presentan una he...
- OpenAI acuerda el regreso de Sam Altman como CEO y...
- Análisis técnico del ransomware Rhysida
- ¿YouTube boicotea Firefox y a otros navegadores al...
- La Guardia Civil e Incibe advierten sobre una fuga...
- Windows Hello, hackeado usando vulnerabilidades en...
- Apple no se toma en serio a Flipper Zero y el "tam...
- Podrás desinstalar aplicaciones como Bing, Edge, C...
- China dice que tiene la red de Internet más rápida...
- Google pagó a Samsung 8.000 millones de dólares pa...
- Las copias de seguridad de WhatsApp en Android vol...
- Las versiones de pago de Instagram y Facebook extr...
- La historia de Amazon: de pequeña librería online ...
- Convertir un pendrive en una llave de seguridad co...
- Los teléfonos Android necesitarán más RAM para sop...
- mic-jammers: dispositivos para interferir y evitar...
- Microsoft obliga a completar una encuesta antes de...
- ¿Quién tiene la culpa en un accidente con un coche...
- Un robot mata a un trabajador al confundirlo con u...
- "Desnuda a cualquiera con nuestro servicio gratuit...
- En España la CNMV investiga a Twitter por permitir...
- Scraping de 35 millones de registros con datos per...
- Aitana es una reconocida influencer de gaming, per...
- YouTube es acusada de violar la ley al detectar si...
- El fabricante de componentes para bicicletas Shima...
- El uso indebido de eventos en Google Calendar apro...
- El peligro en las apps de citas: revelan un caso r...
- Amazon ganó mil millones de dólares extra con un a...
- Elon Musk va a convertir Twitter en una app de citas
- Boeing confirma un ciberataque por la banda de ran...
- Metasploit Framework: explotar vulnerabilidades pu...
- EE.UU., la Unión Europea y China firman un acuerdo...
- La UE prohíbe a Meta la publicidad selectiva en Fa...
- ► septiembre (Total: 65 )
-
▼
noviembre
(Total:
41
)
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
En el panorama en constante evolución de la seguridad de redes, OpnSense se ha convertido en una formidable solución de firewall. Nacido de...
-
Pese a que Gemini ofrece multitudes de opciones, recientemente, se ha dado a conocer una situación fuera de lo común. Hace unos días, un es...
ChatGPT personalizados pueden exponer datos
ChatGPT se ha convertido en una herramienta muy útil en los últimos meses, tanto para lo bueno como para lo malo. Es un chat de inteligencia artificial que puede venir bien para resolver ciertas dudas, pero lo cierto es que también es muy usado por los piratas informáticos. Podemos encontrarnos con programas falsos que simulan ser el original o páginas fraudulentas que buscan robar tus datos. Vamos a explicar cómo pueden filtrar tus datos.
Pero, ¿qué es exactamente un
ChatGPT personalizado? Básicamente, una herramienta de IA personalizada que puedes crear para
cualquier tema que te interese. Puede ser relacionado con juegos, película,
creación de algún tipo de contenido, etc. Pero esto, como vas a ver, puede ser
un problema.
GPT personalizados, un riesgo
El problema es que, al compartir los GPT personalizados, podrías estar exponiendo tus datos a cualquiera. Al personalizar esta mini versión programablede ChatGPT, estás dando información e instrucciones específicas. Por ejemplo, si vas a crear una versión para responder preguntas relacionadas con la actividad física, vas a dar datos para que pueda responder como un entrenador personal.
Vas a tener que subir archivos, instrucciones e información para que responda de la manera que tú quieres. ¿Qué ocurre? Alguien podría llegar a acceder a eso que estás subiendo a la plataforma. Un investigador de seguridad ha encontrado la manera de que ese chat personalizado devuelva un enlace con el archivo que se ha subido previamente con las instrucciones. Aunque indican que no se comparta eso con nadie, existe la opción de que el chat devuelva ese enlace.
A través de ese archivo, alguien podría acceder al contenido completo y
descargarlo. Esto, lógicamente, no en todos los casos va a tener la misma
repercusión. Puede que sea información irrelevante, que no va a afectar en
nada a la persona que ha creado ese chat, pero podría ser que sí que contenga
datos personales o cualquier información que afecte a terceros.
Si vas a crear un ChatGPT personalizado, es importante que tengas en cuenta algunos consejos para no tener problemas. Algo básico es decidir si realmente necesitas compartirlo de forma pública o solo con tus amigos o familiares. Eso limitará mucho la probabilidad de que termine en malas manos y pueda afectarte.
A partir de ahí, puedes hacer que ese chat personalizado solo esté disponible para ti, para otras personas con enlace o para que cualquiera pueda entrar. Esto último, lógicamente, es lo que más problemas podría ocasionar. Si restringes el acceso, tendrás un mayor control y evitarás que puedan acceder a tus datos.
Más allá de esto, siempre que vayas a crear un chat personalizado de este tipo, es importante que limites la información que vayas a dar. Al crear las instrucciones para que funcione, limítate a lo esencial. No des más datos de los realmente necesarios, ya que eso podría llegar a poner en riesgo tu privacidad y que esa información termine en malas manos.
Fuentes: RedesZone
Vía:
https://blog.segu-info.com.ar/2023/11/chatgpt-personalizados-podrian-exponer.html
https://www.makeuseof.com/how-custom-gpts-could-expose-your-data-and-how-to-keep-it-safe/
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.