Tienda FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon La mayoría de la gente hace lo que le dice ChatGPT, aunque este esté completamente equivocado


Un estudio revela que la mayoría de las personas sigue las indicaciones de ChatGPT incluso cuando está equivocado, debido a un factor psicológico que le otorga excesiva autoridad a la IA.




Existe un factor psicológico, explican los especialistas, que hace que mucha gente dé mas autoridad a la inteligencia artificial de la que muchas veces merece.

Cada vez más gente usa los chatbots de inteligencia artificial para casi todo. ChatGPT es un buen ejemplo de ello. Pueden emplearse para resolver dudas, hacer consultas, pero también para informarse de la actualidad, por ejemplo. No es ningún secreto que muchos usuarios ya utilizan la IA como si fuesen algo parecido al buscador de Google. Hasta la propia Google apuesta por lo mismo.

El problema, según ha publicado un nuevo estudio, no está en cuánto se usa ChatGPT y algunas herramientas parecidas (que también tiene lo suyo, pero sería otra cuestión), sino en cómo se hace. Los expertos han descubierto que la gente hace lo que le dice ChatGPT, confiando ciegamente en sus respuestas. Incluso cuando estas están completamente equivocadas, como pasa a menudo.

ChatGPT, una fuente no demasiado fiable

¿Alguna vez has escuchado hablar de las alucinaciones de la IA? Seguro que sí, como la mayoría de la gente. Estas, básicamente, no son otra cosa que las equivocaciones de chatbots como ChatGPT. Se producen con mucha constancia, pero eso no es impedimento para que, tal y como dice un nuevo estudio, la gente haga caso de todo lo que dice ChatGPT casi siempre.

La investigación, realizada por una amplia colaboración internacional de medios públicos coordinada por la European Broadcasting Union, pone el foco precisamente en eso: en la confianza que los usuarios depositan en los sistemas de IA. Curiosamente, cuanta más popularidad tienen estos últimos, más fiabilidad despierta en el público. Cuando quizá debería suceder al revés.

El estudio analizó miles de respuestas generadas por asistentes de IA a preguntas relacionadas con noticias y actualidad. Los resultados mostraron que una parte significativa de las respuestas contenía errores, imprecisiones o problemas de contexto. ¿Importó eso a la gente? No. Primero, porque la mayoría no detectaron esas equivocaciones. Segundo, porque lo aceptan todo como válido.

Los expertos, además, explican que esta tendencia tiene una explicación, si se piensa un poco al respecto. La gente hace caso a la IA porque esta resulta elocuente. Es decir, sus respuestas suelen ser claras, estar bien redactadas y generan sensación de autoridad. Eso tiene un calado importante en los usuarios. Incluso mucho más que el hecho de que algo sea verdad o la IA se lo haya sacado de la manga.

Mejor que la máquina piense por ti

Este fenómeno también cuenta con un nombre. Al menos, los expertos lo denominan así: sesgo de automatización. O lo que es lo mismo, la costumbre de mucha gente de confiar en sistemas automatizados. ¿Para qué? Pues para tener que esforzarse menos. De hecho, no son pocos los especialistas que advierten de esta peligrosa dinámica, e incluso creen que la IA puede idiotizar a la gente.

¿Podría explicar eso explicar su rápido crecimiento? Quién sabe. Lo que está claro es que la IA comete errores. Además, en un porcentaje alto. Si, como dice el estudio, cada vez más gente emplea ChatGPT como principal fuente de información, el resultado puede ser obvio: ciudadanos cada vez peor informados.



Fuentes:
https://computerhoy.20minutos.es/tendencias/mayoria-gente-hace-que-le-dice-chatgpt-aunque-este-este-completamente-equivocado-segun-un-estudio_6952318_0.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.