Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Expertos advierten de los peligros de la IA para la salud mental: "Nunca debe sustituir el acompañamiento humano"


Expertos alertan sobre los riesgos de usar la IA como sustituto de la atención psicológica humana, indicando que podría ser contraproducente para la salud mental y que nunca debe reemplazar el acompañamiento personal.




Cada vez más gente emplea la inteligencia artificial a modo de terapeuta, pero los especialistas insisten en que el remedio puede ser casi peor que la enfermedad.

Hace algunos años podía parecer una locura: hablar con una inteligencia artificial casi como si se tratara de una persona. No obstante, es algo que ya está sucediendo. La IA, conviene recordar, tiene sus ventajas: siempre está disponible, nunca tiene una mala respuesta de cara a los usuarios y tiende a dar la razón a todo el mundo, incluso cuando no debería hacerlo.

Si se piensa en todo ello, es fácil comprender por qué herramientas como ChatGPT se han convertido en un imán para ciertos perfiles. En especial para aquellos que tienden a sentirse solos, con problemas para sociabilizar de manera convencional o con sensibilidades depresivas. Por eso los expertos cada vez reaccionan con mayor contundencia y hablan de un riesgo para la salud mental.

Los especialistas en salud mental contra la IA

¿Por qué muchos psicólogos son tan rotundos a la hora de señalar a la inteligencia artificial como un riesgo para la salud mental? Según la UIC de Barcelona, todo nace de la propia naturaleza de la IA. Esta puede simular empatía o comprensión, pero es una entelequia, ya que carece de juicio o criterio propio. Es algo en lo que muchos expertos llevan tiempo insistiendo.

En un sentido práctico, los especialistas de la Universidad de Columbia reflejan qué sucede con ella. "La IA puede transmitir sensación de apoyo", reconocen. "Pero es algo inapropiado cuando se trata de problemas graves como angustia o depresión". Dos trastornos cada vez más habituales dentro del mundo moderno. Algunos ya se refieren a ello como "ilusión de empatía".

También hacen hincapié en otro asunto fundamental para ellos: la IA no tiene la capacidad de entender matices. Es decir, que puede malinterpretar señales o indicadores clínicos sutiles (o que no lo sean) que un especialista tradicional debería detectar rápido. Por eso su recomendación es clara: "Nunca debe sustituir el acompañamiento humano".

Desde hace tiempo es un consejo que se repite. La IA no es inteligente, solo un algoritmo que simula serlo. Pero, para bien o para mal, es indiscutible que resulta convincente. Convincente y agradable. ¿La consecuencia de ello? Que cada vez más gente recurre a chatbots para así ahorrarse la necesidad de acudir al diván de un psicólogo normal y corriente.

Una decisión más peligrosa de lo que muchos piensan

Es algo que sucede sobre todo entre la gente joven. Diversos estudios lo han demostrado con creces. Sin embargo, el peligro es real. Un estudio publicado recientemente encontró que muchos chatbots empleados para apoyo emocional tienden a aceptar propuestas peligrosas o no derivan adecuadamente a recursos de crisis, lo que representa un riesgo para usuarios en situaciones de vulnerabilidad.

Seguro que alguna vez has escuchado aquello de que con la salud no se juega, ¿verdad? Pues ahora son muchos quienes lo recuerdan, pero con la mente y la inteligencia artificial como protagonistas. Una relación complicada, a veces más de lo que la gente se piensa.



Fuentes:
https://computerhoy.20minutos.es/tecnologia/expertos-advierten-los-peligros-ia-para-salud-mental-nunca-debe-sustituir-acompanamiento-humano_6911658_0.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.