Productos FTTH

Tienda FFTH

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon ChatGPT supera a médicos en diagnósticos de urgencias


ChatGPT es más efectivo que los médicos en diagnósticos de urgencias, logrando un acierto del 67% según un estudio reciente.





  • ChatGPT ha demostrado ser más preciso que los profesionales médicos en la realización de diagnósticos dentro de los servicios de urgencias, logrando una tasa de acierto del 67% según un estudio reciente. Este avance refleja cómo la inteligencia artificial generativa ha dejado de ser una herramienta académica o laboral para integrarse plenamente en el día a día, superando en eficiencia a los humanos en tareas críticas de salud.


Cientos de millones de personas utilizan la IA de forma ocasional y cada vez más la emplean a diario. Ya no solo la utilizamos para ayudarnos a estudiar, a completar ejercicios/actividades que nos toquen hacer o en el trabajo, sino que básicamente la usamos en nuestro día a día para todo. Una IA generativa de textos se ha convertido en un asistente personal y a pesar de que comete errores, han avanzado tanto que da miedo. De hecho, hace unos años decíamos que los consejos de la IA en salud había que ignorarlos y según un estudio reciente, ahora la IA acierta más con los diagnósticos médicos en urgencias.

Los modelos de IA basados en LLM se han entrenado con millones de parámetros para obtener conocimientos generales y ser capaces de responder a nuestras preguntas. Algo como ChatGPT o Google Gemini van a cumplir este papel y al tener amplios conocimientos y hacer búsquedas por Internet por nosotros, normalmente tendremos respuesta a todo, siempre y cuando sean temas permitidos. Aquí todo lo que implique los temas de salud física y mental crea dudas sobre si realmente vale la pena fiarse de una IA o acabaremos peor que cuando empezamos a pedirle ayuda.

Ponen a prueba modelos de IA en diagnósticos médicos y son más precisos que los métodos tradicionales

medicos IA efectividad

A pesar de que se advertía no depender de la IA para diagnósticos médicos y preguntas relacionadas con la salud, cada vez se utilizaba más para ese fin. OpenAI decidió que había que aprovechar la popularidad y lanzó ChatGPT Health con la ayuda de cientos de médicos para así obtener respuestas más precisas. Tras esto aparecieron otras como Perplexity Health y se demostró que las respuestas eran bastante fiables. Es más, ahora un estudio de Harvard ha defendido a las IA como un mejor sistema que el diagnóstico de médicos, al menos en una situación que requiera saber lo que ocurre con rapidez, como en un ingreso por urgencia.

Los investigadores de la Facultad de Medicina de Harvard y el Centro Médico Beth Israel Deaconess hicieron la prueba en condiciones reales para así descartar pruebas teóricas y limitarse a su rendimiento en la práctica. Utilizaron el caso de un paciente que había llegado a urgencias tras sufrir una embolia pulmonar que empeoró y no sabía por qué, pues había seguido el tratamiento que le indicaron los médicos. Utilizando los modelos de IA de OpenAI como o1 y GPT-4, descubrieron que el o1-preview de 2024 con razonamiento era el que más se acercaba a acertar llegando a un 67% de media y con un rango que podía superar el 75% de aciertos. Este modelo acertó más que los diagnósticos médicos (50% de acierto con ISABEL y mayor rango de variabilidad).

A pesar de que han utilizado modelos de IA de OpenAI limitados solo a texto, los resultados fueron mejores que la competencia y que Google Clinician

ChatGPT 4.1 OpenAI

El modelo de IA de OpenAI ni siquiera es el más nuevo y fue el primer modelo de razonamiento complejo que lanzaron hace un tiempo. Además, se limitó a utilizar los registros médicos electrónicos disponibles y no tenía capacidad multimodal. Eso significa que no es capaz de procesar imágenes o sonidos. A pesar de estas limitaciones, fue el que descubrió el diagnóstico correcto con mayor precisión al determinar que había un antecedente de lupus y este provocaba una inflamación del corazón.

Incluso con GPT-4 de 2023 (casi el primer modelo de IA que se usó en ChatGPT) se obtuvieron diagnósticos más precisos que la mayoría de diagnósticos médicos más tradicionales con maquinaria y pruebas del hospital. También superó en más del doble a Google Clinician con IA de 2023.



Fuentes:
https://elchapuzasinformatico.com/2026/05/ia-diagnosticos-medicos/

0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.