-
▼
2025
(Total:
470
)
-
▼
marzo
(Total:
157
)
-
Telegram supera los mil millones de usuarios
-
Cómo un exploit de la NSA se convirtió en el orige...
-
¿Qué es JPEG XL?
-
¿Qué son los shaders y por qué debes esperar antes...
-
Neurodatos: qué son y por qué son el futuro
-
¿Qué es un ASIC?
-
Calibre 8.1 mejora su compatibilidad con macOS e i...
-
Alcasec vendió datos sensibles de 130.000 policías...
-
Hackean un proveedor de SMS y lo utilizan para rob...
-
Filtración masiva de 6 millones registros de Oracl...
-
Vulnerabilidades críticas en Veeam Backup e IBM AIX
-
IngressNightmare: vulnerabilidades críticas del co...
-
El 87% de lo usuarios hace copias de seguridad, pe...
-
Vulnerabilidad crítica en Next.js
-
Hacker antigobierno hackea casi una decena de siti...
-
Google confirma que el desarrollo de Android pasar...
-
Ubuntu 25.04 beta ya disponible, con GNOME 48 y Li...
-
Anthropic asegura haber descubierto cómo ‘piensan’...
-
ChatGPT, Gemini y Claude no pueden con un test que...
-
Amazon presenta ‘Intereses’ una IA que caza oferta...
-
Microsoft rediseña el inicio de sesión para que te...
-
¿Qué significa «in the coming days»? la tendencia ...
-
Por culpa de Trump, empresas y gobiernos europeos ...
-
Signal es seguro… hasta que invitas a un periodist...
-
ChatGPT puede crear imágenes realistas gracias al ...
-
Evolución del menú de inicio de Windows en casi 3...
-
Gemini 2.5 Pro es el “modelo de IA más inteligente...
-
DeepSeek presenta un nuevo modelo de IA optimizado...
-
Samsung y Google tienen casi listas sus gafas con ...
-
⚡️ NVMe sobre TCP/IP
-
🇰🇵 Corea del Norte se prepara para la ciberguerr...
-
🇨🇳 Los creadores de Deepseek tienen prohibido ir...
-
Microsoft usará agentes autónomos de IA para comba...
-
EU OS: La nueva alternativa Linux comunitaria para...
-
China presenta un arma capaz de cortar cualquier c...
-
Historia de Apple
-
Microsoft le dice a los usuarios de Windows 10 que...
-
ReactOS el «Windows de código abierto», se actualiza
-
Denuncia a OpenAI después de que ChatGPT le acusar...
-
💾 Seagate presenta un disco duro mecánico con int...
-
🤖 Claude ya permite buscar en internet para obten...
-
Meta AI llega finalmente a Europa, integrando su c...
-
Francia rechaza la creación de puertas traseras en...
-
🤖Cómo saber si una imagen o vídeo ha sido generad...
-
OpenAI presenta dos nuevos modelos de audio para C...
-
El cofundador de Instagram revela a lo que se dedi...
-
Vigilancia masiva con sistemas de posicionamiento ...
-
Las 20 mejores herramientas de Kali Linux para 2025
-
Cómo instalar Stable Diffusion (para generar imáge...
-
La primera versión de Kali Linux de 2025
-
Marruecos: más de 31,000 tarjetas bancarias divulg...
-
Modo Dios en Android Auto
-
Google anuncia el Pixel 9a, con funciones de IA, e...
-
Europa fuerza a Apple a abrir su ecosistema y acus...
-
La App Contraseñas de Apple fue durante tres meses...
-
Adiós, Photoshop: Gemini ahora te permite editar i...
-
Microsoft alerta de un troyano que desde Chrome ro...
-
Llevan meses explotando una vulnerabilidad de Chat...
-
Teclado que no utiliza letras, sino palabras compl...
-
La GPU se une a los discos duros basados en PCIe: ...
-
Un ciberataque compromete 330 GB de datos confiden...
-
NVIDIA presenta los modelos de razonamiento de IA ...
-
La mítica marca Española de calzado J´Hayber vícti...
-
La RAE confirma haber sufrido un ataque de ransomware
-
NVIDIA BlackWell RTX PRO 6000 con 96 GB de VRAM y ...
-
China construye una base submarina a 2 km de profu...
-
Los creadores de Stable Diffusion presentan una IA...
-
Utilizan una vulnerabilidad crítica en dispositivo...
-
Vulnerabilidad de suplantación en el Explorador de...
-
NVIDIA Isaac GR00T N1, la primera IA de código abi...
-
Campaña de Phishing: "Alerta de seguridad" FALSA e...
-
🔈Amazon Echo: o cedes tus datos y privacidad a la...
-
Descifrador del ransomware Akira mediante GPU
-
Google compra Wiz por 32.000 millones de dólares, ...
-
Una nueva técnica envía sonido a una persona espec...
-
GIMP 3: ya puedes descargar la nueva versión del e...
-
“Hackearon mi teléfono y mi cuenta de correo elect...
-
Generar imágenes mediante IA con Stable Diffusion
-
Steve Wozniak alerta del uso de la IA como «herram...
-
La IA de código abierto iguala a los mejores LLM p...
-
Grupo Lazarus de Corea del Norte hizo el mayor rob...
-
El FBI y CISA alertan ante el aumento de los ataqu...
-
Android 16 incluirá Battery Health
-
SteamOS para PC, la alternativa a Windows
-
Venden acceso total a red de gasolineras de México...
-
Ransomware Akira cifró los datos desde una cámara ...
-
ASUS anuncia monitores con purificador de aire inc...
-
Facebook, Instagram y Threads empiezan a probar la...
-
Texas Instruments crea el microcontrolador más peq...
-
Algunas impresoras están imprimiendo texto aleator...
-
Deep Research, la herramienta de Gemini que convie...
-
La nueva versión de Visual Studio Code te permite ...
-
Las descargas de LibreOffice se disparan con el re...
-
China anuncia una nueva tecnología que permite ver...
-
Google anuncia Gemma 3: su nueva IA ligera para di...
-
Gemini puede usar tu historial de Google para dart...
-
MySQL Replication (Master-Slave)
-
Advierten sobre Grandoreiro, troyano brasileño que...
-
Retan a ChatGPT y DeepSeek a jugar al ajedrez y lo...
-
Una actualización de HP deja inservibles a sus imp...
-
-
▼
marzo
(Total:
157
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
- Nuevo DNI digital: cómo funciona y cuándo será posible llevar el DNI en el móvil
- Trump restó importancia a la filtración de planes militares de EEUU en un chat
- Corea del Norte prepara un ejército de hackers: especializados en IA para espiar a Occidente
- Elon Musk cobra la API de Twitter (X) a precio de oro: esta app te permite usarla gratis
- Microsoft cerrará Skype en mayo y lo reemplazará por Teams
Entradas populares
-
El joven facilitó datos de 22 guardias civiles a la banda, que realizó seguimientos, colocó balizas y tendió trampas a los agentes que les i...
-
Conectarse a un dispositivo remoto, ver lo que le ocurre y hasta controlarlo a distancia son tres de las cualidades que poseen aplicacione...
-
La Comisaría General de Información sostiene en el juzgado 50 de Madrid, que investiga los hechos, que el robo habría sido efectuado por A...
La IA de código abierto iguala a los mejores LLM propietarios en la resolución de casos médicos complejos
Los hallazgos sugieren que las herramientas
de IA de código abierto se están volviendo cada vez más competitivas y
podrían ofrecer una alternativa valiosa a los modelos propietarios.
“Hasta donde sabemos, esta es la primera vez que un modelo de IA de
código abierto iguala el rendimiento de GPT-4 en casos tan complejos
evaluados por médicos”, afirmó el autor principal, Arjun Manrai.
- Una mayor competencia entre las herramientas de diagnóstico por IA debería beneficiar a pacientes y médicos
En la actualidad, los grandes modelos lingüísticos (LLM, por sus siglas en inglés) realizan tareas cognitivas en medicina que antes se consideraban dominio exclusivo de los humanos, como responder con precisión a preguntas médicas de opción múltiple,1 demostrar un razonamiento clínico matizado,2 y establecer un diagnóstico diferencial sólido para casos de diagnóstico complejo.3 Desde su lanzamiento en marzo de 2023, el modelo GPT-4 (Generative Pre-trained Transformer 4) (en adelante, el LLM de código cerrado) creado por OpenAI ha sido uno de los LLM con mejor rendimiento en tareas médicas y se está incorporando a aplicaciones de atención sanitaria. Aunque los LLM de código abierto han estado disponibles, en general no han funcionado tan bien como los modelos propietarios.4 Sin embargo, sigue sin estar claro cómo funcionan los nuevos modelos de código abierto, como el modelo Llama 3.1 (Meta) (en adelante, el LLM de código abierto), con 405.000 millones de parámetros. Estos modelos de frontera de código abierto, llamados así por su rendimiento superior en las pruebas de referencia, pueden ser ahora alternativas competitivas a los modelos de código cerrado.
La inteligencia artificial puede transformar la medicina de muchas maneras, incluida su promesa de actuar como ayudante de diagnóstico de confianza para los atareados médicos.
En los últimos dos años, los modelos de IA patentados, también conocidos como modelos de código cerrado, han destacado en la resolución de casos médicos difíciles de descifrar que requieren un razonamiento clínico complejo. En particular, estos modelos de IA de código cerrado han superado a los de código abierto, llamados así porque su código fuente está a disposición del público y cualquiera puede retocarlo y modificarlo.
¿Se ha puesto al día la IA de código abierto?
La respuesta parece ser afirmativa, al menos en lo que se refiere a un modelo de IA de código abierto, según las conclusiones de un nuevo estudio financiado por los NIH y dirigido por investigadores de la Facultad de Medicina de Harvard, realizado en colaboración con médicos del Beth Israel Deaconess Medical Center y el Brigham and Women's Hospital, afiliados a Harvard.
Los resultados, publicados el 14 de marzo en JAMA Health Forum, muestran que una herramienta de IA de código abierto llamada Llama 3.1 405B obtuvo resultados similares a los de GPT-4, un modelo propietario de código cerrado. En su análisis, los investigadores compararon el rendimiento de los dos modelos en 92 casos desconcertantes incluidos en la rúbrica semanal de escenarios clínicos difíciles de diagnosticar de The New England Journal of Medicine.
Los resultados sugieren que las herramientas de IA de código abierto son cada vez más competitivas y podrían ofrecer una valiosa alternativa a los modelos patentados.
«Hasta donde sabemos, es la primera vez que un modelo de IA de código abierto iguala el rendimiento de GPT-4 en casos tan difíciles evaluados por los médicos», afirma el autor principal Arjun Manrai, profesor adjunto de informática biomédica en el Instituto Blavatnik del HMS. «Es realmente asombroso que los modelos Llama hayan alcanzado tan rápidamente al modelo propietario líder. Los pacientes, los profesionales sanitarios y los hospitales salen ganando con esta competencia».
Ventajas e inconvenientes de los sistemas de IA de código abierto y de código cerrado
La IA de código abierto y la de código cerrado difieren en varios aspectos importantes. En primer lugar, los modelos de código abierto pueden descargarse y ejecutarse en los ordenadores privados de un hospital, con lo que los datos de los pacientes permanecen dentro de la institución. En cambio, los modelos de código cerrado funcionan en servidores externos, lo que obliga a los usuarios a transmitir datos privados al exterior.
«Es probable que el modelo de código abierto resulte más atractivo para muchos directores de información, administradores de hospitales y médicos, ya que hay algo fundamentalmente diferente en el hecho de que los datos salgan del hospital hacia otra entidad, aunque sea de confianza», afirma el autor principal del estudio, Thomas Buckley, estudiante de doctorado de la nueva asignatura de IA en Medicina del Departamento de Informática Biomédica del HMS.
En segundo lugar, los profesionales de la medicina y la informática pueden adaptar los modelos de código abierto a las necesidades clínicas y de investigación específicas, mientras que las herramientas de código cerrado suelen ser más difíciles de adaptar.
«Esto es clave», afirma Buckley. «Se pueden utilizar datos locales para ajustar estos modelos, ya sea de forma básica o sofisticada, de modo que se adapten a las necesidades de los propios médicos, investigadores y pacientes».
En tercer lugar, los desarrolladores de IA de código cerrado, como OpenAI y Google, alojan sus propios modelos y ofrecen la tradicional asistencia al cliente, mientras que los modelos de código abierto hacen recaer en los usuarios la responsabilidad de la configuración y el mantenimiento de los modelos. Y, al menos hasta ahora, los modelos de código cerrado han demostrado ser más fáciles de integrar con las historias clínicas electrónicas y la infraestructura informática de los hospitales.
IA de código abierto frente a IA de código cerrado: un cuadro de mando para resolver casos clínicos difíciles
Tanto los algoritmos de IA de código abierto como los de código cerrado se entrenan en inmensos conjuntos de datos que incluyen libros de texto médicos, investigaciones revisadas por expertos, herramientas de apoyo a la toma de decisiones clínicas y datos anónimos de pacientes, como estudios de casos, resultados de pruebas, exploraciones y diagnósticos confirmados. Al escudriñar estas montañas de material a gran velocidad, los algoritmos aprenden patrones. Por ejemplo, ¿qué aspecto tienen los tumores cancerosos y benignos en un portaobjetos de patología? ¿Cuáles son los primeros signos reveladores de una insuficiencia cardíaca? ¿Cómo se distingue entre un colon normal y uno inflamado en un TAC? Cuando se les presenta un nuevo escenario clínico, los modelos de IA comparan la información entrante con el contenido que han asimilado durante el entrenamiento y proponen posibles diagnósticos.
En su análisis, los investigadores probaron Llama en 70 casos clínicos desafiantes del NEJM utilizados previamente para evaluar el rendimiento de GPT-4 y descritos en un estudio anterior dirigido por Adam Rodman, profesor adjunto de medicina de HMS en Beth Israel Deaconess y coautor de la nueva investigación. En el nuevo estudio, los investigadores añadieron 22 nuevos casos publicados después del final del periodo de entrenamiento de Llama para evitar la posibilidad de que Llama se hubiera encontrado inadvertidamente con algunos de los 70 casos publicados durante su entrenamiento básico.
El modelo de código abierto mostró una auténtica profundidad: Llama realizó un diagnóstico correcto en el 70 por ciento de los casos, frente al 64 por ciento de GPT-4. Además, clasificó la opción correcta como la mejor opción de diagnóstico. Además, la primera sugerencia fue la correcta en el 41% de los casos, frente al 37% de GPT-4.
«Como médico, he visto que gran parte de la atención sobre los potentes modelos lingüísticos de gran tamaño se centra en modelos propietarios que no podemos ejecutar localmente», dijo Rodman. «Nuestro estudio sugiere que los modelos de código abierto podrían ser igual de potentes, dando a los médicos y sistemas de salud mucho más control sobre cómo se utilizan estas tecnologías.»
Cada año, unos 795.000 pacientes mueren o sufren discapacidad permanente en Estados Unidos debido a errores de diagnóstico, según un informe de 2023.
Más allá del daño inmediato a los pacientes, los errores y retrasos en el diagnóstico pueden suponer una grave carga financiera para el sistema sanitario. Los diagnósticos inexactos o tardíos pueden dar lugar a pruebas innecesarias, tratamientos inadecuados y, en algunos casos, complicaciones graves que se vuelven más difíciles -y más caras- de gestionar con el tiempo.
«Utilizadas con prudencia e incorporadas de forma responsable a la infraestructura sanitaria actual, las herramientas de IA podrían ser copilotos de incalculable valor para los atareados clínicos y servir como auxiliares de diagnóstico de confianza para mejorar tanto la precisión como la rapidez del diagnóstico», afirma Manrai. «Pero sigue siendo crucial que los médicos ayuden a impulsar estos esfuerzos para asegurarse de que la IA funcione para ellos».
Fuentes:
https://hms.harvard.edu/news/open-source-ai-matches-top-proprietary-llm-solving-tough-medical-cases
Entradas relacionadas:






1 comentarios :
Y como saben los médicos cuando la IA se equivoca.
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.