Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
926
)
-
▼
mayo
(Total:
219
)
-
DeepSeek vuelve a actualizar R1: su IA rinde como ...
-
Perplexity Labs es una herramienta de IA que puede...
-
Noctua y sus avances en su sistema de refrigeració...
-
Valyrio, el youtuber detenido junto al ex número d...
-
Sistema operativo open source prplOS para routers ...
-
Alcasec detenido por octava vez en la operación Bo...
-
Grok, la IA de Elon Musk, se integra en Telegram
-
Alguien estaba tan cansado de la lentitud de Windo...
-
Así nació la telefonía en España: la historia de c...
-
Claude 4 añade a su inteligencia artificial los me...
-
Bitwarden expone a sus usuarios a JavaScript malic...
-
Microsoft implementa criptografía postcuántica en ...
-
Google dice que el cifrado RSA de 2.048 bits es un...
-
Opera Neon, el primer servicio de IA que es capaz ...
-
Detectar malware mediante inteligencia artificial
-
WhatsApp llega finalmente al iPad tras 15 años de ...
-
Vulnerabilidad Zero-Day en SMB del kernel de Linux...
-
Intel pilla a una empleada que había estafado casi...
-
Módulos SFP y QSFP: Tipos, Usos y Comparativas
-
Detenido el ex secretario de Estado de Interior de...
-
Robados los datos de 5,1 millones de clientes de A...
-
China lanza al espacio un enjambre de supercomputa...
-
Telefónica apaga sus últimas centralitas de cobre ...
-
Suecia castigará con cárcel a quienes paguen por c...
-
Robots humanoides peleando en un ring: China celeb...
-
Cómo optimizar y personalizar Windows con RyTuneX
-
SteamOS estrena soporte para máquinas de terceros
-
Apple prepara cambios importantes para el iPhone
-
La CIA usó una increíble web de Star Wars para esp...
-
SteamOS saca las vergüenzas a Windows en consolas ...
-
URLCheck analiza los enlaces en Android
-
Donald Trump amenaza con imponer más aranceles al ...
-
NotebookLM: qué es, cómo funciona y cómo usar la I...
-
Careto, un grupo de hackers cuyos ataques "son una...
-
Claude Opus 4, la nueva IA de Anthropic, fue capaz...
-
Signal se blinda contra Microsoft Recall con una f...
-
El Deportivo de la Coruña sufre un ciberataque que...
-
Xiaomi presenta Xring O1, su primer chip de gama a...
-
El escándalo por el hackeo al Ejército Argentino s...
-
Expertos aseguran que el WiFi mundial empeorará en...
-
OpenAI compra io, la misteriosa empresa de intelig...
-
¿Para qué sirven los dos agujeros cuadrados del co...
-
Anthropic presenta Claude 4 Sonnet y Opus
-
Filtradas 184 millones de contraseñas de Apple, Gm...
-
ChatGPT desespera a los programadores: 5 años estu...
-
BadSuccessor: escalada de privilegios abusando de ...
-
Ciudad Real, cuna de los mejores hackers éticos
-
Veo 3 es la nueva IA generativa de vídeo de Google
-
Declaran culpable al joven de 19 años por la mayor...
-
GitHub Copilot no solo escribe código: ahora escri...
-
Usuario lleva 8 años suministrando energía a su ca...
-
Google lanza AI Ultra: su suscripción de 250$ al m...
-
Cómo configurar llamadas Wi-Fi en iOS y Android
-
Google Meet puede traducir entre idiomas en tiempo...
-
AMD presenta FSR Redstone, una evolución que añade...
-
Análisis de amenazas más relevantes observadas dur...
-
Desarticulado el malware Lumma responsable de infe...
-
Google Video Overviews convierte tus documentos en...
-
Filtran 500 mil contraseñas de mexicanos y exponen...
-
Jean E. Sammet: la pionera del lenguaje de program...
-
El nuevo buscador de Google con IA para responder ...
-
Google presenta Android XR: su sistema con IA para...
-
Google SynthID Detector, una herramienta que ident...
-
Google permite probarte cualquier ropa de internet...
-
Meta paga 50 euros la hora a cambio de realizar es...
-
Intel presenta sus tarjetas gráficas Arc Pro B50 y...
-
En España los trabajadores del SEPE se desesperan ...
-
Microsoft lanza una nueva app de Copilot para crea...
-
Windows será controlado por agentes de IA
-
Ejecución sin archivos: cargadores HTA y PowerShel...
-
Versiones troyanizadas de KeePass
-
Mystical: un «lenguaje de programación» donde el c...
-
Llegan los robotaxis a Europa
-
AWS lanza una herramienta de IA para que los fans ...
-
Microsoft quiere una red agéntica abierta donde lo...
-
Microsoft hace el Subsistema de Windows para Linux...
-
El Proyecto zVault es un nuevo sistema Operativo c...
-
La UE presenta Open Web Search
-
CynGo, el Duolingo para aprender ciberseguridad de...
-
Cómo unos asaltadores de casinos han provocado el ...
-
Cómo fusionar particiones de disco en Windows
-
Fortnite para iOS deja de estar disponible en la U...
-
Mejores Bots de Telegram
-
La increíble historia del virus Stuxnet
-
Le pide a ChatGPT que le lea la mano y la IA detec...
-
Consejos del FBI para detectar el Phishing y Deep ...
-
Adiós al SEO, su sustituto se llama AEO: manipular...
-
Profesores universitarios recurren a ChatGPT para ...
-
La IA ha conseguido que Stack Overflow, el Santo G...
-
Tor Oniux, una herramienta que aísla aplicaciones ...
-
RootedCON lleva al Tribunal Constitucional los blo...
-
Hackeo a Coinbase: los atacantes se cuelan en las ...
-
El CEO de Cloudflare advierte que la IA y el inter...
-
Los nuevos grandes modelos de IA generativa se ret...
-
El Museo de Historia de la Computación, paraíso de...
-
Científicos españoles recrean corazones de gatos e...
-
Probar distros Linux en el navegador sin instalar ...
-
Trump le reclama a Tim Cook que deje de fabricar e...
-
YouTube usará Gemini para insertar anuncios imposi...
-
Nothing confirma su primer móvil de gama alta: cos...
-
-
▼
mayo
(Total:
219
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Tanto Windows 10 como Windows 11 nos permiten utilizar diferentes comandos a través de la consola que nos ayudan a realizar diferentes tar...
-
Alemania, al igual que millones de usuarios en todo el mundo, decidió abandonar Microsoft . Un estado del país europeo confirmó que inició ...
-
ChatGPT, ese símbolo del avance tecnológico con voz sedosa y respuestas a medida, ha sido aplastado por una consola Atari 2600 de 1977 corri...
La IA es cada vez más potente, pero sus alucinaciones son cada vez peores
El mes pasado, un bot de inteligencia artificial que se ocupa del soporte técnico de Cursor, una prometedora herramienta para programadores informáticos, alertó a varios clientes sobre un cambio en la política de la empresa. Afirmaba que ya no se les permitía utilizar Cursor en más de una computadora.
- Una nueva ola de sistemas con “razonamiento” de empresas como OpenAl produce información incorrecta con más frecuencia. Ni sus creadores no saben por qué.
En foros de internet, los clientes expresaron su molestia. Algunos cancelaron sus cuentas de Cursor. Y otros se enfadaron aún más cuando se dieron cuenta de lo que había ocurrido: el bot de IA había anunciado un cambio de política que no existía.
“No tenemos esa política. Por supuesto que pueden usar Cursor en varias máquinas”, escribió el director general y cofundador de la empresa, Michael Truell, en una publicación de Reddit. “Por desgracia, esta es una respuesta incorrecta de un bot de soporte de IA de primera línea”.
Más de dos años después de la llegada de ChatGPT, las empresas tecnológicas, los trabajadores de oficina y los consumidores en general utilizan bots de IA para una gama cada vez más amplia de tareas. Pero todavía no hay manera de garantizar que estos sistemas produzcan información precisa.
Las tecnologías más nuevas y potentes ─los llamados sistemas de razonamiento de empresas como OpenAI, Google y la empresa emergente china DeepSeek─ están generando más errores, no menos. Mientras que sus habilidades matemáticas han mejorado de manera considerable, su manejo de los hechos se ha vuelto más inestable. No está del todo claro por qué.
Los bots de IA actuales se basan en complejos sistemas matemáticos que aprenden sus habilidades analizando enormes cantidades de datos digitales. No deciden, ni son capaces de decidir, qué es verdad o qué es mentira. A veces inventan, un fenómeno que algunos investigadores de IA denominan alucinaciones. En una prueba, los índices de alucinación de los sistemas de IA más recientes alcanzaron el 79 por ciento.
Estos sistemas utilizan probabilidades matemáticas para adivinar cuál es la mejor respuesta, y no se valen de un conjunto estricto de reglas definidas por ingenieros humanos. Por eso cometen un cierto número de errores. “A pesar de nuestros mejores esfuerzos, siempre van a alucinar”, dijo Amr Awadallah, quien fue ejecutivo de Google y ahora es director general de Vectara, una empresa emergente que crea herramientas de IA para empresas. “Eso nunca va a desaparecer”
Durante varios años, el fenómeno ha suscitado preocupación sobre la confiabilidad de estos sistemas. Aunque son útiles en algunas situaciones, como escribir trabajos de fin de curso, resumir documentos de oficina y generar código informático, sus errores pueden causar problemas.
Los bots de inteligencia artificial vinculados a motores de búsqueda como Google y Bing a veces generan resultados de búsqueda cuyos resultados son tan erróneos que dan risa. Si les preguntas por un buen maratón en la costa oeste, podrían sugerirte una carrera en Filadelfia, que está en la costa opuesta. Si te dicen el número de hogares de Illinois, puede que citen una fuente que no incluye esa información.
Puede que esas alucinaciones no sean un gran problema para mucha gente, pero sí lo son para quien utilice la tecnología con documentos judiciales, información médica o datos empresariales confidenciales.
“Pasas mucho tiempo tratando de averiguar cuáles respuestas se basan en hechos y cuáles no”, explicó Pratik Verma, cofundador y director general de Okahu, una empresa que ayuda a las empresas a sortear el problema de las alucinaciones. “No gestionar estos errores adecuadamente en esencia elimina el valor de los sistemas de IA, que se supone que automatizan tareas para ti”.
Cursor y Truell no respondieron a las solicitudes de comentarios.
Durante más de dos años, empresas como OpenAI y Google mejoraron constantemente sus sistemas de IA y redujeron la frecuencia de estos errores. Pero con el uso de nuevos sistemas de razonamiento, los errores están aumentando. Según sus propias pruebas, la versión más reciente de los sistemas de OpenAI alucina en mayor proporción que el sistema anterior de la empresa.
La empresa descubrió que o3, su sistema más potente, alucinaba el 33 por ciento de las veces al ejecutar su prueba de referencia PersonQA, que consiste en responder a preguntas sobre personajes públicos. Esto supone más del doble de alucinaciones que el anterior sistema de razonamiento de OpenAI, llamado o1. El nuevo o4-mini alucinó en un porcentaje aún mayor: 48 por ciento.
Al ejecutar otra prueba llamada SimpleQA, que hace preguntas más generales, los índices de alucinación de o3 y o4-mini fueron del 51 y el 79 por ciento. El sistema anterior, o1, alucinaba el 44 por ciento de las veces.
En un documento en el que se detallan las pruebas, OpenAI afirma que se necesitan más investigaciones para comprender la causa de estos resultados. Dado que los sistemas de IA aprenden a partir de más datos de los que la gente puede comprender, los tecnólogos se esfuerzan por determinar por qué se comportan de esa forma.
“Las alucinaciones no son intrínsecamente más frecuentes en los modelos de razonamiento, aunque estamos trabajando activamente a fin de reducir los mayores índices de alucinación que observamos en o3 y o4-mini”, dijo una portavoz de la empresa, Gaby Raila. “Seguiremos investigando las alucinaciones en todos los modelos para mejorar la precisión y la fiabilidad”.
Las pruebas realizadas por empresas e investigadores independientes indican que los índices de alucinación también están aumentando en los modelos de razonamiento de empresas como Google y DeepSeek.
Desde finales de 2023, la empresa de Awadallah, Vectara, ha dado seguimiento de la frecuencia con que los chatbots se desvían de la verdad. La empresa pide a estos sistemas que realicen una tarea sencilla y fácilmente verificable: resumir determinados artículos de noticias. Incluso así, los chatbots inventan información de forma persistente.
La investigación original de Vectara estimó que, en esta situación, los chatbots inventaban información al menos un 3 por ciento del tiempo y, a veces, hasta un 27 por ciento.
En el año y medio transcurrido desde entonces, empresas como OpenAI y Google redujeron esas cifras al 1 o 2 por ciento. Otras, como la empresa emergente de San Francisco Anthropic, se acercaron al 4 por ciento. Pero esos porcentajes de alucinación en esta prueba han aumentado con los sistemas de razonamiento. El sistema de razonamiento de DeepSeek, R1, alucinó el 14,3 por ciento de las veces. El o3 de OpenAI subió al 6,8 por ciento.
(The New York Times demandó a OpenAI y a su socio, Microsoft, por infringir los derechos de autor en relación con el contenido de noticias relacionadas con sistemas de IA. OpenAI y Microsoft niegan esas acusaciones).
Durante años, empresas como OpenAI se basaron en un concepto sencillo: cuantos más datos de internet introdujeran en sus sistemas de IA, mejor funcionarían. Pero solo utilizaron todo el texto en inglés de internet, lo que significaba que necesitaban una nueva forma de mejorar sus chatbots.
Así que estas empresas dependen más de una técnica que los científicos llaman aprendizaje por refuerzo. Con este proceso, un sistema puede aprender comportamientos mediante ensayo y error. Funciona bien en determinadas áreas, como las matemáticas y la programación informática. Pero se está quedando corto en otras áreas.
“Por la forma en cómo se entrenan estos sistemas, empezarán a centrarse en una tarea y a olvidarse de las demás”, señaló Laura Pérez-Beltrachini, investigadora de la Universidad de Edimburgo que forma parte de un equipo que examina de cerca el problema de las alucinaciones.
Otra cuestión es que los modelos de razonamiento están diseñados para pasar tiempo “pensando” en problemas complejos antes de decidirse por una respuesta. Al intentar abordar un problema paso a paso, corren el riesgo de alucinar en cada paso. Los errores pueden agravarse a medida que pasan más tiempo pensando.
Los últimos bots dan a conocer cada paso a los usuarios, lo que significa que las personas también pueden ver cada error. Los investigadores también han descubierto que, en muchos casos, los pasos que muestra un bot no están relacionados con la respuesta que finalmente ofrece.
“Lo que el sistema dice que está pensando no es necesariamente lo que está pensando”, dijo Aryo Pradipta Gema, investigador en IA de la Universidad de Edimburgo y miembro de Anthropic.
Fuentes:
https://www.nytimes.com/es/2025/05/08/espanol/negocios/ia-errores-alucionaciones-chatbot.html
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.