Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon "¿Es esto real, Grok?": te explicamos por qué es mejor no confiar en su respuesta


"Hola, @Grok, ¿es esto real?". Esta pregunta es cada vez más habitual entre los usuarios de X, acostumbrados a plantearle a la inteligencia artificial de esta red social dudas sobre cualquier cuestión o sobre la veracidad de una imagen o de un vídeo. ¿Son siempre acertadas las respuestas? En VerificaRTVE le hemos puesto a prueba y hemos hablado con expertos en inteligencia artificial para conocer los riesgos de confiar en Grok para contrastar información.




¿Por qué no debemos confiar en Grok para verificar?

"Puedes invocar a Grok en cualquier momento, así que muchos usuarios lo usan como elemento de verificación", explica Carlos Guadián, consultor especializado en comunicación digital, inteligencia artificial y análisis de datos. Como todos los modelos de lenguaje, siempre responde sobre cualquier tema y "hay gente que cree que tiene un uso válido, otros levantan la alarma porque puede ser un elemento de autoridad".

Este experto advierte del riesgo. Los modelos como Grok han evolucionado mucho y, a su juicio, algunos dan respuestas con el contenido referenciado y pueden tener utilidad dentro de un trabajo de verificación, "pero no son la verdad absoluta". Grok no razona, su "fuente principal de entrenamiento" es X, también Internet, lo que puede llevar a que las respuestas ante un mismo asunto no sean las mismas.

Nuria Oliver es experta en IA, doctora por el Instituto Tecnológico de Massachusetts (MIT), cofundadora y directora de la Fundación ELLIS Alicante sobre inteligencia artificial centrada en la humanidad. Su advertencia sobre Grok es la misma: "No hay garantía de veracidad". "Es importante entender que estos grandes modelos de lenguaje son probabilísticos, generan texto muy bien articulado, muy bien expresado, lo que hace que bajemos la guardia sobre si deberíamos fiarnos. Sin embargo, no son buscadores de información, son generadores de contenido en base a patrones estadísticos, de secuencias de palabras. Por eso es absolutamente necesario confirmar prácticamente cualquier cosa que digan", defiende.

Por esta razón, Grok puede ser más interesante, a juicio de esta experta, como herramienta creativa, para asociar ideas, para conectar conceptos diferentes. "Pero no tanto para escribir ensayos que se correspondan con la realidad o para contestarnos a preguntas del mundo físico, porque no hay una garantía. Al final, tardas más tiempo porque tienes que verificarlo todo", agrega.

Dos errores de Grok: de Tel Aviv a un vídeo del fondo del océano

Un usuario difunde una fotografía en X de una ciudad de noche sobre la que cae una lluvia de proyectiles y la presenta como Tel Aviv, en pleno enfrentamiento entre Israel e Irán. Son las 8:57 del 17 de junio. Cuatro horas después, un usuario pregunta en inglés a Grok: "¿Es IA?". Y Grok se inclina por que la imagen es auténtica.

Un día después, el 18 de junio sobre las 8:40 horas, otro usuario formula dos consultas más precisas sobre la misma imagen: "Analiza el número de misiles, las pruebas y los ángulos y determina si es IA o real", plantea. Y la respuesta de Grok cambia: asegura que "podría ser una foto de archivo o generada por IA". Y añade: "Confíe en fuentes de noticias verificadas para obtener imágenes precisas".


Otro ejemplo. Este tuit difunde un vídeo de un tiburón y asegura que se trata del rescate de un escualo atrapado por la basura del océano. Un análisis del vídeo lleva a sospechar que no es real, ya que los buzos utilizan una sierra eléctrica o una manguera de agua a presión, mientras el tiburón no se inmuta. Pero cuando le preguntan a Grok, responde que "el vídeo parece ser real", aunque con cierto sentido del humor admite "que es bastante inusual ver a un tiburón tan tranquilo mientras lo 'acicalan'". Se trata de un vídeo difundido en Facebook días antes por Comedy and Fun, un perfil que comparte vídeos de comedia, "virales" o escenas de acción.

Grok: el 'antiwoke' que hace bromas sobre su creador, Elon Musk

Elon Musk, dueño de X, presentó Grok como un instrumento para mantener la libertad de expresión en esta red social, un modelo de IA que no era "woke" (nombre despectivo que desde posiciones conservadoras se da a ideologías progresistas). La especialista en IA Nuria Oliver explica que lo que distingue a Grok es que ha sido diseñado con menos filtros, con menos cortapisas que otros modelos de lenguaje.

"No se tiene garantía de lo que va a contestar y uno de los comportamientos sorprendentes de Grok es que responde de manera más razonable de lo que cabría esperar, o incluso criticando a Elon Musk", asegura. El aspecto negativo es que, al tener menos filtros, es más fácil utilizarlo para generar contenido negativo para la sociedad, "que otros modelos de lenguaje no responderían", asegura.

Carlos Guadián apunta también al lado irreverente que ofrece Grok, las respuestas "a modo de 'zasca'" que da incluso a su creador. "Grok tiene esa pequeña dosis de irreverencia en determinadas ocasiones porque su fuente principal de entrenamiento es X, que en ocasiones es un poco lodazal. Si te entrenas con esos contenidos, es lógico que tengas un toque irreverente", subraya.

Los efectos cognitivos de Grok y su necesidad de datos

¿Cuál es el fin último de estos modelos de lenguaje? Nuria Oliver responde que necesitan "datos humanos". En un contexto en el que ya se usan todos los que hay, dice esta experta, necesitan obtener nuevos datos y Grok se alimenta de los contenidos de X: "Cuantos más datos tienen para entrenar uno de estos modelos, más grande puedes hacer el modelo. Cuanto más grande es el modelo, mejor funciona".

La experta añade otras consecuencias que ve más preocupantes y sobre las que trabaja su equipo de investigación. Por un lado, el impacto cognitivo. "Cuando delegamos tareas cognitivas en estos modelos de lenguaje y, por tanto, dejamos de hacerlas nosotros como humanos, perdemos esas habilidades. Esto tiene terribles consecuencias a futuro para nuestra propia salud mental y nuestra cognición". El otro gran riesgo es la adicción a los robots de conversación (chatbots).

Así que más allá de la falta de garantías de veracidad de Grok, más allá de que puedan generar contenido dañino para la sociedad, Nuria Oliver pide una reflexión sobre su impacto en el ser humano. "Si no utilizamos nuestro cerebro con la capacidad tan inmensa que tiene para hacer tareas cognitivas, es preocupante", concluye.

La apuesta por la IA para conseguir "usuarios cautivos"

Carlos Guadián sostiene que estos modelos de lenguaje persiguen mantenernos conectados el máximo tiempo posible, "equiparar el uso al de las plataformas de 'streaming'". Es la estrategia, asegura, de Microsoft con Copilot, de Google con Gemini, de X con Grok.

"Quieren un usuario cautivo, mantener cuanto más tiempo mejor haciendo peticiones dentro de la plataforma. El que se lleve el gato al agua, el que acabe teniendo una IA de cabecera, la que se usa para todo, va a ser el que va a dominar el panorama", concluye.


Fuentes:

https://www.rtve.es/noticias/20250626/esto-real-grok-explicamos-por-mejor-no-confiar-su-respuesta/16634471.shtml


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.