Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Google ya sufre las consecuencias de la IA: ha tenido que retirar resúmenes por ser potencialmente peligrosos, según un estudio


Google retira resúmenes generados por IA tras un estudio que los señala como potencialmente peligrosos, sin ofrecer detalles sobre los errores detectados.




Aunque la compañía no ha querido entrar en detalles del asunto, parece que algunas de sus respuestas con inteligencia artificial no eran lo que se dice acertadas.

Nadie duda que Google quiere liderar la revolución a todos los niveles que la inteligencia artificial está protagonizando. De hecho, su IA Gemini ya está mirando de tú a tú a quien hasta ahora venía siendo la principal referencia: ChatGPT. Pero eso no quita para que esta tecnología todavía le dé algún que otro dolor de cabeza al gigante tecnológico.

Eso es lo que señala un nuevo estudio, que vendría a poner de manifiesto algunas de las imprecisiones que la inteligencia artificial habría estado mostrando allí donde tiene más presencia: en las búsquedas de Google. Al parecer, algunos resúmenes han tenido que ser retirados porque resultaban "potencialmente peligrosos" para los usuarios.

Google y la IA: con la salud no se juega

¿Quién no ha escuchado hablar a estas alturas de las alucinaciones de la IA? Está claro que esta tecnología no resulta todavía fiable al cien por cien en muchas de sus respuestas, que conviene a veces coger con pinzas. Y eso también incluye a Google. Tanto parece ser así, que de alguna forma la compañía tendría que haberse censurado a ella misma, por así decirlo.

Por supuesto, no es la primera vez que la decisión de Google de meter IA en sus búsquedas, con resúmenes que se posicionan antes que cualquier medio online, genera polémica. Solo que hasta ahora las críticas giraban principalmente en torno a lo mucho que esta novedad reducía la calidad de Internet (además de perjudicar la variedad que garantiza la diferencia de portales).

Ahora, en cambio, el problema parece ser otro. Como señala el diario The Guardian, se han detectado respuestas peligrosas en lo que suele conocerse como los AI Overviews de Google (que no dejan de ser los resúmenes generado con IA). ¿Y por qué peligrosas? Pues principalmente porque se trataba de asuntos delicados relacionados con la salud, física y mental.

Tal y como señala el estudio, la IA de Google estaba generando información médica errónea que, si se interpretaba como fiable, podía poner el riesgo la salud de cualquiera, en especial de aquellas personas que estuviesen enfermas y sufrieran de patologías concretas. Los médicos, de hecho, llevan tiempo advirtiendo que es mejor no creerse mucho a la IA en estas cuestiones.

La respuesta de Google: no hay respuesta

Después de la investigación, Google tomó la determinación de retirar algunos de esos AI Overviews de búsquedas concretas (por ejemplo, la publicación habla de cuestiones relacionadas con la salud mental o pruebas hepáticas). Sin embargo, la empresa habló vagamente de "mejoras" y dijo que no comentaría nada sobre eliminaciones en particular.

Lo cierto es que desde que Google decidió incluir estos resúmenes con IA en sus búsquedas no ha dejado de recibir reproches de todo tipo. No obstante, la compañía se ha mantenido firme asegurando que es algo positivo para los usuarios. Según ellos, claro.



Fuentes:
https://computerhoy.20minutos.es/tecnologia/google-ya-sufre-las-consecuencias-ia-ha-tenido-que-retirar-resumenes-por-ser-potencialmente-peligrosos-segun-un-estudio_6921401_0.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.