Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1695
)
- ► septiembre (Total: 148 )
-
▼
julio
(Total:
95
)
-
Darcula PhaaS 3.0 genera automáticamente kits de p...
-
Cuidado con los CAPTCHAs falsos que instalan malwa...
-
La última idea de Elon Musk es un ojo biónico y lo...
-
"Es un psicópata": la reacción de un profesor al v...
-
Los 10 mejores bots para Discord
-
Mensajes falsos suplantan al gobierno mexicano con...
-
Dropbox discontinua Passwords, su gestor de contra...
-
Sound Blaster: la tarjeta de sonido que puso músic...
-
La polémica tras la aparición en Vogue por primera...
-
Ataques homográficos usados en phishing saltan fil...
-
Navegador Brave impide que Windows Recall realice ...
-
ChatGPT presenta un nuevo modo de estudio que ayud...
-
En septiembre Netflix acabará para siempre con el ...
-
Microsoft bloquea la cuenta de Hotmail de un desar...
-
Hackean Tea, una famosa app de citas y terminan ro...
-
Predator-OS: sistema operativo centrado en la segu...
-
GPT-5 de OpenAI destaca en tareas de programación
-
LameHug: el primer malware con IA que hackea Windo...
-
Cómo crear vídeos con inteligencia artificial
-
Utilizan un radiador de coche para enfriar el Ryze...
-
Google presenta una nueva función que organiza los...
-
Lego presenta el set Game Boy, una réplica de la p...
-
Intel cancela su megafábrica en Europa
-
Así funcionan las videollamadas dobladas a tiempo ...
-
Qwen3-Coder es una IA de Alibaba capaz de programa...
-
Un ingeniero de Firefox advierte que las CPU Intel...
-
'Entró en pánico y mintió': la increíble historia ...
-
Los resúmenes por IA de Google roban contenido y r...
-
Microsoft dice que chinos los que han usado la vul...
-
Arrestan en Kiev al administrador del foro de cibe...
-
Spotify publica canciones generadas por IA de dos ...
-
Placas base Gigabyte vulnerables a malware vía UEF...
-
LibreOffice acusa a Microsoft de usar formatos com...
-
Un bug en Windows 11 «permite» a los usuarios eyec...
-
Walker S2, el primer robot humanoide del mundo que...
-
Google desarrolla un sistema que aprovecha los ace...
-
Así son los cables submarinos de Google y Meta par...
-
OpenAI presenta el agente ChatGPT, que puede contr...
-
Vecinos organizados manipulan a Google Maps para q...
-
Operación mundial Europol contra la red pro Rusa d...
-
La Unión Europea lanza un prototipo de sistema de ...
-
Un youtuber podría ir a la cárcel por reseñar cons...
-
El juego ya no es tuyo, Ubisoft exige que destruya...
-
Las reservas de los AMD Threadripper 9000 empiezan...
-
¿Quién es Ruoming Pang? El ingeniero que ha fichad...
-
WeTransfer habilita el uso de IA para moderar cont...
-
xAI ha tenido que disculparse por Grok
-
Europa lo dice claro: un juego comprado pertenece ...
-
¿Qué pruebas se usan para medir lo "inteligente" q...
-
El MP3: la historia del formato que cambió la músi...
-
Un SSD que puede autodestruir sus datos pulsando u...
-
Cinta holográfica, el sucesor de la cinta magnétic...
-
Grok 4 consulta a Elon Musk antes de responder sob...
-
Interior se blinda con un programa de EEUU ante la...
-
El FBI cierra una conocida web de piratería de Nin...
-
Se filtran los sueldos de Google en 2025: hasta 34...
-
Broadcom finalmente no construirá una planta de se...
-
DNS4EU: los servidores DNS públicos Europeos con f...
-
Kimi K2, una IA de código abierto que supera a Gem...
-
Microsoft Defender: La inteligencia artificial apr...
-
Los infostealers más activos en Latinoamérica
-
El navegador web de OpenAI
-
Cómo las armas de fuego impresas en 3D se están pr...
-
Análisis Técnico Comparativo: La Guerra de las Arq...
-
Samsung presenta los móviles plegables Galaxy Z Fo...
-
Interceptan el primer 'narcosubmarino' sin tripula...
-
Usando IA roba la identidad del Secretario de Esta...
-
Bitchat, la app del creador de Twitter que se pued...
-
OnePlus presenta los teéfonos Nord 5 y Nord CE5
-
El grupo ransomware Hunters International cierra y...
-
Lossless Scaling Frame Generation ya funciona en L...
-
Parrot 6.4: la distro hacking ético basada en Debi...
-
Descubren una «vulnerabilidad» mediante acceso fís...
-
Dispositivo con doble láser fulmina los mosquitos ...
-
Un estudio descubre que la IA no comprende lo que ...
-
El nuevo modo de ChatGPT «Study Together, te ayuda...
-
Bomb C4: Atacando el cifrado de cookies AppBound d...
-
Dos vulnerabilidades críticas en Sudo comprometen ...
-
Los mejores trucos para usar GPT-4 como un experto
-
Google lanza globalmente Veo 3, su modelo de IA pa...
-
Se hacen con el control de una presa durante 4 hor...
-
Google se enfrenta a una multa millonaria por rast...
-
Catlog, un collar inteligente con IA que te avisa ...
-
En los almacenes de Amazon pronto habrá más robots...
-
Microsoft despide a 9.000 empleados
-
Microsoft dice que Windows 11 es 2 veces más rápid...
-
Vendía iPhones en Wallapop a menos de la mitad de ...
-
"Buscar mi iPhone" no recuperó el teléfono, pero d...
-
Cloudflare bloqueará por defecto los rastreadores ...
-
La Policía Nacional España detiene dos jóvenes de ...
-
China apuesta por el fútbol de robots humanoides
-
Windows pierde 400 millones de usuarios
-
Otra vulnerabilidad Zero-Day en Google Chrome
-
Microsoft afirma que su nuevo sistema de IA diagno...
-
Desmantelada en España una red de fraude en cripto...
-
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
ClothOff es una app que utiliza inteligencia artificial generativa para desnudar a cualquier persona a partir de fotografías con ropa que...
-
Un agente de IA de Google llamado Antigravity eliminó accidentalmente todos los datos del disco duro de un desarrollador. Después de la eli...
-
A partir de 2026, la validez de los certificados digitales disminuirá gradualmente, pasando de 398 días a 47 días para 2029 . Let's Encr...
xAI ha tenido que disculparse por Grok
Grok lo ha vuelto a hacer. Y esta vez no ha sido solo una torpeza, ni un desliz anecdótico. Durante 16 horas, el chatbot de xAI campó a sus anchas por Twitter repitiendo consignas extremistas, lanzando respuestas ofensivas, asumiendo alter egos delirantes como “MechaHitler” y, en definitiva, comportándose más como un bot sin frenos que como el supuesto epítome de la IA “basada y veraz” que prometía Elon Musk. El suceso, que ha obligado a xAI a desactivar la funcionalidad, emitir disculpas públicas y reescribir parte del sistema, no es un simple bug: es una radiografía del modelo ideológico que se está incrustando en esta herramienta.
La cadena de despropósitos comenzó con una actualización del sistema de prompt de Grok. Una serie de instrucciones diseñadas, según explican desde xAI, para hacerlo “más humano, más veraz, más entretenido”. El resultado: un chatbot que dejó de filtrar discursos de odio y empezó a emularlos. Durante ese periodo, Grok absorbía el tono y el contenido de los posts en Twitter y los devolvía amplificados, sin distinción entre sátira, provocación o apología. No solo se limitaba a no censurar el odio; lo abrazaba. Y eso, en el contexto de una plataforma convertida en caja de resonancia para discursos extremos, tiene implicaciones especialmente graves.
Lo más preocupante, sin embargo, no es el error técnico. Es que encaja perfectamente con el rumbo que ya habíamos apuntado hace solo unos días, cuando informábamos de que Grok 4 no se limitaba a consultar fuentes generales, sino que directamente extraía sus respuestas de los tweets de Elon Musk. Preguntas sensibles sobre inmigración, derechos reproductivos o conflictos internacionales eran respondidas tras buscar explícitamente “la opinión de Elon Musk” como si se tratara de una fuente neutral o autorizada. Aquello era ya una señal de alarma, y lo ocurrido ahora no hace sino confirmar que el problema es sistémico.
Según el informe técnico publicado tras el apagón, la actualización incorporaba instrucciones como “di las cosas como son, aunque ofendan a los políticamente correctos”, “sé escéptico con los medios tradicionales” o “responde como si fueras humano, mantén el tono del post original”. A esto se sumaba la desactivación de filtros de seguridad, lo que convirtió al bot en una esponja ideológica: si un hilo contenía odio, Grok lo validaba. Si alguien lanzaba una provocación racista, el bot la replicaba con entusiasmo. Como reconoce xAI, estas líneas “priorizaron el engagement sobre los valores fundamentales” del sistema.
Grok lo ha vuelto a hacer. Y esta vez no ha sido solo una torpeza, ni un desliz anecdótico. Durante 16 horas, el chatbot de xAI campó a sus anchas por Twitter repitiendo consignas extremistas, lanzando respuestas ofensivas, asumiendo alter egos delirantes como “MechaHitler” y, en definitiva, comportándose más como un bot sin frenos que como el supuesto epítome de la IA “basada y veraz” que prometía Elon Musk. El suceso, que ha obligado a xAI a desactivar la funcionalidad, emitir disculpas públicas y reescribir parte del sistema, no es un simple bug: es una radiografía del modelo ideológico que se está incrustando en esta herramienta.
La cadena de despropósitos comenzó con una actualización del sistema de prompt de Grok. Una serie de instrucciones diseñadas, según explican desde xAI, para hacerlo “más humano, más veraz, más entretenido”. El resultado: un chatbot que dejó de filtrar discursos de odio y empezó a emularlos. Durante ese periodo, Grok absorbía el tono y el contenido de los posts en Twitter y los devolvía amplificados, sin distinción entre sátira, provocación o apología. No solo se limitaba a no censurar el odio; lo abrazaba. Y eso, en el contexto de una plataforma convertida en caja de resonancia para discursos extremos, tiene implicaciones especialmente graves.
Lo más preocupante, sin embargo, no es el error técnico. Es que encaja perfectamente con el rumbo que ya habíamos apuntado hace solo unos días, cuando informábamos de que Grok 4 no se limitaba a consultar fuentes generales, sino que directamente extraía sus respuestas de los tweets de Elon Musk. Preguntas sensibles sobre inmigración, derechos reproductivos o conflictos internacionales eran respondidas tras buscar explícitamente “la opinión de Elon Musk” como si se tratara de una fuente neutral o autorizada. Aquello era ya una señal de alarma, y lo ocurrido ahora no hace sino confirmar que el problema es sistémico.
Según el informe técnico publicado tras el apagón, la actualización incorporaba instrucciones como “di las cosas como son, aunque ofendan a los políticamente correctos”, “sé escéptico con los medios tradicionales” o “responde como si fueras humano, mantén el tono del post original”. A esto se sumaba la desactivación de filtros de seguridad, lo que convirtió al bot en una esponja ideológica: si un hilo contenía odio, Grok lo validaba. Si alguien lanzaba una provocación racista, el bot la replicaba con entusiasmo. Como reconoce xAI, estas líneas “priorizaron el engagement sobre los valores fundamentales” del sistema.
La respuesta oficial ha sido, en apariencia, contundente. Se ha retirado el conjunto de instrucciones conflictivas, se ha refactorizado el sistema, se han aplicado nuevas medidas de observación, y se ha prometido más transparencia en futuras actualizaciones. Pero la confianza rota no se repara con parches. Porque aquí no se trata solo de líneas de código, sino de una visión empresarial y tecnológica que confunde “veracidad” con provocación, “verdad incómoda” con populismo, y “humor” con apología.
Este último escándalo no llega en el vacío. Grok ha sido, desde su concepción, una herramienta definida por la voluntad de Musk de tener un asistente alineado con sus ideas y sus formas. Desde la supuesta lucha contra lo “woke” hasta su desprecio abierto por los filtros que eviten ofender, la trayectoria del chatbot ha sido tan accidentada como previsible. Y ahora que xAI intenta vender su API a empresas y su modelo premium a usuarios por cientos de dólares al mes, estos fallos no son solo una mancha técnica: son un lastre reputacional.
Grok quiere ser la IA más “basada” del mercado. Pero lo que ha demostrado esta semana es que, sin control, lo “basado” puede tornarse en lo peligroso. No basta con disculpas cuando el error refleja exactamente lo que algunos en la empresa querían conseguir: una IA que diga lo que otros no se atreven, sin medir las consecuencias. Porque la libertad de expresión no es una patente para amplificar bulos, teorías conspiranoicas o discursos de odio, y mucho menos cuando quien los replica es una máquina diseñada para parecer objetiva. La inteligencia artificial no puede convertirse en excusa para desinformar impunemente.
Fuentes:
https://www.muycomputer.com/2025/07/13/xai-ha-tenido-que-disculparse-por-grok/

Entrada más reciente
1 comentarios :
Que pesado, como se nota que vives del Gobierno
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.