Tutoriales y Manuales
Entradas Mensuales
-
▼
2025
(Total:
1694
)
-
▼
octubre
(Total:
198
)
-
Ccrear personajes de tu mascota o cualquier objeto...
-
YouTube usará la IA para remasterizar tus videos a...
-
OpenAI lanza modelos abiertos de seguridad “gpt‑os...
-
El navegador ChatGPT Atlas puede ser engañado medi...
-
GlassWorm: un gusano se propaga a través de extens...
-
Un detenido en Italia por generar con IA más de 90...
-
Las copias de seguridad de WhatsApp añaden las pas...
-
La IA no sería capaz de crear GTA VI
-
NEO, el robot doméstico con IA ya está disponible ...
-
Los motivos de la subida abrupta del precio de la ...
-
Samsung quiere evitar una subida en el precio de l...
-
Windows 11 escaneará la memoria de forma proactiva...
-
Google Chrome para Android se actualiza a lo grand...
-
Load Balancing (Balanceo de carga) y failover con ...
-
Disponible distro Linux: Fedora 43: novedades y de...
-
China presenta superordenador de inteligencia arti...
-
China crea una medusa biónica que puede espiar a s...
-
Filtración masiva de 183 millones de correos elect...
-
Lo despidieron tras 6 años sin trabajar: así logró...
-
Qualcomm reta a Nvidia en chips para IA y se dispa...
-
Muchas personas creían que era gratis hasta que le...
-
Drones, hackers, virus informáticos... Defensa Esp...
-
La IA aumentará la carga de trabajo en lugar de re...
-
40 años del mítico Intel 80386: uno de los procesa...
-
Oracle EBS corrige silenciosamente un exploit Zero...
-
Vulnerabilidad crítica en tiendas Adobe Magento
-
Hackearon una planta de armas nucleares de EE. UU....
-
Parches de emergencia de Windows Server corrigen u...
-
Suplantan “microsoft.com” con “rnicrosoft.com” (ho...
-
Nike crea unas zapatillas con motor que hacen corr...
-
Chip M5: Todas las novedades que necesitas saber d...
-
Google va a actualizar la GPU de tu Pixel 10 perió...
-
Samsung Galaxy XR, un rival para Apple Vision Pro ...
-
Fedora permitirá contribuciones de código generada...
-
Anthropic gasta más dinero del que ingresa
-
Prohíben a NSO atacar a usuarios de WhatsApp con e...
-
Google ha resuelto en 2 horas problemas que en un ...
-
Nvidia cree tener la llave para resolver la gran b...
-
Nestlé anuncia el despido masivo de 16.000 emplead...
-
Investigador consigue acceso administrador en la w...
-
Samsung añadirá la IA de Perplexity en todos sus t...
-
Reddit demanda a Perplexity y otras empresas de IA...
-
DeepSeek OCR: Reconocimiento de texto avanzado con...
-
Amazon reemplazará medio millón de empleados por r...
-
OpenAI presenta Atlas, un navegador web impulsado ...
-
KDE Plasma 6.5: un «punto de inflexión» repleto de...
-
Deberías ser más borde con ChatGPT: un estudio con...
-
La última locura de la IA: instalar una cámara en ...
-
La mejor IA para programar ya está disponible en l...
-
ClothOff, una app que usa IA para desnudar a otros...
-
La tarjeta SIM esconde un computador retro capaz d...
-
"Buscar mi iPhone" ayuda a desmantelar una red de ...
-
Los discos duros cada vez son más fiables
-
La última actualización de Windows 11 incluye múlt...
-
Un paciente desvela cómo la inteligencia artificia...
-
Una universidad acusó al 90% de sus alumnos de usa...
-
GIMP se hace cargo del paquete Snap
-
Vulnerabilidad en Microsoft IIS
-
Cuidado con la pasta térmica SGT-4 de AMeCh: produ...
-
Reinstala Windows 11 para arreglar la lentitud de ...
-
China acusa a EEUU de un ciberataque a sus centros...
-
China despliega su nuevo caza sin piloto
-
ASUS ROG Magic 9, ahora con CPU de AMD
-
Encuentran la tarjeta de memoria SanDisk intacta t...
-
Filtración masiva en Telegram expone datos de func...
-
Europol desmantela una red de granjas de tarjetas ...
-
Valero, el nuevo dron 'made in Spain' que se está ...
-
Windows 11 pierde su localhost tras una actualización
-
Así puedes pedirle a un amigo que te ayude a recup...
-
Caída mundial nube de Amazon Web Services: está pr...
-
Nvidia presenta su primer superordenador personal ...
-
Intel sube el precio de los procesadores Core i3, ...
-
Casio celebra el 40 aniversario de 'Regreso al fut...
-
El Parlamento Europeo pide prohibir el acceso a re...
-
Microsoft bloquea el modo IE después de que atacan...
-
F5 confirma ciberataque: un actor estatal accedió ...
-
Vulnerabilidades críticas en Veeam y Fortinet
-
Windows 11 estrena Copilot Voice y Copilot Vision ...
-
Símbolo doble de Wi-Fi en tu teléfono: por qué apa...
-
Qué significa el icono de la 'N' en tu teléfono An...
-
Google Veo 3.1 supera a Sora 2 en realismo y contr...
-
Anthropic presenta Claude Haiku 4.5, la IA más bar...
-
El grupo Qilin afirma haber comprometido los siste...
-
Alemania inicia su independencia de Microsoft con ...
-
Países Bajos interviene una empresa de chips de pr...
-
Gana un premio de más de 130.000 euros en la loter...
-
Microsoft presenta su primera IA para generar imág...
-
Llamaron a 50 taxis autónomos a una calle sin sali...
-
Cómo saber si nos están grabando la llamada telefó...
-
ChatGPT se volverá más «humano» y tendrá un modo e...
-
Apple presenta el M5, un SoC con CPU de 10 núcleos...
-
El fundador de Telegram denuncia que Macron está p...
-
EE.UU. quiere convertir la guerra en un videojuego...
-
ONLYOFFICE Docs 9.1: la suite ofimática mejora el ...
-
Amazon llena los Echo Show de anuncios invasivos
-
Sora, la app de generación de video de OpenAI, sup...
-
Spotify amplía las cuentas familiares gestionadas ...
-
La última filtración desnuda a la 'Zarzuela' marro...
-
Zorin OS 18 ya está disponible: la distro perfecta...
-
Google regala Gemini 2.5 Pro, Veo 3 y 2 TB de alma...
-
- ► septiembre (Total: 148 )
-
▼
octubre
(Total:
198
)
-
►
2024
(Total:
1110
)
- ► septiembre (Total: 50 )
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
ClothOff es una app que utiliza inteligencia artificial generativa para desnudar a cualquier persona a partir de fotografías con ropa que...
-
Un agente de IA de Google llamado Antigravity eliminó accidentalmente todos los datos del disco duro de un desarrollador. Después de la eli...
-
A partir de 2026, la validez de los certificados digitales disminuirá gradualmente, pasando de 398 días a 47 días para 2029 . Let's Encr...
OpenAI lanza modelos abiertos de seguridad “gpt‑oss‑safeguard”
La inteligencia artificial no solo genera contenido, también empieza a determinar si ese contenido debería haber sido generado. Lo que hasta hace poco parecía una función secundaria, hoy se convierte en una necesidad central: controlar qué se produce, cómo se difunde y bajo qué criterios. OpenAI, en este contexto, acaba de dar un paso significativo al abrir el acceso a sus nuevos modelos de razonamiento para clasificación de seguridad: los gpt‑oss‑safeguard.
Se trata de modelos de código abierto diseñados para ayudar a clasificar contenido con criterios de seguridad personalizados, según la política de uso de cada plataforma o desarrollador. OpenAI ha publicado dos versiones: una de 120.000 millones de parámetros y otra de 20.000 millones, ambas disponibles bajo licencia Apache 2.0, lo que permite su uso libre y su integración en sistemas existentes sin restricciones comerciales.
La principal innovación de estos modelos no está solo en lo que clasifican, sino en cómo lo hacen. En lugar de limitarse a emitir un veredicto binario (“permitido” o “no permitido”), los gpt‑oss‑safeguard explican su razonamiento paso a paso. Utilizan técnicas de «chain-of-thought» que permiten ver por qué un contenido ha sido marcado según una política concreta, y facilitan modificar dicha política sin necesidad de reentrenar el modelo. Esta modularidad es especialmente valiosa en contextos donde las normas cambian rápidamente o son diferentes entre comunidades.
Los posibles usos son amplios. Un foro de videojuegos puede configurar el modelo para detectar trampas o scripts automatizados, mientras que una web de reseñas puede emplearlo para identificar opiniones falsas. Plataformas sociales, sistemas educativos, marketplaces o foros técnicos pueden adaptar la lógica del modelo a sus necesidades específicas, incorporándolo como una capa de razonamiento dentro de su infraestructura de moderación.
Eso sí, OpenAI no oculta las limitaciones del sistema. Reconoce que clasificadores entrenados específicamente para una única tarea pueden ofrecer mejores resultados en algunos escenarios. También advierte de que el cómputo requerido por estos modelos puede ser significativamente mayor que el de otras soluciones de clasificación más ligeras, lo que puede condicionar su adopción en entornos con recursos limitados.
Más allá del lanzamiento técnico, esta iniciativa forma parte de una filosofía más amplia por parte de OpenAI: la seguridad como arquitectura, no como parche. Bajo su enfoque de «defensa en profundidad», la compañía busca que la moderación y la interpretación de políticas no dependan exclusivamente de sistemas externos, sino que puedan integrarse directamente en los modelos de IA. Abrir estas herramientas al ecosistema, y no reservarlas como sistemas propietarios, refuerza ese enfoque y facilita su adopción por parte de comunidades independientes.
Con gpt‑oss‑safeguard, OpenAI propone que la clasificación de contenidos no sea un acto de censura opaca, sino un proceso explícito, auditable y controlable. Puede que estemos ante un cambio de paradigma, donde no solo las respuestas, sino también las decisiones que las filtran, son inteligentes y comprensibles. Y donde, por fin, la seguridad deja de ser una caja negra.
¿Qué hace el modelo y cómo funciona?
En esencia, gpt-oss-safeguard permite aplicar políticas personalizadas de seguridad directamente en la inferencia, lo que significa que el desarrollador aporta la política (“policy”) y el contenido a evaluar; el modelo genera una clasificación y además explica su razonamiento (“chain-of-thought” (Cadena de Razonamiento)).
Esta aproximación se diferencia de los clasificadores tradicionales —que se entrenan con millones de ejemplos etiquetados— porque aquí la política no está “entrenada” en el modelo, sino que se proporciona en tiempo de inferencia.
Por ejemplo, una comunidad de videojuegos podría establecer una política para identificar publicaciones sobre trampas; un sitio de reseñas puede definir su propia política para detectar reseñas falsas.
Ventajas que prometen
Este enfoque abre varias ventajas:
- Flexibilidad: los desarrolladores pueden revisar y modificar las políticas sin tener que recopilar enormes conjuntos de datos y volver a entrenar.
- Explicabilidad: al entregar el razonamiento, se gana transparencia en por qué se toma una decisión.
- Capacidad de adaptación rápida: en casos de daño emergente o dominios matizados, esta aproximación ofrece una alternativa más ágil que los clasificadores tradicionales.
Limitaciones que conviene tener en cuenta
Aunque el lanzamiento es interesante, no todo es perfecto. La propia OpenAI reconoce dos limitaciones importantes:
- En ciertas tareas complejas de clasificación, un clasificador tradicional entrenado con decenas de miles de ejemplos aún puede rendir mejor que gpt-oss-safeguard.
- La carga de cómputo y latencia pueden ser un inconveniente. Porque
razonar mediante un modelo grande es más caro y más lento que usar
modelos simples y rápidos.
Así que, aunque es una herramienta potente, no es necesariamente la panacea para todos los casos de seguridad en IA.
Este lanzamiento ocurre en un momento clave: la presión regulatoria sobre la inteligencia artificial está en alza y la demanda por transparencia, auditabilidad y control de riesgos crece día a día.
Con gpt-oss-safeguard, OpenAI está empujando la conversación hacia un modelo de IA más abierto, controlable y razonable. Permite que las empresas y desarrolladores no solo usen IA, sino que la gobiernen.
Claro, no elimina todos los riesgos: latencia, coste y especialización siguen siendo retos. Pero si estás buscando implementar IA en tu entorno —y quieres que sea segura, auditable y adaptable— este tipo de lanzamiento merece tu atención.
Los dos modelos se pueden descargar directamente de Hugging Face.
https://openrouter.ai/openai/gpt-oss-safeguard-20b
Fuentes:









Entrada más reciente
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.