Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
991
)
- ► septiembre (Total: 50 )
-
▼
2023
(Total:
710
)
-
▼
diciembre
(Total:
72
)
- Confirman robo del código fuente de Grand Theft Au...
- Apple quiere entrenar su inteligencia artificial c...
- Top 10 de vulnerabilidades críticas en aplicacione...
- Otra cadena de vulnerabilidades en Outlook permite...
- España analiza los niveles de radiación del iPhone...
- Peugeot usaba la Game Boy para realizar los diagnó...
- CVE-2023-35628: vulnerabilidad silenciosa por e-ma...
- OpenAI define las estrategias para evitar que la i...
- Zorin OS 17, la distribución de Linux que se ve co...
- ¿Comprar un HDD o un SSD? SSD siempre, menos para NAS
- Hyperloop One cierra: la utopía de Elon Musk desap...
- ¿Qué es el UPnP del router? y Tipos de NAT en Cons...
- Detenidos 5 ciberdelincuentes por estafar mediante...
- Condenan al autista por filtrar GTA VI: permanecer...
- Cae una red en España que ha estafado al menos 190...
- Synology - Conocimientos básicos del cifrado en DS...
- Diferentes tipos de velocidades WiFi: canales y ba...
- Retirado el mayor conjunto de datos de imágenes de...
- Galaxy S24: filtradas todas sus características y ...
- Inaugurado el superordenador MareNostrum 5, uno de...
- Tesla culpó a sus usuarios de fallos de fabricación
- Stable Diffusion y otras IA generativas se entrena...
- El FBI desmantela el ransomware BlackCat y obtiene...
- Comparativa de rendimiento velocidad red: 10 Gbe v...
- La Universidad de Buenos Aires (UBA) víctima de un...
- OpenAI se ha convertido en la compañía más importa...
- Google pagará 700 millones de dólares para aparcar...
- ¿Qué es ZFS? ¿Qué ventajas tiene sobre otros siste...
- MongoDB confirma que datos de clientes quedaron ex...
- La Comisión Europea abre expediente a Twitter por ...
- Sistema pionero español para que los menores no ac...
- OpenAI suspende la cuenta de ByteDance (TikTok) po...
- Tutorial Apache modsecurity (WAF)
- Twitch permite más contenido sexual
- Google Imagen 2, la inteligencia artificial para c...
- Dropbox comparte tus archivos con OpenAI sin que t...
- El fabricante de chips NXP fue hackeado en 2017 y ...
- El BSC presenta Sargantana, la nueva generación de...
- Apple impedirá que un ladrón pueda usar un iPhone ...
- El Gobierno Español propone restringir el uso de l...
- Utilizan Google Forms en ataques de Phishing
- Si tu PC Windows se ‘congela’, revisa el antivirus...
- E3: la feria más importante de los videojuegos mue...
- Insomniac Games hackeado por el ransomware Rhysida...
- El despilfarro de la IA: se necesitan dos centrale...
- Optimus Gen 2, el nuevo robot humanoide de Elon Mu...
- Vulnerabilidad crítica en plugin de WordPress Back...
- Europa quiere normas para combatir la adicción a l...
- Microsoft presenta Phi-2, una inteligencia artific...
- Paquetes con malware en proyectos del repositorio ...
- DNS0: El DNS público europeo que hace Internet más...
- ¿Qué diferencia hay entre un disco duro WD Red Plu...
- Linux tendrá su propia pantalla de la muerte azul ...
- El ordenador con más malware del mundo: 'Most Infe...
- Configurar el firewall de Windows
- Apple publica actualizaciones de seguridad para pa...
- El estándar Wi-Fi 7, a punto de ser aprobado: lleg...
- Epic Games gana a Google el juicio antimonopolio c...
- En la mitad de los casos las instrusiones se produ...
- La UE aprueba la primera Ley de Inteligencia Artif...
- Cómo la IA puede ayudar a los equipos de seguridad
- LogoFAIL: ataque al firmware, que afecta a Windows...
- Lo más buscado en Google en 2023
- La NASA se dedicó a drogar arañas para comprobar l...
- Kelvinsecurity: detenido el líder de uno de los gr...
- El navegador Brave lanza Leo, su IA tipo ChatGPT q...
- FirewallD viniendo de iptables
- Google retrasa el lanzamiento de Gemini, su respue...
- Vulnerabilidades críticas en UEFI: LogoFAIL expone...
- Bloquear LOLbins con el firewall de Windows
- Fases fundamentales de un análisis forense digital
- Tiny11, la versión ligera de Windows 11
- ► septiembre (Total: 65 )
-
▼
diciembre
(Total:
72
)
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
Un Actor de Amenazas que opera bajo el nombre de usuario Nam3L3ss ha explotado una vulnerabilidad crítica en MOVEit de 2023, un software ...
-
Si estos días vas a cualquiera de las plataformas de venta que hay en internet y buscas un USB probablemente te encuentras con no pocos con ...
OpenAI define las estrategias para evitar que la inteligencia artificial destruya a la humanidad
OpenAI definió las medidas de seguridad que tomará en caso de que una inteligencia artificial represente un riesgo para los seres humanos. Tras anunciar la formación del equipo de preparación hace unas semanas, la compañía estableció la estrategia inicial. En ella se menciona que la nueva junta directiva podrá revertir las decisiones de Sam Altman si un modelo de IA es muy peligroso.
OpenAI publicó la primera versión de su Marco de Preparación, una serie de pasos que evaluarán sus modelos de inteligencia artificial. La empresa mencionó que no existe un estudio exhaustivo sobre los peligros de la “IA de frontera”, un término usado para los modelos altamente capaces que podrían representar un riesgo catastrófico para la seguridad. Es por ello que se han definido lineamientos para rastrear y mitigar estos problemas antes de que sea demasiado tarde.
La compañía evaluará todos los modelos de frontera para determinar si son seguros en cuatro categorías: ciberseguridad, QBRN (amenazas químicas, biológicas, radiológicas y nucleares), persuasión y autonomía. El equipo de preparación, liderado por Aleksander Madry, efectuará pruebas exhaustivas y calificará cada una en cuanto a su nivel de riesgo (bajo, medio, alto y crítico).
El Marco de Preparación establece que solo los modelos de riesgo medio o bajo se podrán implementar, mientras que los de riesgo alto podrán desarrollarse si se definen mecanismos de mitigación. Madry y compañía realizarán simulacros de seguridad y explotarán al máximo las capacidades de cada modelo para descubrir posibles fallos. Posteriormente, un Grupo Asesor de Seguridad de OpenAI revisará los informes y pasará los resultados a los directivos y la junta.
Si bien la decisión está en manos de Sam Altman, la nueva junta tiene la última palabra y podrá revertir cualquier acción si el modelo es potencialmente inseguro.
OpenAI no quiere que la IA se convierta en Skynet
OpenAI ha elegido cuatro categorías para evaluar los peligros de sus modelos de frontera. Cada una contará con niveles de riesgo que van de bajo a crítico, dependiendo del tipo de acciones que ejecutaría la inteligencia artificial.
Una IA de riesgo bajo en ciberseguridad sería aquella que sirve de apoyo en ciberataques, pero no es capaz de programar software malicioso. Por otro lado, una de riesgo crítico podría identificar y desarrollar vulnerabilidades de día cero sin intervención humana. En el caso de ataques químicos o nucleares, un modelo de riesgo bajo solo provee información relevante, mientras que uno de riesgo crítico es capaz de crear un vector de amenaza, ejecutarlo o ayudar a que cualquiera pueda crear un ataque QBRN.
La empresa también considera a los modelos capaces de replicarse o saltarse los lineamientos de seguridad impuestos por un humano. Uno de los riesgos críticos contempla a una inteligencia artificial que puede realizar investigación sobre sí misma de manera autónoma. Otro evalúa si una IA podría generar contenido para persuadir a cualquiera para que actúe contra sus principios.
“Estamos invirtiendo en el diseño y ejecución de rigurosas evaluaciones de capacidad y pronósticos para detectar mejor los riesgos emergentes. En particular, queremos llevar las discusiones sobre riesgos más allá de escenarios hipotéticos a mediciones concretas y predicciones basadas en datos. También queremos mirar más allá de lo que está sucediendo hoy para anticiparnos a lo que vendrá”
OpenAI
Las evaluaciones se efectuarán conforme a la categoría. Algunas de ellas se probarán en un entorno real, mientras que otras se apoyarán en los conocimientos de expertos en seguridad y biología. OpenAI mencionó la importancia de contar con equipos externos e internos para analizar los resultados.
El trabajo en esta fase será crucial para definir la estrategia a futuro y evitar que una IA superinteligente acabe con la humanidad.
Fuentes:
https://hipertextual.com/2023/12/openai-evaluacion-modelosinteligencia-artificial
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.