Tutoriales y Manuales
Entradas Mensuales
-
►
2024
(Total:
1019
)
- ► septiembre (Total: 50 )
-
▼
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
▼
julio
(Total:
78
)
- Webs de Orange, Telefónica y Euskaltel recibieron ...
- Agujero de seguridad en los mods de Minecraft perm...
- Apple subirá el precio a todos los iPhone 15
- El Banco Santander condenado a devolver dinero est...
- Una mujer y su hija menor, denunciadas en Granolle...
- La Comisión Europea investiga a Microsoft por incl...
- Nuevo malware Nitrogen se difunde a través de anun...
- OpenAI cancela su herramienta de detección de plag...
- Vulnerabilidad en OpenSSH expone a inyección de co...
- Una vulnerabilidad en los procesadores Zen 2 de AM...
- El creador de ChatGPT lanza Worldcoin: promete una...
- Twitter limitará los mensajes directos a las cuent...
- Las grandes tecnológicas firman un acuerdo volunta...
- Chrome introduce la «privacidad mejorada en la pub...
- Elon Musk cambia el nombre y el logo de Twitter por X
- Grupo pro-Ruso NoName057 colapsa mediante ataques ...
- El NFT del primer tuit de Jack Dorsey costó 2,9 mi...
- Ucrania desmantela una enorme granja de bots Pro R...
- Una banda vende cuentas antiguas en Telegram para ...
- Traficante en la dark web fue detenido gracias a l...
- Abuela valenciana consiguió crear arte en Paint y ...
- La policía de China comienza a arrestar a los vend...
- Samsung anuncia los primeros chips GDDR7, la prime...
- Reddit recibe una multa de Rusia por no eliminar e...
- Muere Kevin Mitnick, el hacker más famoso del mund...
- LlaMa 2, el ChatGPT de Meta no es 'open source', p...
- La Policía Nacional España detiene ucraniano en Ba...
- Google Meet ya permite crear fondos con inteligenc...
- Reddit ha eliminado todas tus conversaciones anter...
- Filtración de datos de VirusTotal expone datos de ...
- WormGPT, el «lado oscuro» de ChatGPT
- YouTube prueba una nueva y muy deseable función, «...
- España multa a Apple y Amazon con 194 millones eur...
- El problema de equivocarse al teclear: un error ti...
- Twitter ha sufrido una caída de ingresos por publi...
- Rusia ha prohibido a los funcionarios del gobierno...
- Hackers rusos usan el anuncio de un BMW de segunda...
- Tras 15 años, Microsoft cambia la fuente predeterm...
- Twitter empieza a compartir los ingresos publicita...
- Hollywood propuso a los actores escanear su imagen...
- Vulnerabilidad en Ghostscript (presente en numeros...
- Google Bard llega a España
- La cuarta grave vulnerabilidad en Fortinet
- Microsoft alerta que piratas informáticos chinos h...
- Los vips de la joyería Rabat hackeados: Messi, Sab...
- Nothing Phone (2)
- Intel deja de fabricar los miniordenadores NUC
- Elon Musk propone un concurso a Zuckerberg para "m...
- Empresas de Estados Unidos podrán guardar datos pe...
- Europa exigirá que las baterías de móviles y orden...
- Así es el rendimiento de los SSD Samsung falsos de...
- Así ha estafado 'el pez gordo del cibercrimen en E...
- ¿Microsoft podría mitigar ataques de ransomware li...
- TeamsPhisher: herramienta automatizada para phishi...
- Windows Update Restored permite mantener actualiza...
- 500.000 cámaras Hikvision vulnerables
- La Unión Europea ya ha elegido a los 7 Gatekeepers
- RansomHouse publica nuevos datos privados de pacie...
- Un hackeo filtra datos privados de clientes vip de...
- El puerto más grande de Japón detiene sus operacio...
- La inteligencia artificial ayuda a personas ciegas...
- Anonymous Sudán afirma haber robado contraseñas de...
- OpenAI se prepara para evitar que la «superintelig...
- Envían "decenas de gigabits" por segundo de datos ...
- DistroSea permite probar distribuciones Linux dire...
- ChatGPT enfrenta su primera demanda por derechos d...
- La nueva vulnerabilidad en FortiNAC de Fortinet ex...
- El auge y la caída de Skype
- Threads de Instagram es el nuevo competidor de Twi...
- Atacan satélites de comunicaciones del Ejército Ruso
- La historia de Alcasec: el joven que amenazó la se...
- WhatsApp ya permite enviar vídeos en alta calidad
- Los nuevos AirPods Pro podrán medir la temperatura...
- Acusan a Google de estafa publicitaria por sus anu...
- Libros sin sentido generados por IA están en todas...
- Elon Musk limita "temporalmente" los mensajes que ...
- El conserje de una universidad apaga el congelador...
- Demandan a OpenAI por entrenar ChatGPT con datos p...
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
En el panorama en constante evolución de la seguridad de redes, OpnSense se ha convertido en una formidable solución de firewall. Nacido de...
-
Pese a que Gemini ofrece multitudes de opciones, recientemente, se ha dado a conocer una situación fuera de lo común. Hace unos días, un es...
OpenAI se prepara para evitar que la «superinteligencia artificial» nos extermine
OpenAI, la desarrolladora de ChatGPT, está armando un nuevo equipo que tendrá un único objetivo: diseñar maneras de dirigir y controlar una eventual «superinteligencia artificial». Estos sistemas —también conocidos como Inteligencia Artificial Fuerte o Inteligencia Artificial General— serían aquellos que, en teoría, alcancen la capacidad intelectual de un ser humano. Y según la compañía, esto podría pasar en la próxima década.
- La empresa desarrolladora de ChatGPT dijo que una inteligencia artificial general podría crearse dentro de la próxima década. Evitar que se descontrole, señaló, es uno de los problemas técnicos más importantes de nuestro tiempo.
«Necesitamos avances científicos y técnicos para dirigir y controlar sistemas de inteligencia artificial mucho más inteligentes que nosotros», explicó OpenAI en un comunicado publicado en su blog este miércoles. Informó que el equipo estará dirigido por Ilya Sutskever, científico jefe y uno de los cofundadores de la compañía, y Jan Leike, líder del equipo de alineación.
Se pusieron como objetivo tener lista la tarea para dentro de cuatro años. «Actualmente, no tenemos una solución para dirigir o controlar una inteligencia artificial potencialmente superinteligente y evitar que se vuelva deshonesta», explicó OpenAI. En estos momentos, agregó, solo cuentan con técnicas como el aprendizaje reforzado a partir de la retroalimentación humana. Pero aclara que este tipo de supervisión no será suficiente cuando estos sistemas se vuelvan «mucho más inteligentes que nosotros».
La empresa, socia de Microsoft, informó que está dedicando el 20% del poder de cómputo que ha obtenido hasta el momento para cumplir con este cometido. De esta forma, abrió la convocatoria para encontrar más investigadores e ingenieros de modelos de lenguaje que se sumen al equipo.
La posibilidad de una superinteligencia artificial maligna
OpenAI no solo está diciendo que una superinteligencia artificial podría llegar pronto. «La superinteligencia será la tecnología más impactante que la humanidad jamás haya inventado", dijo en su blog la compañía. Pero, además, advierte que existe la posibilidad de que este tipo de tecnología no sea benévola: «El vasto poder de la superinteligencia también podría ser muy peligroso y podría llevar a la pérdida de poder de la humanidad o incluso a la extinción humana».
Desde que el lanzamiento de ChatGPT impulsó la carrera en el desarrollo de la inteligencia artificial, varios se han pronunciado sobre qué tan cerca estaríamos de un escenario como este. Un grupo de investigadores de Microsoft, por ejemplo, publicó en marzo una investigación en la que señalan que GPT-4, modelo creado por OpenAI, ya mostraba «destellos» de una inteligencia artificial general.
Bill Gates, cofundador de Microsoft, también publicó en marzo una reflexión en la que consideraba que todavía era muy temprano para pronosticar cuándo nacería una superinteligencia artificial. «Esto podría tardar una década o un siglo», dijo entonces. Sin embargo, señaló que algunas preguntas sobre el tema se volverán cada vez más apremiantes. Por ejemplo: ¿cuáles serán los objetivos de estos sistemas?, ¿deberíamos tratar de evitar que alguna vez se desarrolle alguna?
Una inteligencia artificial de este tipo sería capaz de hacer todo lo que puede hacer un cerebro humano y, técnicamente, superarlo. A diferencia de las personas, este sistema no tendría límites prácticos en el tamaño de su memoria o la velocidad a la que opera. Algunos científicos hablan también de la idea de consciencia.
¿Por dónde comenzará OpenAI?
OpenAI explicó que su objetivo es controlar una eventual superinteligencia artificial a través de un «investigador de alineación automatizado de nivel aproximadamente humano». Es decir, creará otra inteligencia artificial que haga el trabajo de regulación.
El plan es entrenar los sistemas disponibles actualmente con comentarios humanos, para que puedan ser capaces de evaluar otros sistemas de inteligencia artificial. Y, con este insumo, construir un modelo que pueda realizar investigaciones sobre cómo garantizar que las máquinas no se salgan de control.
OpenAI resaltó que la alineación de una superinteligencia es uno de los problemas técnicos sin resolver más importantes de nuestro tiempo. Y agregó: «Necesitamos las mejores mentes del mundo para resolver este problema».
Fuentes:
https://hipertextual.com/2023/07/openai-eqsuperinteligencia-artificial
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.