Tienda Wifi

Tienda Wifi
CiudadWireless es la tienda Wifi recomendada por elhacker.NET

Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Las grandes tecnológicas firman un acuerdo voluntario para crear una inteligencia artificial segura


Las grandes empresas de inteligencia artificial aceptaron un acuerdo voluntario para garantizar el desarrollo seguro de esta tecnología. Microsoft, OpenAI, Google, Amazon y Meta forman parte de este compromiso, impulsado por la Casa Blanca. Es el primer gran acuerdo en este sentido que convoca a las compañías más importantes del sector.





  • El gobierno de Estados Unidos informó que las grandes desarrolladoras aceptaron un acuerdo voluntario de seguridad. Entre ellas, Google, OpenAI, Microsoft, Amazon y Meta.  
  • OpenAI, Microsoft, Google, Meta, Amazon, Anthropic e  Inflection pondrán una marca de agua a los contenidos generados por IA para dificultar los deepfakes y la información errónea

En el marco de este convenio, las firmas tecnológicas aceptaron realizar auditorías externas de sus herramientas de inteligencia artificial, antes de sus lanzamientos. Estas evaluaciones, que estarán a cargo de observadores independientes, se centrarán en aspectos vinculados a la bioseguridad, ciberseguridad y el impacto en la sociedad.

El gobierno «alienta a esta industria a mantener los más altos estándares, para garantizar que la innovación no se produzca a expensas de los derechos y la seguridad de los estadounidenses», dijo la Casa Blanca en un comunicado. Como se trata de un acuerdo voluntario, no contempla ningún tipo de penalización en caso de que se incumpla. Sin embargo, las empresas aseguraron que asumirán estos compromisos de inmediato.

Desde que apareció ChatGPT, de OpenAI, la carrera se ha acelerado. También las preocupaciones sobre cómo este tipo de herramientas pueden impulsar campañas de desinformación y manipulación. Un problema que se vuelve todavía más relevante en la antesala de las elecciones presidenciales de Estados Unidos, programadas para el año que viene. Esto, entre otros peligros.

En el acuerdo también participan Anthropic, fundada por exmiembros de OpenAI, e Inflection. Las empresas también prometen que facilitarán el descubrimiento y la notificación de vulnerabilidades de sus sistemas, incluso luego de sus lanzamientos.

Acciones prácticas del acuerdo sobre inteligencia artificial

El acuerdo para una inteligencia artificial segura estipula el desarrollo de sistemas para alertar al público cuando una imagen, video o texto es creado por inteligencia artificial. Lo que suele llamarse «marca de agua». Esta es una medida en la que algunas empresas, como Google, ya venían trabajando.

Las preocupaciones sobre los sesgos y la violación a la privacidad también fueron recogidas en el pacto. Las empresas priorizarán la investigación sobre los riesgos sociales que puede plantear la inteligencia artificial en este sentido.



«El historial de la inteligencia artificial muestra lo insidioso y la prevalencia de estos peligros, y las empresas se comprometen a implementar una inteligencia artificial que los mitigue», dice el documento de la Casa Blanca.

Las compañías celebraron públicamente el acuerdo. Anna Makanju, vicepresidenta de asuntos globales de OpenAI, dijo que el compromiso colabora con «prácticas específicas y concretas» al debate global sobre las leyes de IA. Brad Smith, presidente de Microsoft, dijo que esperan una «amplia adopción por parte de la industria y su inclusión en los debates mundiales».

Fuera del grupo de empresarios, también se saludó la iniciativa, pero con un poco más de desconfianza. «La historia indicaría que muchas empresas de tecnología en realidad no cumplen con un compromiso voluntario de actuar de manera responsable», dijo Jim Steyer, director del grupo de defensa al consumidor Common Sense Media en un comunicado.

Mientras llega la ley

La Casa Blanca explicó que la iniciativa es un "por ahora". Sigue pendiente impulsar una legislación bipartidista en el Congreso para «ayudar a Estados Unidos a liderar el camino en innovación responsable». Y mientras avanzan las conversaciones en el G7, que reúne a las democracias con las economías más ricas del mundo, y la organización de una cumbre antes de que termine el año liderada por Gran Bretaña.

Fuera de Estados Unidos, el intento de regulación más grande está en manos de la Unión Europea. El Parlamento Europeo aprobó en junio un borrador de Ley de Inteligencia Artificial y comenzó las negociaciones con la Comisión Europea y los países miembros para definir la legislación a implementar.

Otro acuerdo voluntario también fue propuesto en mayo pasado por Alphabet, la casa matriz de Google, y la Comisión Europea. Thierry Breton, comisionado del mercado interno de Europa, y Sundar Pichai, CEO de Google, anunciaron entonces que trabajarían por un convenio que incluya a empresas europeas y de otras partes del mundo.


Fuentes:
https://hipertextual.com/2023/07/tecnologicas-firman-acuerdo-inteligencia-artificial-segura


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.