Líderes tecnológicos globales se unen para establecer marcos de seguridad en IA.

En un movimiento significativo hacia la garantía del desarrollo y despliegue seguro de la inteligencia artificial, importantes empresas de tecnología, incluidas OpenAI, Amazon, Microsoft y Google DeepMind, han prometido establecer marcos de seguridad integral para la IA.

Estas medidas tienen como objetivo mitigar o prevenir por completo los posibles daños asociados con la tecnología de IA.

Este compromiso voluntario, también respaldado por la empresa china Zhipu.ai y el Instituto de Innovación Tecnológica de los EAU, fue anunciado en el Cumbre de IA de Seúl.

Este evento sirve como un seguimiento al Cumbre de Seguridad de IA de Bletchley, copatrocinado por el Reino Unido y la República de Corea.

Destaca la importancia de la cooperación internacional en el establecimiento de estándares de seguridad de IA a nivel global.

Las empresas han acordado colectivamente que, si los riesgos asociados con la IA no pueden ser suficientemente mitigados en circunstancias extremas, se abstendrán de desarrollar o implementar tales modelos o sistemas. Esta postura proactiva destaca su compromiso de priorizar la seguridad por encima del avance en escenarios de alto riesgo.

Marcos de Seguridad Detallados

Las empresas participantes se han comprometido a publicar marcos de seguridad detallados. Estos documentos describirán las metodologías para evaluar los riesgos asociados con sus modelos de IA, incluyendo la identificación y prevención de riesgos graves considerados intolerables. Se espera que esta transparencia establezca un estándar para los protocolos de seguridad de la IA en todo el mundo.

“Estos compromisos aseguran que las principales empresas de IA del mundo proporcionen transparencia y responsabilidad sobre sus planes para desarrollar IA segura”, afirmó el Primer Ministro británico Rishi Sunak. Subrayó que este acuerdo establece un estándar global para la seguridad de la IA, esencial para desbloquear los beneficios transformadores de esta tecnología.

Continuando el impulso de Bletchley Park

Este acuerdo reciente se basa en el impulso de la Declaración de Bletchley, donde 27 naciones se comprometieron a colaborar en medidas de seguridad de IA. También se alinea con la cumbre de noviembre pasado en Bletchley Park, donde "países afines y empresas de IA" acordaron realizar pruebas de seguridad en modelos de IA antes de su lanzamiento. Cabe destacar que Google DeepMind se destaca como el único laboratorio de IA importante que ha permitido al Instituto de Seguridad de IA del Reino Unido realizar pruebas de seguridad previas al despliegue.

El compromiso de estos gigantes tecnológicos para establecer marcos de seguridad en IA es un paso fundamental hacia la gestión de los riesgos asociados con la inteligencia artificial. Este esfuerzo colaborativo subraya el consenso global sobre la necesidad de medidas de seguridad en IA robustas para garantizar que los beneficios de la tecnología se realicen plenamente sin comprometer la seguridad.

Logo NextBrain

Nuestra misión es hacer de NextBrain un espacio en el que los seres humanos trabajen junto con los algoritmos más avanzados para ofrecer una visión superior de los datos que cambie las reglas del juego. Aprendizaje automático sin código

Oficinas

Europa
Paseo de la Castellana, n.º 210, 5º-8
28046 Madrid, España
Número de teléfono: bandera de españa +34 91 991 95 65

Australia
Nivel 1, Muelle 8/9, 23 Hickson Road
Walsh Bay, NSW, 2000
Número de teléfono: bandera de españa +61 410 497229

Horas de apertura (CET)

Lunes—Jueves: 8:00AM–5:30PM
Viernes: 8:00AM–2:00PM


EMEA, América

Soporte de chat en vivo
Contacte con nuestro equipo de Ventas