En un movimiento significativo hacia la garantía del desarrollo y despliegue seguro de la inteligencia artificial, importantes empresas de tecnología, incluidas OpenAI, Amazon, Microsoft y Google DeepMind, han prometido establecer marcos de seguridad integral para la IA.
Estas medidas tienen como objetivo mitigar o prevenir por completo los posibles daños asociados con la tecnología de IA.
Este compromiso voluntario, también respaldado por la empresa china Zhipu.ai y el Instituto de Innovación Tecnológica de los EAU, fue anunciado en el Cumbre de IA de Seúl.
Este evento sirve como un seguimiento al Cumbre de Seguridad de IA de Bletchley, copatrocinado por el Reino Unido y la República de Corea.
Destaca la importancia de la cooperación internacional en el establecimiento de estándares de seguridad de IA a nivel global.
Las empresas han acordado colectivamente que, si los riesgos asociados con la IA no pueden ser suficientemente mitigados en circunstancias extremas, se abstendrán de desarrollar o implementar tales modelos o sistemas. Esta postura proactiva destaca su compromiso de priorizar la seguridad por encima del avance en escenarios de alto riesgo.
Marcos de Seguridad Detallados
Las empresas participantes se han comprometido a publicar marcos de seguridad detallados. Estos documentos describirán las metodologías para evaluar los riesgos asociados con sus modelos de IA, incluyendo la identificación y prevención de riesgos graves considerados intolerables. Se espera que esta transparencia establezca un estándar para los protocolos de seguridad de la IA en todo el mundo.
“Estos compromisos aseguran que las principales empresas de IA del mundo proporcionen transparencia y responsabilidad sobre sus planes para desarrollar IA segura”, afirmó el Primer Ministro británico Rishi Sunak. Subrayó que este acuerdo establece un estándar global para la seguridad de la IA, esencial para desbloquear los beneficios transformadores de esta tecnología.
Continuando el impulso de Bletchley Park
Este acuerdo reciente se basa en el impulso de la Declaración de Bletchley, donde 27 naciones se comprometieron a colaborar en medidas de seguridad de IA. También se alinea con la cumbre de noviembre pasado en Bletchley Park, donde "países afines y empresas de IA" acordaron realizar pruebas de seguridad en modelos de IA antes de su lanzamiento. Cabe destacar que Google DeepMind se destaca como el único laboratorio de IA importante que ha permitido al Instituto de Seguridad de IA del Reino Unido realizar pruebas de seguridad previas al despliegue.
El compromiso de estos gigantes tecnológicos para establecer marcos de seguridad en IA es un paso fundamental hacia la gestión de los riesgos asociados con la inteligencia artificial. Este esfuerzo colaborativo subraya el consenso global sobre la necesidad de medidas de seguridad en IA robustas para garantizar que los beneficios de la tecnología se realicen plenamente sin comprometer la seguridad.