Dans une démarche significative pour garantir le développement et le déploiement sécurisé de l'intelligence artificielle, des entreprises technologiques de premier plan, y compris OpenAI, Amazon, Microsoft et Google DeepMind, se sont engagées à établir des cadres de sécurité IA complets.
Ces mesures visent à atténuer ou à prévenir entièrement les dommages potentiels associés à la technologie IA.
Cet engagement volontaire, également soutenu par la firme chinoise Zhipu.ai et l'Institut d'Innovation Technologique des Émirats, a été annoncé lors du Sommet IA de Séoul.
Cet événement fait suite au Sommet sur la sécurité de l'IA de Bletchley, co-organisé par le Royaume-Uni et la République de Corée.
Cela souligne l'importance de la coopération internationale pour établir des normes de sécurité de l'IA à l'échelle mondiale.
Les entreprises ont convenu collectivement que si les risques associés à l'IA ne peuvent pas être suffisamment atténués dans des circonstances extrêmes, elles s'abstiendront de développer ou de déployer de tels modèles ou systèmes. Cette position proactive met en évidence leur engagement à prioriser la sécurité plutôt que le progrès dans des scénarios à haut risque.
Cadres de sécurité détaillés
Les entreprises participantes se sont engagées à publier des cadres de sécurité détaillés. Ces documents définiront les méthodologies pour évaluer les risques associés à leurs modèles d'IA, y compris l'identification et la prévention des risques graves jugés intolérables. Cette transparence devrait établir une référence pour les protocoles de sécurité de l'IA dans le monde entier.
« Ces engagements garantissent que les principales entreprises d'IA au monde fourniront transparence et responsabilité sur leurs plans pour développer une IA sûre », a déclaré le Premier ministre britannique Rishi Sunak. Il a souligné que cet accord établit une norme mondiale pour la sécurité de l'IA, essentielle pour débloquer les avantages transformateurs de cette technologie.
Poursuivre l'élan de Bletchley Park
Cet accord récent s'appuie sur l'élan de la Déclaration de Bletchley, où 27 nations se sont engagées à collaborer sur des mesures de sécurité de l'IA. Cela s'aligne également avec le sommet de novembre dernier à Bletchley Park, où des « pays partageant les mêmes idées et des entreprises d'IA » ont convenu de réaliser des tests de sécurité sur les modèles d'IA avant leur publication. Notamment, Google DeepMind se distingue comme le seul grand laboratoire d'IA ayant permis à l'Institut de sécurité de l'IA du Royaume-Uni de réaliser des tests de sécurité avant le déploiement.
L'engagement de ces géants de la technologie à établir des cadres de sécurité pour l'IA est une étape cruciale pour gérer les risques associés à l'intelligence artificielle. Cet effort collaboratif souligne le consensus mondial sur la nécessité de mesures de sécurité robustes pour garantir que les avantages de la technologie soient pleinement réalisés sans compromettre la sécurité.