人工知能の安全な開発と展開を確保するための重要な一歩として、OpenAI、Amazon、Microsoft、Google DeepMindなどの主要なテクノロジー企業は、包括的なAI安全フレームワークを確立することを誓約しました。
これらの措置は、AI技術に関連する潜在的な危害を軽減または完全に防ぐことを目的としています。
この自発的なコミットメントは、中国企業Zhipu.aiとUAEのテクノロジーイノベーション研究所の支援を受けており、発表されました。 AIソウルサミット.
このイベントは、次のステップとして位置付けられています ブレッチリーAI安全サミット、英国と韓国が共同開催しました。
国際的な協力がグローバルなAI安全基準の確立において重要であることを強調しています。
企業は、AIに関連するリスクが極端な状況下で十分に軽減できない場合、それらのモデルやシステムの開発または展開を控えることに合意しました。この積極的な姿勢は、高リスクのシナリオにおいて進歩よりも安全を優先するというコミットメントを強調しています。
詳細な安全フレームワーク
参加企業は、詳細な安全フレームワークを公開することを約束しました。これらの文書は、AIモデルに関連するリスクを評価するための方法論を概説し、受け入れられないと見なされる重大なリスクの特定と防止を含むものです。この透明性は、世界中のAI安全プロトコルの基準を設定することが期待されています。
「これらのコミットメントは、世界の主要なAI企業が安全なAIを開発する計画に関して透明性と説明責任を提供することを保証します」と英国首相リシ・スナックは述べました。彼は、この合意がAI安全のためのグローバルスタンダードを設定しており、この技術の変革的な利点を引き出すために不可欠であると強調しました。
ブレッチリー・パークからの勢いを継続する
この最近の合意は、 ブレッチリー宣言27カ国がAIの安全対策に関する協力を約束した場所です。また、昨年11月のブレッチリー・パークでのサミットとも一致しており、そこで「志を同じくする国々とAI企業」がAIモデルのリリース前に安全テストを実施することに合意しました。特に、Google DeepMindは、英国のAI安全研究所に事前配備安全テストを実施させた唯一の主要なAIラボとして際立っています。
これらのテクノロジー大手によるAI安全フレームワークの確立に対するコミットメントは、人工知能に関連するリスクを管理するための重要なステップです。この共同の取り組みは、安全を損なうことなく技術の利点を最大限に引き出すために、強力なAI安全対策の必要性に関する世界的な合意を強調しています。