Skip to main content Skip to footer
アナウンスメント 3分(読了目安時間)

EU AI法案:規制されたAIに備える準備はできているか?

2024/07/16

待ち望まれていたヨーロッパ連合(EU) AI法案がついに公表されました。この法案について知っておくべきこと、どのような行動を取る必要があるのか、重要な点を述べます。

EU AI法案は、現時点で世界で最も包括的なAI関連法案です...

EU AI法案は、多国籍組織にとって重要な影響をもたらすでしょう。なぜなら、この法案の適用範囲はグローバルに広がるからです。EU内でAIシステムを開発または展開する組織は、法令遵守が求められます。

また、銀行業、保険業、医療、ライフサイエンスなどの産業で現在使用されている多くの重要なAIシステムが影響を受けることが予想されます。これらのシステムは法案によって「高リスク」に分類され、法令遵守に対する新たな法的義務や重い罰則が課せられることになります。

新たな義務とは何か?

この法案では、AIシステムを「最小限のリスク/リスクなし」「限定的なリスク」「高リスク」および「受け入れがたいリスク」の4つのカテゴリーに分類し、規模が大きくなるにつれて義務と罰則が強化される仕組みになっています。

例えば、電子メールのスパムフィルターのような狭い手続き的なタスクを実行するシステムは通常、低リスクとされます。しかし、ソーシャルスコアリングやリアルタイムの顔認識などの技術は「受け入れがたいリスク」と見なされ、完全に禁止されることになります。

高リスクなAIシステムを開発する企業は、新たな義務を遵守するため積極的に評価し、準備する必要があります。これには基本的権利の影響や適合性評価、運用モニタリング、リスクおよび品質管理システム、公開登録、その他の透明性要件が含まれる可能性があります。

外部ベンダーによって開発されたAIシステムを展開する企業は、開発者の指示に従ってこれらのシステムを監視する必要があります。また、公共サービスや金融など重要な分野でAIを展開する場合、追加の義務も負うことになります。

なぜ今行動を起こさなければならないのか

多国籍組織は準備する時間がありません。法案が2024年8月に施行されてからわずか6ヶ月後には受け入れがたいシステムが禁止され、多くの企業が現在使用している重要なシステムも影響を受ける可能性があります。

例えば、感情認識です。職場や教育環境での感情認識は、安全上の理由(航空パイロットが眠気を防ぐためのシステムなど)でない限り、「受け入れがたいリスク」として法案によって禁止されます。

もし、あなたの企業が従業員の業務を支援するためにAIベースの感情認識システムを使用している場合、法令を遵守するためには2025年1月末までしか期限がありません。

「私たちは、クライアントが自らの再創造の議題をより広い視点で捉える手助けをしており、特に法案の業界固有の影響に焦点を当てています。」

Arnab Chakraborty / Chief Responsible AI Officer

何をすべきか

EU AI法案によって設けられた義務に基づいてガバナンスを行うための原則はありますか?

企業内でAIが開発および展開されている場所や、それらの様々なユースケースの潜在的なリスクを評価しましたか?

AIシステムの公平性、説明可能性、透明性、正確性、安全性などについてテストする能力を確立しましたか?

AIシステムと責任あるAIイニシアチブを監視し、同時に緩和策や法令遵守措置を実行する適切な監視と監督体制は整っていますか?

ビジネス機能全体にわたるリーダーシップを巻き込み、従業員への影響、法的遵守、持続可能性、プライバシー/セキュリティプログラムなどの要因に対処するため、組織全体で共同責任を果たしていますか?

お問い合わせ

私たちはこの分野での経験に基づいた独自の視点を提供できます。責任あるAIを完全に運用するためには何が必要かを第一線で知っています。特定の業界の微妙なニュアンスやテクノロジープラットフォームパートナーの提供について理解しています。また、Stanford、MIT、世界経済フォーラム、米国国立標準技術研究所のAI安全研究所などの学術機関、産業界、公共団体とのパートナーシップを通じて、この分野が進化する中で常に最先端に立ち続けることを約束します。