EU における人工知能の使用は、世界初の包括的な AI 法である AI 法によって規制されます。 それがどのようにあなたを守ってくれるのかを調べてください。
の一環として デジタル戦略、EUは、この革新的なテクノロジーの開発と使用により良い条件を確保するために、人工知能(AI)を規制したいと考えています。 AI は多くのメリットを生み出すことができます、ヘルスケアの向上など。 より安全でクリーンな輸送。 より効率的な製造。 より安価で持続可能なエネルギーを実現します。
2021 年 XNUMX 月、欧州委員会は最初の提案を行いました。 EU AI の規制枠組み。 さまざまな用途で利用できるAIシステムを分析し、ユーザーにもたらすリスクに応じて分類しているという。 リスクレベルが異なると、多かれ少なかれ規制が必要になります。 承認されれば、これらはAIに関する世界初のルールとなる。
議会が AI 法案に求めていること
議会の優先事項 EU で使用される AI システムが安全で、透明性があり、追跡可能で、差別がなく、環境に優しいものであることを確認することです。 AI システムは、有害な結果を防ぐために、自動化ではなく人間によって監視される必要があります。
議会はまた、将来の AI システムに適用できる、テクノロジーに中立な AI の統一定義を確立したいと考えています。
詳細については、こちらから AIに関する議会の取り組み とその AIの未来に対するビジョン
AI法: リスクレベルごとに異なるルール
新しい規則では、人工知能によるリスクのレベルに応じて、プロバイダーとユーザーの義務が定められています。 多くの AI システムは最小限のリスクをもたらしますが、評価する必要があります。
許容できないリスク
許容できないリスク AI システムは、人々に対する脅威と見なされ、禁止されるシステムです。 それらには次のものが含まれます。
- 人々または特定の弱い立場にあるグループの認知行動操作: たとえば、子供の危険な行動を奨励する音声起動玩具など
- 社会的スコアリング: 行動、社会経済的地位、または個人的特徴に基づいて人々を分類する
- 顔認識などのリアルタイムおよびリモート生体認証識別システム
いくつかの例外が認められる場合があります。たとえば、大幅な遅延の後に識別が行われる「ポスト」遠隔生体認証システムは、重大犯罪の訴追が許可されますが、これは裁判所の承認があった場合に限られます。
リスクが高い
安全性や基本的権利に悪影響を与える AI システムは高リスクとみなされ、次の XNUMX つのカテゴリに分類されます。
1) 該当する製品に使用されているAIシステム EUの製品安全法。 これには、おもちゃ、航空、自動車、医療機器、エレベーターが含まれます。
2) AI システムは XNUMX つの特定領域に分類され、登録する必要があります。 EU データベース:
- 自然人の生体認証と分類
- 重要インフラの管理・運用
- 教育と職業訓練
- 雇用、労働者の管理、自営業へのアクセス
- 重要な民間サービス、公共サービスおよび福利厚生へのアクセスと享受
- 法執行機関
- 移民、亡命、国境管理の管理
- 法律の解釈と適用の支援。
すべての高リスク AI システムは、市場に投入される前に評価され、ライフサイクル全体にわたって評価されます。
生成AI
ChatGPT のような生成 AI は、透明性要件に準拠する必要があります。
- コンテンツがAIによって生成されたことを開示する
- 違法なコンテンツが生成されないようにモデルを設計する
- トレーニングに使用された著作権で保護されたデータの概要の公開
限られたリスク
リスクが限定された AI システムは、ユーザーが情報に基づいた意思決定を行えるよう、最小限の透明性要件に準拠する必要があります。 アプリケーションを操作した後、ユーザーはアプリケーションの使用を継続するかどうかを決定できます。 ユーザーは、AI と対話しているときにそれを意識する必要があります。 これには、ディープフェイクなどの画像、音声、ビデオ コンテンツを生成または操作する AI システムが含まれます。
次のステップ
議会は2023年XNUMX月に交渉上の立場に合意する予定で、その後、法の最終形態について理事会でEU諸国と協議が始まる。
今年末までに合意に達することが目標だ。