人工知能、および機械学習の今のところより一般的なサブセクションは、反対意見の公正なシェアなしではありませんでした。XNUMXつの重要な倫理的問題について懸念が提起されています。市民のプライバシー、および複雑な状況を判断してそれに基づいて行動する人間のような能力をシミュレートするという、やや形而上学的な問題。
今週初め、政治ジャーナリズムサイトのポリティコからの報告は、欧州連合が特定のアプリケーションと使用法での人工知能の使用を効果的に禁止する幅広い法律の潜在的な実施を検討していることを示唆するリークされた提案について報告しました。
人工知能が影響を与える可能性のある主な分野には、クレジットスコアの論争の的となっているトピックや大量監視が含まれます。 これにより、欧州連合と米国および中国との間に実質的な差別化がもたらされ、人工知能のそのようなアプリケーションは開発中であるか、すでに使用されています。
中国の大量監視システムは、ウイグル人の人口を監視するために新疆ウイグル自治区で適用されたため、最近、活動家や政治アナリストの注目を集めました。 「ウイグル人は長い間、あらゆる動きを追跡、分析、記録し、異議の証拠を求めて個人的なコミュニケーションを精査するハイテク監視下に置かれてきました」と、マイケル・チャートフとN.マクドネル・ウルシュは今月初めにワシントンポストの記事に書いています。 「この監視文化を複雑にしているのは、人間とのチェスの試合に勝つために設計された目新しさから、顔認識と個人プロファイリングが可能な科学への人工知能の進化です」と記事は付け加えました。
EUに関連して、リークされた提案には、すべての加盟国がリスク要因の高い人工知能システムの特定の評価と評価のための専門委員会を設置するという義務が含まれます(つまり、そのアプリケーションはデリケートなビジネスまたは社会セクターに適用されます) 。
多くのメディア出版物によって報告されている提案の草案は、法律が「人の自動監視と追跡を含む無差別監視のための人工知能技術の使用を明示的に禁止するだろう」と述べています。 知覚される信頼のレベルと金銭的手段を決定するために、いくつかの要因を使用して社会的信用スコアを作成することを目的とする人工知能アプリケーションの使用を禁止します。 公共の場所で顔認識などのリモート生体認証システムを使用するには、委員会またはその他の専用機関による承認が必要です。
提案はまた、これらの問題に対処するための特別機関の設立を伴うでしょう。 この機関は暫定的に欧州人工知能委員会と呼ばれ、各加盟国を代表する特別捜査官で構成されます。 これらの代表者はまた、欧州委員会がどの人工知能システムを「高リスク」として指定すべきかを決定するのを助けることができ、提案された禁止およびAI使用の制限に対する特定の変更を容易にすることもできます。
アナリストからの初期の反応は、これはプライバシーやその他の保護のための正しい方向への一歩であるが、 人権 EUでは、ドラフトのリークされたバージョンで使用されている現在の言語は曖昧で不確定であり、企業や組織がそれを完全に回避したり、それを処理したりすることができます。
「私の意見では、これは新しいテクノロジーとイノベーションに対するブリュッセルの典型的なアプローチを表しています。 疑わしい場合は、規制してください。 高リスクAIシステムを登録するための新しいデータベースを追加します(タイトルVIII)。 95/46DPDの時代へのかなりの逆戻り。 そして、1970年代の技術規制へのアプローチ」 と Omer Tene、非営利IAPP(国際プライバシー専門家協会)の副社長。
「(漏洩した文書の)付録IIは、「高リスクAIシステム」を定義しています。 これらのシステムは、規制の全面的な推進力の対象となります。 それは幅広く、教育機関への受け入れや教育試験、就職活動、クレジットスコアリング、刑事司法制度などに使用されるAIシステムが含まれます。 規制の主要な規定は、「禁止されたAI慣行」を定義する第4条です。 それは漠然としていて、潜在的にすべてを網羅しているので、それは大きな驚きを引き起こすでしょう」とテネは付け加えました。