行政当局は昨日、「個人のプライバシーを尊重したAIシステムの導入に向けた行動計画」を発表した。
生成型 AI の時代にチャットGPT、CNIL の任務、その使命は次のとおりです。情報技術が確実に国民に役立つようにするそして、それらが人間のアイデンティティ、人権、私生活、個人の自由や公共の自由を侵害しないことは、必ずしも困難です。
読むには —CNIL は専用サービスで AI の未来を導くことに尽力しています
委員会のメンバーは、2017 年にアルゴリズムとAIの倫理問題に関するレポート。この問題に 6 年間取り組んできた後、CNIL は計画の中で、特に生成 AI によって引き起こされる問題と、データの機密性の観点からこのテクノロジーの悪影響を軽減するソリューションに戻ります。
それを否定することなく、「それらがどのように機能するかを理解する、その可能性と限界、および[これらのテクノロジーの]開発と使用を取り巻く法的、倫理的、技術的問題まだ大部分が議論中である» では、CNIL は、とりわけ生成 AI の開発を監督することを目的とした規制計画を提案しており、次の 4 つの部分に分かれています。
- AI システムがどのように機能し、人々に与える影響を理解する
- を有効にして監視する個人データを尊重したAIの開発
- フランスとヨーロッパの AI エコシステムの革新的なプレーヤーを団結させてサポートする
- 監査とAIシステムを制御するそして人々を守る
読むには —政府は人工知能を利用して国民の質問に答えたいと考えている
当局は望んでいるAIプレーヤーのイノベーションを制限することなく監督する、国民を守りながら。とはいえ、この新技術によって引き起こされる法的、倫理的、情報の信頼性に関する問題は非常に多く、その安全性に関する議論は決着するには程遠い。
ソース :CNIL