人工知能に関する欧州規制が発効し、AIをリスクレベルに応じて分類

AIに関する欧州規制であるAI法が正式に発効した。人工知能の使用を規制するために、システムが表すリスクに応じてシステムを分類します。

Le drapeau de l'Europe
クレジット: 123RF

2023年末の歴史的な投票そして1つ欧州議会による波乱万丈の採択数か月後、AI法は2024年8月1日から施行されています。念のために言っておきますが、この規制は以下を規制します。欧州連合における人工知能の使用。 2025年8月2日までに、各EU加盟国はこの分野の監視を担当する当局を指名し、文書の適用を監督する必要がある。

こちらもお読みください –メタは「制限のないAI」の立ち上げを望んでおり、この組織はそれを阻止するためにヨーロッパ11か国で苦情を申し立てている

欧州委員会また、グローバル組織を設立します。AIオフィス。このプロジェクトは、1 社を含む他の 3 社によってサポートされます。専門科学者で構成される独立したグループそして諮問フォーラムさまざまな関係者が集まります。違反が発生した場合、違反企業には罰金が科される可能性があります全世界の年間売上高の最大 7% の罰金

ヨーロッパでは、AI は国民にとってのリスクのレベルに応じて分類されています

企業の義務をより明確に定義するために、ヨーロッパの文書ではすべての人工知能システムが次のように分類されています。4つのリスクレベル:

  • 最小限のリスク: AI 法によって定められた要件の対象ではありません。たとえば、次のようなものです。AIによるレコメンデーションまたはで使用されますスパムフィルター。大部分のシステムはこのカテゴリに分類されます。
  • 特定の透明性リスク: ザチャットボットもその一部です一部の AI 生成コンテンツ画像、ビデオ、音声のいずれについて話しているのか。会話ロボット」ユーザーがマシンと対話していることを明確に示す必要があります「生成 AI からのコンテンツである一方で、」そのようにラベル付けする必要があります”。また、それらは簡単に検出可能でなければなりません。
  • 高リスク: ここで話しているのは採用活動にAIを活用で、銀行融資を受ける権利の評価またはに自律型ロボットの活用、とりわけ。これらのシステムの対象となるのは、非常に厳しい要件がたくさんあります(活動の記録、詳細な文書化、人間による制御、サイバー攻撃からの保護など)。
  • 許容できないリスク: 完全に禁止、このカテゴリには AI システムが含まれます。として考慮されます人々の基本的権利に対する明らかな脅威”。この文章では、音声アシスタントが未成年者に危険な行動を促すおもちゃを例に挙げています。個人向けの社会的評価システムまたは "いくつかの予測型警察アプリ”。も禁止されています」職場で使用される感情認識システム、および公衆がアクセスできるスペースで法執行目的で人を分類したり、リアルタイムで遠隔生体認証を行うための特定のシステム (いくつかの例外を除く)”。

AI 法の大部分は 2026 年 8 月 2 日から適用されます。ただし、「許容できないリスク」カテゴリーにおける AI の禁止は 2025 年の初めに発効します。