Googleは、AI(人工知能)による人類の滅亡を防ぐための7つの法律または倫理原則のリストを作成しています。同社がアメリカ軍と協力してMavenプロジェクトに関与したことは、社内に大きな混乱を引き起こした。多くの従業員が辞めると脅した。最終的に、Google は考えを変える必要があり、AI 分野での行動をより倫理的なものにすることを決定しました。
検索大手はブログで次のように説明しています。Google は、重要な問題を解決し、人々の日常生活を助けるテクノロジーの開発を目指しています”。同社は大いに信じていますAIの可能性へ今後も更なる発展に努めてまいります。具体的には、ユーザーは同社が提供する数多くのサービスを通じてすでにその恩恵を受けています。最も具体的な例は Google アシスタントですそして最近ではレンズがフランスに到着したばかりですとりわけ物体、場所、記念碑を認識できるようになります。しかし、Google は常に AI を親切に活用してきたわけではありません。
Google: 巨人の 7 つの倫理原則のリストを発見
実際、Google はプロジェクト Maven で国防総省と協力して戦争活動に参加しました。巨人の AI とインフラストラクチャは、物体、特に潜在的なターゲットを認識することを目的としたテクノロジーの開発に使用されています。会社は複数の辞任の脅威に直面しなければならなかったので、社内では緊張が高まっていました。最終的にグーグルは辞任せざるを得なくなり、2019年までに米軍との協力はなくなる。でも、まだ終わっていないので、二度と同じことが起こらないように、Googleはグループをまとめる必要があった「倫理委員会」は誠意を示すためにその写しを提出したのです! Google の 7 つの倫理原則のリストは次のとおりです。
- 社会的に有益であること:新しいテクノロジーの範囲は社会全体にますます影響を与えています。 AIの進歩は、ヘルスケア、セキュリティ、エネルギー、交通、製造、エンターテインメントなどの幅広い分野に変革的な影響を与えるでしょう。 AI を使用したテクノロジーの開発と利用の可能性を検討する際には、幅広い社会的および経済的要因を考慮する必要があります。”。これは Google の強いこだわりであり、おそらくこの最初の点で印象を残したいと考えています。
- 不公平を避ける:「私たちは、人々、特に人種、民族、性別、国籍、収入、性的指向、能力、政治的または宗教的信念などの敏感な特性に関連する人々に対する不当な影響を避けるよう努めます。”。
- 安全性を確保するために製造およびテストされること。」私たちは AI システムを慎重に設計し、AI の安全性研究のベストプラクティスに従って開発するよう努めます”。
- 人に対して責任感を持つ:「フィードバック、適切な説明、アピールの適切な機会を提供する AI システムを設計します。”。
- プライバシー原則を統合します:当社は、通知と同意の機会を提供し、プライバシー保護を備えたアーキテクチャを奨励し、データ使用に対する適切な透明性と制御を提供します。”。
- 科学的卓越性の高い基準を維持する:」技術革新は、科学的手法と、オープンな調査、知的厳密性、誠実性、コラボレーションへの取り組みに根ざしています。 AI ツールは、生物学、化学、医学、環境科学などの重要な分野における科学研究と知識の新たな分野を解き放つ可能性を秘めています。”。
- 以下の原則に従って使用できるようにすること。多くのテクノロジーには複数の用途があります。潜在的に有害または不正なアプリケーションを制限するよう努めます”。
Google:AIはこれら4つの目標を追求しない
まだ終わってないよ、Google は特定の行為も禁止しています、同社は間違いなく、社内で名乗り出た多くの従業員によってそうするよう後押しされています。 Google が開発を意図していない AI アプリケーションの例のリストは次のとおりです。
- 地球規模の危害を引き起こす、または引き起こす可能性のあるテクノロジー。危害の重大なリスクがある場合、利益がリスクをはるかに上回っていると判断し、適切な安全制約を組み込んだ場合にのみ続行します。
- 主な目的または実装が人に直接傷害を引き起こす、または促進することである武器またはその他の技術。
- 国際的に認められた基準に違反して、監視のために情報を収集または使用するテクノロジー。
- 広く受け入れられている国際法と人権の原則に違反する目的を持つ技術。
Googleは、このリストは時間の経過とともに、また人工知能の分野で学習するにつれて進化する可能性が高いと警告している。コメントでご意見をお聞かせください。Google がこの方針を維持することを信頼できると思いますか?