OpenAI の CEO であるサム アルトマン氏は、自らこう述べています。「人工知能は私たちの社会にとっての危険を表しています。」後者はブログ投稿の中で、原子力発電に導入されているものと同じモデルに基づいて、この急成長する産業に対する規制システムを構築するよう各国政府に求めている。
上げられた声はもう数えません私たちの社会にとってAIに内在するリスクを非難する。しかし、現時点でこの分野で最も注目を集めている企業である OpenAI の CEO からこれらの警告が直接発せられるとは、私たちはあまり期待していませんでした。実際、ChatGPT の創設の背後にある人物は明白です。この業界の規制システムを世界規模で迅速に導入することが不可欠であるということです。
「今後 10 年以内に、AI はほとんどの分野で専門家のスキル レベルを超え、今日の最大手企業の 1 社と同等の生産的な活動を行うようになる可能性があります。」、後者をブログ投稿に書いています。彼によれば、彼が「超知性」と呼ぶものは、間もなく人類の最も強力なテクノロジーになるでしょう。
これが意味するあらゆる約束にもかかわらず、そのような電力が生み出すリスクを過小評価してはいけない、と彼は強調する。また、サム・アルトマンは、この分野をより適切に規制するための 3 つの検討手段を提供しています。まず、人工知能に取り組んでいる企業は、ユーザーの安全を確保する作業方法を開発するために連携する必要があると同氏は考えています。
したがって、同氏は、これらすべての企業が協力して取り組むことができるプロジェクトを政府から募集することや、AI の成長が毎年超えてはならない限界を定義する共通の合意さえも実現できることを想像している。「企業は非常に高い水準のセキュリティを維持する責任を負うべきです。」と彼は付け加えた。
次にサム・アルトマン氏は、AIには原子力の平和利用を保証する役割を持つ国際原子力機関のような規制当局が必要だと主張する。「一定の容量のしきい値を超える取り組みは、システムの検査、監査の要求、セキュリティ標準への準拠の検証、導入の程度やセキュリティ レベルの制限などを行うことができる国際機関に提出する必要があります。 」。
同じテーマについて —ChatGPT: チャットボットの OpenAI の毎日のコストが信じられないほど
OpenAI の CEO は、自分のアイデアを提案するために、この責任のすべてを政府に負わせることを避けるために、企業がこの国際機関と協力する方法を一緒に考えることができると示唆しています。最後に、最後のポイントは、AI を安全にするための企業の技術力に関するものです。 Sam Altman 氏は、Open がこの分野の研究に多くのリソースを投入していることを保証します。
それにもかかわらず、後者は、企業がプロジェクトを自由に開発できるようにする必要があると宣言して結論付けています。「しかし、最も強力なシステムのガバナンスとその導入に関する決定は、厳格な公的管理の対象となる必要があります。」と彼は断言した上で、AIは民主主義の問題であり、それについては国民も発言権を持っていると主張する。
「現在のシステムは世界中でかなりの価値を生み出すことになり、リスクは伴いますが、それらのリスクのレベルは他のインターネット技術のレベルに比例しているようであり、同社のおそらくアプローチは適切であると思われます。」タームティル。
ソース :OpenAI