イーロン・マスクは、私たちが知っているように、人工知能が人類を滅ぼす可能性は5分の1であると信じていると述べました。しかし、彼はリスクを負う価値があり、AIへの取り組みをやめるべきではないと信じています。
の流星的な上昇人工知能などの特定の分野では非常にポジティブです薬。それは、人間が何年も中断せずにそこに滞在しなければ不可能だったであろうことを可能にします。しかし、こうした有益な進歩の背後には、次のような懸念が横たわっています。AIはいつか私たちを支配する日が来るだろう。それはSF映画や小説にふれすぎて生じる不合理な恐怖ではありません。ChatGPT の背後にある OpenAI は、すでに AGI に近づくには行き過ぎていると考えています。 L'一般的な人工知能できる人間の脳と同じように機能する。
多くの科学者は、いわゆるp(ドゥーム)。つまり、AIが人類を乗っ取るか終わらせる可能性。それは通過する可能性があります止められない生物兵器の作成、核戦争の勃発、または大規模なサイバー攻撃それは原因となるでしょう社会の崩壊。
サム・アルトマンとともにOpenAIを設立し、2018年に辞任したイーロン・マスク氏は「ジェフ・ヒントンの意見にある程度同意します。[p(ドゥーム)は次の場所にあります]環境10 または 20%またはそのようなものそれ"。それは、ジェフリー・ヒントン, AIの先駆者の一人とされるカナダの研究者。そうは言っても、億万長者は次のように信じています。私おそらくポジティブなシナリオがネガティブなシナリオを上回る」とテクノロジーの発展を遅らせないよう呼びかけています。
のリーダーテスラなどスペースX彼がどのように計算を行ったかについては説明していない。 AIセキュリティ研究者でルイビル大学サイバーセキュリティ研究所所長のローマン・ヤンポルスキー氏は、それでも次のように述べている。それは現実とは程遠いです。それには十分な理由があります。科学者は次のように話しています。p(ドゥーム) 99.999999%、それ以上ではありません。彼によれば、次のような事態に陥ることを避ける唯一の解決策は、人工知能が制御不能になった世界それは単に作成しないでください。
こちらもお読みください –ファーウェイによると、人工知能が進化するには肉体が必要
「とにかくこのテクノロジーを追求することが良い考えだと彼がなぜ考えるのか私にはわかりません。競合他社が先にそこに到達するのではないかと彼が心配しているとしても、それは問題ではない。なぜなら、誰がそれを作ったとしても、制御されていない超知性自体が悪いからである。」とローマン・ヤンポルスキー氏は指摘する。彼の同僚の中にはまったく共有しない意見もある。もう一人の AI パイオニア、ヤン・ルカン、このように、リスクは0.01%未満という程度に人間がコントロールしている。彼は AI を特定のレベルまで進めるか、その前に停止するかを選択できます。
人工知能はスリップを避けるために制御下で開発する必要がある
イーロン・マスクはヤン・ルカンと同様のビジョンを持っています。男はこう思う2030年までに、人工知能は全人類を合わせた能力を超えるだろう。 OpenAI を非常に怖がらせるのは、有名な AGI の出現でしょうが、起業家はそれを脅威とは考えていません。男はそれに軌道を与える。 「それは子供を育てるのと似ていますが、超天才、神に近い知性を持った子供になるでしょう - そして子供をどのように育てるかが重要です」と彼は説明する。
こちらもお読みください –AI:800万人の雇用が脅かされ、この国は「黙示録」に直面している
彼にとって、何としても注意しなければならないことが 1 つあります。いかなる状況においてもAIは嘘をつくことができてはなりません、”たとえ真実が不快なものだったとしても”。実際、研究によると、AIが嘘をつくようになると、現在のセキュリティ対策では嘘を元に戻すことは不可能になる。さらに悪いことに、次のような可能性があります。人工知能は自ら嘘をつくことを学習する私たちが彼に命令することなく。ジョージ・ヒントンもそう考えており、人間よりも賢いAIは「扱いがとても上手です「、行動」彼女は私たちから学んでいることを”。これらすべての警告が、研究者に越えてはならない一線を越えないよう説得するのに十分であることを願っています。
ソース :ビジネスインサイダー