OpenAI (ChatGPT) は人類にとって危険すぎる発見をしたことを懸念

ここ数日間、OpenAI が完全な混乱に陥っている中、数名の研究者が取締役会への書簡で懸念を表明しました。彼らは特に、同社が実施したプロジェクトの 1 つである Q* プロジェクトが、人類にとって危険すぎると考えられる開発段階に達していると説明しています。サム・アルトマン解任のきっかけとなった可能性のある手紙。

今週初めに再雇用する前に、取締役会が OpenAI の CEO であるサム・アルトマン氏を解任するよう促した理由がようやく判明したのだろうか?事実を少し思い出させてください。今年 11 月 17 日、ChatGPT を開発した OpenAI は、上司の辞任を発表しました。その後に起こったのは、テクノロジー業界をハラハラさせ続ける一連の冒険でした。

従業員500人を解雇するとの脅迫、Microsoftによる従業員の雇用の約束、Twitchの元上司の同社トップへの任命、そしてついにサム・アルトマン氏の経営陣への復帰までの間、私たちはその後のすべてを耐え忍ばなければならなかった。それで私たちはシリーズが終わったと思っていました。ロイターの同僚が極めて重要な文書を入手するまでは。

同じテーマについて —OpenAI、AIが生成した画像を検出するツールを開発、ディープフェイクを消すには不十分

この文書は OpenAI 研究者のグループによって書かれた手紙です。取締役会を対象としており、Q*(Q スターと発音します)。当初、Q* プロジェクトは AI に数学的問題を解決できるようにすることから構成されています。同社は現在までに、子供向けの問題に対処できるAIを開発したと伝えられている。

したがって、本当に素晴らしい結果が得られるまでには、まだ道のりがあると考えることができます。しかし、この手紙の著者にとって、このマイルストーンはすでに越えられています。数学的問題を解決するには、適切な応答を選択するためのプロンプトを「単に」分析する ChatGPT のようなチャットボットよりも、AI のはるかに高度な機能が必要であると言わなければなりません。

したがって、研究者らは Q* プロジェクトの進行に対して OpenAI 取締役会に警告したいと考えていたでしょう。後者は躊躇なく警戒心を強めます。彼らによると、同社が行った発見は現在、人類にとっての本当の危険。研究者が何を懸念しているのかを完全に理解するには、まず AGI とは何かを理解する必要があります。

OpenAI は AGI に近づくだろう、それは悪いニュースだ

AGI (汎用人工知能)、または一般的な人工知能、ある意味で究極の AI モデルです。そのアイデアは、人間の脳と同様に機能する AI を作成することであり、理論的にはまったく同じタスクを実行できるようになります。仕事の世界における AI の躍進についてすでに懸念しているのであれば、AGI は私たちの経済モデルを完全に破壊するでしょうなぜなら、企業が人間の従業員ではなくそれらを使用することを妨げるものは何もないからです。

ロイターが文書にアクセスしていないため、書簡の著者らがこれを強調していたかどうかは不明だ。一方、メディアは2人の異なる情報源に質問することができ、彼らは手紙が実際に送られたことを確認し、そして何よりも次のことを確認した。後者はサム・アルトマンの解任を引き起こした。 OpenAIのボスは開発から逃げない近い将来、雇用市場を弱体化させるツール

しかし、解任の前日、同氏はAPEC首脳会議でのコメントを繰り返し、Q*プロジェクトの目覚ましい進歩を目の当たりにすることができたと宣言した。この辞任は、当時運動のメンバー数名で構成されていた理事会にとって最後の一撃となっただろう。効果的な利他主義人工知能の能力を制限することを主張する人。現在、OpenAI は刷新された取締役会とサム・アルトマン氏が再び指揮を執り、率いています。

ソース :ロイター