特に AI に関する研究で知られる世界的に有名な研究者であるジェフリー・ヒントンが、Google の社員を辞めたばかりです。この科学者は将来が心配で、「自分の人生をかけた仕事」を後悔しているとさえ言う。
ジェフリー・ヒントンという名前はあなたにとって何の意味もないかもしれませんが、人工ニューラル ネットワークに関するこの世界的に有名な研究者の研究がなければ、次のようなツールが登場します。チャットGPT、グーグル吟遊詩人、旅の途中、または岩盤決して日の目を見ることはなかったでしょう。
この 75 歳の科学者は、2019 年にコンピューターサイエンスの分野におけるノーベル賞に相当する名誉あるチューリング賞を受賞しました。10 年間勤務した後、Google の扉を閉めます。機密保持条項がなくなったこの AI パイオニアは、多くのメディアで講演することにしました。このテクノロジーのリスクについて警告します。
2023 年 5 月 1 日に公開された記事で、ル・ニューヨーク・タイムズ、ジェフリー・ヒントンは次のように信じています。このテクノロジーの将来のバージョンは人類にとって危険となる可能性があります。」彼はさらに次のように付け加えています。彼自身の一部は自分の人生の仕事を後悔している。」
英国系カナダ人の認知・計算心理学者はBBCのインタビューで、ChatGPTのようなカジカは可能性があると語った。人間の脳の情報と知性のレベルを間もなく超えます。「今のところ、私たちが目にしているのは、ChatGPT-4 のようなものは、一般知識という点で人間の常識をはるかに超えているということです。推理力に関しては、それほど優れているわけではありませんが、簡単な推理はすでにできるようになっています」彼は説明する。
AI開発の一時停止は不可欠です
同氏にとって、規制や安全措置の確立につながるという観点から、これらの技術の熱狂的な開発から一時休止することが不可欠だという。 2023 年 4 月の初めに、数千人の専門家が公開書簡に署名(特に、ジェフリー・ヒントンの元協力者であるヨシュア・ベンジオ、さらにはテスラの CEO で OpenAI の共同創設者であるイーロン・マスクがその中で警鐘を鳴らしていることがわかりました)。
科学者としては、Google での役職に就いている限り、署名者になることを望まなかった。 「Google への影響を心配せずに AI の危険性について話せるようにするために退職しました。」彼はツイートで言った。
真実と虚偽の区別ができなくなった
現時点では、ジェフリー・ヒントン氏の懸念は主に、これらの AI を活用したツールによる虚偽の画像、ビデオ、記事の作成に集中しています。それで、彼は次のような考えに恐怖を感じていると言います。普通の人はもはや真実と虚偽を区別できません。」最近の研究でも次のことが明らかになりましたウェブ上で AI によって書かれた記事の数が増加。研究者も懸念しているこれらの技術はロボット工学を介して軍事目的に利用されます(ターミネーターなんて誰が言った?)
いずれにせよ、ジェフリー・ヒントンのスピーチは次のような時期に行われた。多くの政府はChatGPTの悪影響を疑問視していますおよびその他の AI ベースのツール。 2023年3月には、イタリアは自国の領土内でChatGPTをブロックすることを決定した。イタリアのデータ保護当局によると、OpenAI と ChatGPT は GDPR に準拠していません。フランスでは、ChatGPT は引き続き許可されます。しかし、デジタル移行大臣のジャンノエル・バロー氏は、AIをテーマにしたヨーロッパの法律をできるだけ早く制定するよう求めています。