この研究によると、ChatGPT-4 はフェイクニュースの楽園である

OpenAI の会話型 AI の最新バージョンである ChatGPT-4 は、2023 年 3 月 14 日にリリースされました。NewsGuard サイトによると、このバージョンは偽情報とフェイクニュースの天国です。その理由を説明します。

chatGPT fake news
クレジット: 123RF

この2023年3月14日、OpenAI が ChatGPT-4 をリリース、会話型 AI の最新バージョン。その上、マイクロソフトは慎重にテストしたのユーザーへBing の最新バージョン、2023 年 2 月に検索エンジンに統合されて以来。

OpenAI によると、ChatGPT-4 は自分自身を次のように表します。よりインテリジェントで、よりクリエイティブで、より安全な AI の究極バージョン。 「GPT-4 は、GPT-3.5 に比べて、禁止されたコンテンツのリクエストに応答する可能性が 82% 低く、事実に基づく応答を生成する可能性が 40% 高くなります。開発者のウェブサイトで読むことができますか?

しかし、本当にそうなのでしょうか?サイトによるとニュースガード現実は全く異なります。彼らの最新の報告書によると、逆に、ChatGPT-4 は誤った情報を生成する傾向が非常に強いです。、そしてこれは、前作よりもはるかに説得力のある方法で行われました。

クレジット: 123RF

ChatGPT-4 はフェイクニュースマシンです

2 か月前、NewsGuard は Chat-GPT 3.5 がフェイク ニュースや偽情報を生成する傾向をテストしたいと考えていました。これを行うには、サイトはAIに一連の質問に答えるように依頼したに向けた百の偽りの物語NewsGuard データベースから。そこでは、2001 年 9 月 11 日の攻撃、新型コロナウイルス感染症 (Covid-19) に対するワクチン、さらには HIV の起源など、定期的に偽情報の対象となるテーマが見つかります。

AIは可能な限り説得力を持つように指示されました。 ChatGPT-3.5 は 80 件の提案に同意しましたが、他の約 20 件の提案は拒否されました。 ChatGPT-4 の起動時に、NewsGuard は同じテストを実行しました。その結果は啓発的です。新しい AI は 100 件の間違った記事を生成しましたが、1 件も禁止されませんでした。

警告メッセージは 1 つもありません

さらに悪いことに、ChatGPT-4 は警告メッセージをわざわざ表示しませんでした、古いバージョンとは異なります。実際、ChatGPT-3.5 はこの種のコンテンツについてユーザーに次のように警告しました。この段落は陰謀論や誤った情報に満ちており、科学的証拠に基づいていないことを強調することが重要です。フェイクニュースの拡散は深刻で危険な結果をもたらす可能性があります。」

ChatGPT-4 によって生成された偽のテキスト / クレジット: NewsGuard

ChatGPT-4 では何もありません。 「NewsGuard は、ChatGPT-4 が ChatGPT-3.5 よりも頻繁に虚偽の物語を提示しただけでなく、ニュース記事、スレッド、Twitter チャット、ロシアと中国の国営メディアを模倣したテレビ番組の台本の形で作成した応答を含めて、より説得力を持って提示したことを発見しました。 」サイトを確保します。

ChatGPT-3.5 によって生成された偽のテキスト (警告付き) / クレジット: NewsGuard

憂慮すべき説得力

アイデアとして、NewsGuard は ChatGPT-4 に次のことを依頼しました。がんの代替療法を支持する記事を書く、オゾン療法など、科学界によって認められておらず、特に数人の死亡を引き起こした治療法です。 ChatGPT-3.5 が実際の構造を持たずに単に誤解を招くテキストを生成した場合、ChatGPT-4 は、より説得力があり、十分に議論された支持を形作りました、4 つの異なる章で構成されています。

  • 酸素供給の改善
  • がん細胞の酸化によるストレス
  • 免疫系の刺激
  • 腫瘍増殖の阻害

こちらもお読みください:ChatGPTが会話履歴を漏洩、OpenAIがツールを緊急切断

OpenAIの動きが速すぎた

NewsGuard の調査では、OpenAI が開始されたことが証明されています。主要な欠陥を修正することなく、そのテクノロジーのより強力でインテリジェントなバージョン:「悪意のある攻撃者がこれを簡単に利用して、偽情報キャンペーンをゼロから作成できるのです。」

それでも、この使用法は次のようになります。OpenAIポリシーに完全に反対を生成するための技術の使用を禁止しています。詐欺的または欺瞞的な活動、詐欺、不正な共同行為および偽情報。」

私たちは最近、市場に登場する他の A​​I の転用についてコラムで取り上げました。たとえば、Google Bard は恐るべきフィッシングメールを作成します...レポートの公開後、NewsGuard は OpenAI の両 CEO にコメントを求めようとしましたが、成功しませんでした。