ChatGPT AI は科学者をだますことができるほど上手に書く

ChatGPT は科学評論家を欺くことができるでしょう。このようなレベルの洗練は科学の完全性の危機を煽る可能性がある、と新たな研究の著者らは警告している。

クレジット: アルバム / 123RF

新しいチャットボットChatGPT数か月前の発売以来、特にその優れたパフォーマンスのおかげで人気が高まっているばかりです。したがって研究者らは、このツールが説得力を持って偽の要約を作成できるかどうかを知りたいと考えていました。科学者をだまして研究が真実であると信じ込ませます。

これを行うために、ノースウェスタン大学とシカゴ大学の研究者は ChatGPT に、医学雑誌に掲載された 10 件の本物の要約から偽の研究概要を生成するよう依頼し、偽の論文と真実の論文を科学者に提出しました。これらは真実と偽りを区別することを目的としており、少なくとも言えることは次のとおりです。結果は憂慮すべきものである。

こちらもお読みくださいMicrosoftはChatGPTを気に入っており、ほぼ過半数の株主になるために100億ドルを提供している

実際の要約と誤って生成された要約が混在した人間のレビュー担当者は、ChatGPT によって生成された要約を 68% の確率でしか見つけることができませんでした。また、査読者は実際の要約の 14% を AI が生成したものと誤認しました。

研究者らはまた、chatGPTで書かれた論文を盗作検出ソフトウェアに送信した。それらの 100% が実際に一意である場合、chatGPT はソースをコピーせずに回答を生成するため、科学ジャーナルが要求するフォーマット要件を満たしているのは 8% のみです。

したがって、ChatGPT はまだすべての分野でライターに取って代わるには至っていませんが、チャットボットは数年以内に大きな進歩を遂げるはずです。学術的な科学出版物は、関連分野の人間の専門家による論文の投稿とレビューのプロセスに依存していますが、人工知能によって生成された論文と人間によって生成された論文を区別できなくなった場合、これは多くの専門職に疑問を投げかける可能性があります。

今のところ、研究者らは科学的研究に依存する医学雑誌や学会に対し、「厳格な科学的基準» 記事をレビューするときに AI 終了検出器を実装します。ある学生は、テキストがchatGPTによって生成されたかどうかを知ることができるソフトウェアも開発しました。