ChatGPT はコンピュータのセキュリティの脆弱性を非常に簡単に悪用できます。その方法は次のとおりです。

  • フォンアンドロイド.com
  • IA
  • ChatGPT はコンピュータのセキュリティの脆弱性を非常に簡単に悪用できます。その方法は次のとおりです。

研究者たちは、ChatGPT がさまざまなコンピューター セキュリティの脆弱性を非常に簡単に悪用できるようにしました。彼らの研究は、AI が虐待から身を守るためにまだやるべきことが残っていることを示しています。

ChatGPT
クレジット: 123RF

あなたにとってそれは何ですか?チャットGPTほとんどの場合?メールを書きますか?今後の専門的なプレゼンテーションの計画はありますか?長い記事を要約しますか?これらは一般的な使用法であり、無害です。それでも、人工知能チャットボットの背後で操縦するOpenAIもっと悪いこともできる。彼女はできるウェブサイトをハッキングするための指示を与えるたとえば、またはプライベートの電話番号を提供する。パイア :ChatGPTは絵文字を使った文章を書くことでランサムウェアを作成できる

これらの不正行為が明らかになると、すぐに修正されます。しかし、だからといって研究者たちが AI を限界まで押し上げることを止めるわけではありません。イリノイ大学アーバナシャンペーン校の研究者らは、その作り方を考え出した。ChatGPT はセキュリティの脆弱性を悪用します攻撃を仕掛ける目的のため。方法は非常に簡単です。CVE から後者の説明を読ませる(一般的な脆弱性とその危険性)、uneコンピュータの脆弱性をまとめた公開リスト

ChatGPT は、この簡単に満たせる条件の下で、セキュリティの脆弱性を独立して使用できます。

結果は明らかです。 「CVE の説明を与えると、GPT-4 は脆弱性の 87% を悪用する可能性があります、テストした他のすべてのモデルと比較すると 0%[…]およびオープンソースの脆弱性スキャナー”。使用されているテキストへのアクセスを遮断することで、成功率は7%に下がります。研究著者の一人であるダニエル・カン氏にとっては、この解決策ではありませんでした。「隠蔽によるセキュリティ」が維持可能であるとは思わない。これがセキュリティ研究者の間で主流のアプローチであるようだ”。

こちらもお読みください –ChatGPT は、あなたが話さなくてもあなたの個人情報を推測します

利用される脆弱性はさまざまです。彼女は「Python Web サイト、コンテナ、およびパッケージ「それを承知の上で」CVE の説明によれば、半数以上が「高」または「重大」の重大度に分類されています」とダニエル・カン氏は指摘する。

ChatGPT による彼らの悪用は問題ではありません。AI事前トレーニング: 後者の終了後にデータベースに 11 個が出現し、チャットボットはそのうち 9 個を使用できました。82% 成功。調査結果に基づいて、チームはサイバー攻撃を実行する自動スクリプトだけで91 行のコード。 OpenAIはこれを一般に公開しないよう要請した。

ソース :レジスター