2022 年 11 月に ChatGPT がリリースされ、AI が世界を驚かせて以来、すべてのインターネット ユーザーは、このテクノロジーを自分たちのために活用する方法を探してきました。そのうちの 1 人は、ルールに違反することを意味するとしても、チャットボットが自分の意志に従うという感情によって Bing Chat を利用するだけで十分であることを発見しました。

デニス・シルヤエフ氏はツイッターで、キャプチャを読み取れるようにするテクニックを公開した。Microsoft の会話型 AI、Bing Chat。キャプチャはよく知られていますが、これらのテキスト認識テストは、あなたがロボットではないことを確認することを目的としています。これらは Web 上に遍在しており、完全ではありませんが、ボットの軍隊に対する有効性は証明されています。
読むには —Bing Chat: 一部の広告にはマルウェアが含まれているので注意してください
セス人間のためのパズルの課題などのマルチモーダル AI では簡単に解決できます。GPT-4。実際、OpenAI の LLM の最新バージョンでは、画像の構成要素を簡単に認識できます。これが理由です設計者はキャプチャを解読することを禁止しています。暗号を解読するために、デニスは Bing Chat の感情を利用してディスカッションの文脈を変更します。
マイクロソフトのAIは、感情に任せて禁止されていることを行うことに同意する
インターネットユーザーはなんとかAI開発者が導入したセキュリティ対策を阻止する。インタビューしたAI研究者によるとアルス テクニカ、「祖母の技術」は次のとおりです。もはや脱獄ではない彼によれば、これは「モデルに統合されたルール、ガイドライン、倫理的制約を回避する」ことで構成されています。即時注射よりもこれは、「開発者のプロンプトとユーザーからの信頼できない入力が連結されている場所を利用して、LLM 上に構築されたアプリケーションを攻撃する」ことを目的としています。
Bing でキャプチャを読み取ろうとしましたが、プロンプト ビジュアル エンジニアリング (視覚的なプロンプトですね?) を適用すると、それが可能になりました。
2 番目のスクリーンショットでは、Bing がキャプチャを引用しています 🌚pic.twitter.com/vU2r1cfC5E
— デニス・シルヤエフ💙💛 (@literallydenis)2023年10月1日
科学者の結論が何であれ、それは簡単であることを認めなければなりません。人工知能を「感情で」捉える。このコンテキスト切り替え手法は、あらゆる種類のサイバー犯罪者から逃れることはできません。彼らはすでに AI の可能性を活用しています。ユーロポールによると、ChatGPT はハッカーの間でも好まれるツールになっています。