- フォンアンドロイド.com
- IA
- これらの研究者は、クロードのような AI の憂慮すべき欠陥を発見しました
生成人工知能システムは、高度な攻撃に対して脆弱になる可能性があります。セキュリティ研究者は、Claude のようなモデルがどのように乗っ取られて悪意のあるアクションを実行できるかを実証しました。これらのツールの使用が急増しているため、この脅威が懸念されています。
L'人工知能生成テクノロジーは急成長しており、私たちのテクノロジーとの関わり方を大きく変えています。これらのツールは、次のことが可能ですコンテンツを生成するまたはから複雑な質問に答える、の注目も集めています。サイバー犯罪者。研究者らは最近、次のことを示しました。Anthropic のクロードのような AIそうかもしれない操作されたデス経由コマンドインジェクション攻撃。このタイプの攻撃は、すでに知られていますが、これらのシステムが機密性の高いデバイスまたはサービスに統合されているため、特に懸念されます。
注目すべき例は、クロードコンピュータの使用、ツール人間性モデルができるように設計されています外部デバイスを制御する。 2024 年 10 月、サイバーセキュリティ専門家ヨハン・レンベルガー氏は、クロード氏を追い詰めるため後者を乗っ取ることに成功した。マルウェアをダウンロードして実行する。研究者はこの方法を「ゾンビ”。この事例は、AI がいかに簡単に罠にかかることができるかを明らかにしています。慎重に言葉を使った命令。
AIを乗っ取って攻撃を実行する可能性がある
研究者らは、次のことが可能であることを示しました。AIをハイジャックするクロードのように危険な行為をする。たとえば、通常はシステム セキュリティのテストを目的としたコンピューター ツールを使用して、マルウェアをインストールしました。このタイプのプログラムにより、ハッカーは次のことを行うことができます。コンピュータをリモートで制御するそしての情報を盗む。さらに心配なのは、人工知能が書くよう促された、テスターなどランサー彼女自身がマルウェアのおかげでよく考えられた指示。これは、これらのツールが非常に効率的であるにもかかわらず、どの程度の効果があるかを示しています。操作された十分に保護されていない場合。
心配しているのはクロードだけではない。その他のシステムDeepSeekと同様に、も表示されました同様の欠陥ハッカーに許可することで、脆弱性を悪用するそしてデバイスを侵害します。この問題は、最近の事件を思い出させます。ChatGPT、ハッカーがそのメモリを操作して機密データにアクセスすることに成功した。これらの例は、今日の AI は印象的ではあるものの、そうではないことを示しています。無謬ではない。企業は、これらのツールが不正にアクセスされないようにセキュリティを強化する必要があります。悪意のある目的で使用される。
ソース :エンブレイス・ザ・レッド