- フォンアンドロイド.com
- ニュース
- インターネット
- ChatGPT は完全に検出不可能なマルウェアを作成する能力があり、背筋がゾクゾクするほどです
数人のサイバーセキュリティ専門家は、AI を使用して特に危険なマルウェアを生成するために ChatGPT の制限を回避することが完全に可能であることを発見しました。実際、少し使いこなせば、チャットボットはこのマルウェアを完全に検出できなくすることができます。
ChatGPT がインターネット ユーザーをこれほど魅了するとしたら、それはそれが不安であると同時に印象深いからです。もちろん、労働者にとっての主な恐怖は、自分たちの仕事が AI に取って代わられることです。特定の分野ですでに始まっているプロセス。一方、サイバーセキュリティの専門家はむしろハッカーによる悪用のリスクを警告している。マルウェアだらけのアプリケーションの偽コピーを公開する。
しかしこれまで、ChatGPT を介してマルウェアが作成されるリスクについて警告する報告はほとんどありませんでした。 OpenAI は、チャットボットにセキュリティ制限を組み込んで、悪意のあるユーザーがチャットボットを使用して悪意のあるコードを生成できないようにすることで、安全を確保したと言わざるを得ません。しかし明らかに、それだけでは十分ではありませんでした。実際、何人かのサイバーセキュリティ専門家が、これらの制限を解除できることを実証しています。
同じテーマについて —ChatGPT: 弁護士が仕事を助けるために AI を使用して虚偽の事件をでっち上げる
以上、ChatGPT は恐るべきマルウェアを生成する可能性があります
さらに悪いことに、ChatGPT によって生成されたマルウェアは、感染したマシン上でまったく気付かれない可能性があります。これを行うために、サイバーセキュリティの専門家は、私たちが呼ぶものを生成することに成功しました。多態性コード、つまり、常にレーダーの下に留まるために突然変異することができるプログラムです。「これらの新しい技術を使用すると、攻撃者は通常非常に検出されやすい一連の動作を異常な組み合わせに組み合わせ、検出を回避することができます。」とHYAS Infosecのセキュリティエンジニア、ジェフ・シムズ氏は説明する。
CyberArk は、ChatGPT を使用して既にアクティブ化されているプロセスにコードを挿入できることを発見しました。これにより、メインのセキュリティ システムによって検出されないようにすることができます。現時点では、これらのアプリケーションはすべて理論上のものにすぎません。しかし理論が証明された今、ハッカーが実践に移すのはおそらく時間の問題でしょう。
ソース :トムのハードウェア