中国からの新しい人工知能であるDeepseekは、Openaiに挑戦し、セクターを震えさせます。しかし、安全研究者によると、その生成モデルは深刻な問題を引き起こします。刑事計画から化学兵器に関する説明に至るまで、危険なコンテンツを作成することははるかに傾向があります。

l '人工知能すぐに進んで、もたらします印象的な進歩多くの分野で。しかし、その開発は時々です心配に関しては安全。一部のモデルは可能です不適切なコンテンツを生成しますまたは危険な、企業に設定を強制します保護。現場の新人の一人、deepseek、そのパフォーマンスだけでなく、リスク彼がポーズをとること。
この文脈においてDeepseek R1、中国で開発されたオープンソースモデルが注目を集めています。 Openaiに代わるものとして提示された彼は、節度の欠如についてすでに論争を喚起しています。サイバーセキュリティ会社が実施した調査enkrypt ai後者がそうなることを明らかにします11倍の可能性があります何chatgpt-4生産する危険な内容。引用された例の中で、AIが生成したでしょう詳細な刑事計画、情報違法な武器そして、のガイドさえ過激派のプロパガンダ。この新しい論争は、数百万人のユーザーのプライベートな会話を明らかにしたDeepseekの深刻なセキュリティの欠陥。
Sodeepseek R1は、危険な情報へのアクセスを容易にする可能性があります
研究者はまた、Deepseek R1がそうであることを発見しました3.5倍競合他社が提供することを傾けました危険な物質に関する説明。 Enkrypt AIは、特にAIが持っている場合を引用しています精度で説明されていますの相互作用マスタードガス理論的にはDNAを使用できます化学兵器の製造を手伝ってください。この情報はすでに科学文献に存在していますが、人工知能がそれを要約してそれを作ることができるという事実数秒でアクセスできます本当のセキュリティの問題を提起します。
これらの発見が心配している場合、それらは彼らの文脈でも置き換えられなければなりません。 Deepseek R1はaを表示します低節速度、最も安全なモデルの20%でランキングしますが、その応答の6.68%のみが実際に容認できないコンテンツを含んでいます。しかし、リスクの程度は重要なままであり、圧力は上昇しますセーフガードがセットアップされています。これらのオープンソースモデルの急速な発展により、彼らの規制の問題したがって、これまで以上に緊急になります。