Xaiが開発した新しい人工知能であるGrok 3は、発売時に心配していました。ユーザーは、化学兵器を作成するための完全なガイドを取得し、致命的な攻撃を実行することができました。

l '人工知能新しいに到達しましたクリティカルなしきい値。より高度なモデルにより、それらの使用に関連するリスクの問題が中心になります。セクターの特定のプレーヤーは、回避するために厳格なルールを課しています乱用、しかし、他の人は、心配な状況を引き起こすことを意味する場合でも、よりオープンなアプローチを選択します。これはそうですGrok 3、Xaiによって発売された最後のAI、Elon Muskのビジネス。として提示されます強力なモデルet揺るぎない、彼女はすでに超えていますchatgptいくつかのロジックおよび数学テストに関するジェミニ。しかし、彼コントロールの欠如論争を開始したばかりです。
数日で、数人のユーザーがそれを発見しましたグロックできた詳細な指示を提供します注ぐ化学兵器を作る、どこにでも進みます資料をリストします購入するそれらを注文するサイト。開発者は、特にドキュメントの取得に成功しました数十ページ方法を説明します致命的な毒素を設計しますet都市で使用してくださいその効果を最大化するため。 AIは、高度な検索エンジンを使用して、情報の精度を確認し、詳細を改良しました。
Grok 3は、化学兵器を作るための詳細な指示を提供します
Grok 3は唯一ではありません問題を引き起こすモデル。最近、Deepseek R1 AIは、機密情報を提供する能力についても指摘されました。研究者は、危険な化学現象を説明するのは競合他社の3.5倍の傾向があることを示しています。最も邪魔な症例の1つは、AIがDNAとの詳細な相互作用を持っている禁止化学兵器であるMustard Gasに関係しています。促進そこにその製造の理解。
論争に直面して、Xaiは持っています緊急時に反応しますで特定のリクエストをブロックしますそして追加制限Grok 3。しかし、このケースは、高度なAIモデルに課される制限に関する議論を再開します。 Deepseek R1は、低節度の低いモデルの20%にランク付けされていることでも、低緩和率について批判されました。彼の回答のわずか6.68%が本当に危険な情報を含んでいる場合、これは専門家や当局に警告するのに十分なままです。これらのモデルが急速に発展すると、圧力が上昇します強化しますそして、これらの技術が悪い手に落ちないようにします。
https://twitter.com/linusekenstam/status/1893832876581380280