ChatGPT は深刻な競合相手であることがわかりました。Claude 2 について何がわかっていますか?

Claude 2 (クロードと呼ぶことにします) は、ChatGPT や Bard よりも倫理的で思いやりのあるものになることを目的とした新しいチャットボットです。この新しい生成 AI の簡単なプレゼンテーション。

mains-robot-humain-clavier
クレジット: 123rf

ChatGPT と Bard が流行の名前だとしたら、生成AI、さまざまなテクノロジーに基づいたチャットボットを提供することで、依然として目立つことに成功している企業もあります。これは次のような場合ですAnthropic、人工知能のスタートアップサンフランシスコに拠点を置き、OpenAI の卒業生によって 2021 年に設立されました。本日、へのアクセスが公開されましたClaude 2 という名前の社内 AI

生成人工知能という非常に競争の激しい分野において、クロードが抜きん出たいと考えているのは人間のレベルです。ChatGPTと吟遊詩人。後者のように、ユーザーが質問やリクエストを送信し、非常に詳細で関連性のある応答を受け取ることができるメッセージング インターフェイスを提供する場合、チャットボットは言語の理解、知識、そして何よりも共感を組み合わせようとします。そのデザイナーは、安全と優しさを重視

クロード 2 は思いやりのある安全な AI になりたい

この目標を達成するために、Anthropic はクロードを訓練しました。非常に特殊なアプローチ: 憲法 AI。そのアイデアは、「憲法原則」をアーキテクチャに統合し、AI モデルをトレーニングして、目標を人間の基本的な価値観と一致させる。したがって、Claude の設計者は、機械に倫理的な動作を強制するために、報酬と罰則のシステムを使用しました。

読むには —ChatGPT: AI が何千人ものユーザーを失う、その話題は終わった

『Anthropic』のクロードは本当にそうなるのでしょうか?同僚の Bard や ChatGPT よりも信頼できるでしょうか?今のところ、その設計者でさえ、それを大声ではっきりと宣言する勇気はありません。サービスに接続すると、「当社の AI は、不正確または誤解を招く情報を生成したり、攻撃的または傾向的なコンテンツを生成したりする場合があります」という警告が表示されます。したがって、クロードは幻覚やその他の嘘の影響を受けないわけではありません。ただし、チャットボットはまだベータ版にすぎないため、スタートアップに製品を開発する時間を与えましょう。 Anthropic のアプローチは興味深いもので、すでに 35 万人が試用を待っています。確かに、AI は現時点ではそうではありません。米国と英国でのみアクセス可能