Microsoftはそれまでに公開しないように注意していたが、順番待ちリストでアクセスできる新バージョンのBingのユーザーは、1か月間GPT-4の影響を疑うことなく恩恵を受けてきた。
OpenAI は GPT-4 を発表しました、再び人工知能に革命をもたらす新しいマルチモーダル言語モデル。この AI は、先験的に、有料の ChatGPT Plus サービスの加入者のみがアクセスできます。ただし、マイクロソフトは次のことを確認しました。新しい多機能チャットボットは、実際にはその検索エンジンの新バージョンに統合されています、Bing、1か月以上。
を使用する場合は、ChatGPT スタイルで改訂された新しいバージョンの Bing、したがって、GPT-4 モデルが提供する新機能の恩恵を受けることができます。たとえそれを最大限に活用するためにそれを知る必要があったとしても。実際、これらの新機能の存在に気づいていないインターネット ユーザーは、それらを有効にしていません。それにもかかわらず、レドモンドの会社は手がかりを落としていたここ数週間はかなり微妙だった。
Bing の新バージョンには、2023 年 2 月以降 GPT-4 モデルが統合されています
インターフェイスの改善と6~10回の会話制限を解除、あるいはコメントの管理をさらに良くすることで、Microsoft は怠けていなかったと言えるでしょう。同社関係者は「新しいBingがGPT-4で動作し、検索用にカスタマイズされていることを確認できてうれしく思う」と述べた。過去 6 週間以内に新しい Bing をプレビューしたことがある方は、すでに OpenAI の最新モデルのパワーを初めて体験していることでしょう。
読むには —新しい再設計のおかげで、Bing が初めてユーザー数 1 億人を突破
GPT-4 モデルによってもたらされる最も注目すべき新しさは、もちろんそのマルチモーダルな情報を処理する能力。 Bing の AI はテキストだけでなく画像も理解できるようになり、すべてが変わります。質問に対して、検索エンジンは画像で答えを提供できますし、その逆も同様です。送信された画像を分析できるようになります。言い換えると、彼女はパズルを解く方法と画像を処理する方法を知っています。
ソース :MSパワーユーザー