OpenAI は、最先端の言語モデルのコンパクト バージョンである GPT-4o mini を導入しました。木曜日に発表されたこの新しいサービスは、開発者と消費者にとって、よりアクセスしやすくコスト効率の高いソリューションを提供することを目的としています。
以上です。OpenAI は、無料ユーザー向けの現在の GPT-3.5 モデルを新しいモデル、GPT-4o mini に置き換えます。このモデルは、ChatGPT Web およびモバイル アプリ経由ですでに利用可能です、プロのユーザーも来週からアクセスできるようになります。
GPT-4o mini は、パフォーマンスを犠牲にすることなく、より小型で効率的なモデルを作成することに重点を置いた OpenAI のアプローチの戦略的転換を表しています。同社によれば、この新しいモデルは、テキストと視覚の両方を含む推論タスクにおいて、他の最先端の小型 AI モデルよりも優れているという。
こちらもお読みください–ChatGPT や Gemini よりも効率的なこの AI が Android で利用できるようになりました
GPT-4o mini の最も魅力的な側面の 1 つは、その価格体系です。 OpenAIは、前世代のGPT-3.5 Turboよりもランニングコストが60%以上安いと主張している。 OpenAI API を使用する開発者向けには、GPT-4o miniの価格は、入力トークン100万あたり15セント、出力トークン100万あたり60セントです。。したがって、この大幅なコスト削減により、高度な AI 機能へのアクセスが民主化され、さまざまな業界にわたるイノベーションが促進される可能性があります。
ただし、このモデルの機能は印象的で、ポップアップのトークン数は 128,000 で、これは書籍の長さにほぼ相当し、知識の期限は 2023 年 10 月です。OpenAI は GPT-4o mini の正確なサイズを明らかにしていませんが、次のことを示唆しています。それはそうだったLlama 3 8b、Claude Haiku、Gemini 1.5 Flash などの他の小型 AI モデルと同等。しかし、同社は、自社の製品は競合他社よりも高速で、コスト効率が高く、スマートであると主張しています。
最初の独立したテストは、OpenAIの主張を裏付けるものと思われる。 Artificial Analysis の共同創設者である George Cameron 氏は、GPT-4o mini の出力速度の中央値は 1 秒あたり 202 トークンであり、これは GPT-4o mini の 2 倍以上の速度であると述べました。GPT-4oそしてのGPT-3.5ターボ。この速度の利点は、高速応答時間を必要とするアプリケーションにとって状況を大きく変える可能性があります。
将来的に、OpenAI は GPT-4o mini に対する野心的な計画を持っています。同社は将来的にビデオおよびオーディオ処理にも機能を拡張する予定です。汎用性をさらに向上させます。さらに、OpenAI は「命令階層」と呼ばれる新しい技術を導入しており、これはモデルの急速なインジェクション攻撃やジェイルブレイクに対する耐性を高めることを目的としています。