フランスのスタートアップ、Mistral AI は、現在 Microsoft や Google などのテクノロジー業界の大手が独占している AI の小さな世界に新たな命を吹き込むことを目的とした新しい言語モデルを発表しました。
パワーと大規模な言語モデルの有効性はパラメータの数によって測定されますこれは、何らかの形でモデルが予測を行うために使用する学習データを構成するため、Mistral AI エンジニアは、より少ないパラメータ (この場合は 70 億) でトレーニングされた AI である Mistral 7B を設計することにしました。OpenAI や Meta の一部の LLM よりも効果的。
ミストラル AI もかかりますLLaMA、Facebook の大きな言語モデル、AI の機能を説明する際の比較ポイントとして。したがって、このスタートアップのエンジニアは、Mistral 7B、LLaMA 2 7B、13B、さらには LLaMA 1 34B のパフォーマンスを測定しました。ミストラル7Bは接触しなかったMeta の最も効率的なモデル、LLaMA 2 70B, しかし、他の LLM と比較して得られる結果は本当に印象的です。
このフランスのスタートアップの AI は 3 倍大きいモデルよりも効率的です
Meta および Mistral AI モデルは、次のようなカテゴリで競合します。推論、理解だけでなく、数学やプログラミングもまたは MMLU (大規模なマルチタスク モードでの言語理解を測定します)。これらのベンチマークから、フランスの人工知能は、これらすべての基準において LLaMA よりもはるかに優れていることがわかります。同じ数のパラメーターの場合、Mistral 7B は 3 倍のデータでトレーニングされた Facebook モデルよりもはるかに優れています。これらの結果のおかげで、同社は誇りを持ってサービスを提供できるようになります。「これまでで最高の7Bモデル」。
ミストラル 7B は同社にとって始まりにすぎません。彼女は数えますさらに広範な LLM を設計する興奮させに行ってみませんかChatGPT と GPT-4 の 17,000 億のパラメーター。おまけに、この経験に興味があれば、次のこともできます。ミストラル 7B を PC にインストールする。その設計者は、Apache 2 ライセンスに基づいて、ユーザーが無料で利用できるようにしています。
ソース :ミストラルAI