Cr\u00e9dit : 123rf<\/figcaption><\/figure>\n
\u00c0 l\u2019heure o\u00f9 la puissance et l\u2019efficacit\u00e9 des grands mod\u00e8les linguistique se mesurent aux nombres de param\u00e8tres<\/strong>, qui constituent en quelque sorte les donn\u00e9es d\u2019apprentissage qu\u2019utilise un mod\u00e8le pour faire ses pr\u00e9dictions, les ing\u00e9nieurs de Mistral AI ont pris le parti de concevoir Mistral 7B, une IA form\u00e9e avec moins de param\u00e8tres (7 milliards en l\u2019occurrence), mais tout de m\u00eame plus efficace que certains LLM d\u2019OpenAI ou de Meta<\/strong>.<\/p>\n
Mistral AI prend d\u2019ailleurs LLaMA, le grand mod\u00e8le de langage de Facebook<\/a>, comme point de comparaison lors de l\u2019expos\u00e9 des capacit\u00e9s de son IA. Les ing\u00e9nieurs de la startup ont ainsi mesur\u00e9 les performances de Mistral 7B et celles de LLaMA 2 7B, 13B, et m\u00eame LLaMA 1 34B. Le Mistral 7B ne s\u2019est pas frott\u00e9 au mod\u00e8le le plus performant de Meta, LLaMA 2 70B<\/strong>, mais les r\u00e9sultats obtenus face aux autres LLM sont v\u00e9ritablement impressionnants.<\/p>\n