Mistral/Mistral Nemo
Semi-ouvert
12 mds de
paramètres
Sortie 07/2024
Licence Apache 2.0
Sorti en juillet 2024, ce modèle de petit gabarit est entraîné pour des tâches de raisonnement, de connaissances générales et de programmation. Il utilise le tokenizer Tekken, efficace pour compresser des textes allant jusqu’à 128 000 tokens en plus de 100 langues.
Taille
Doté de 12 milliards de paramètres, ce modèle fait partie
de la classe des petits modèles (entre 7 et 20 milliards de
paramètres).
Un modèle de petit gabarit est moins complexe et coûteux en ressources par rapport aux modèles plus grands, tout en offrant une performance suffisante pour diverses tâches (résumé, traduction, classification de texte...)
Pour aller plus loin
Pour les expert·es, consultez la fiche du modèle sur Hugging Face.
Les calculs d’impacts environnementaux reposent sur les projets EcoLogits et Impact
CO2.