40 modèles
Swiss AI/Apertus 70B Instruct
Modèle semi-ouvert et reproductible de taille moyenne, développé par un consortium d’institutions suisses. Ses poids et son code d’entraînement sont publiés sous licence permissive. Il a été entraîné sur plus de 1 800 langues sur plus de 15 000 milliards de jetons. L’entraînement a eu lieu sur le supercalculateur Alps du CSCS à Lugano, alimenté par une énergie hydroélectrique neutre en carbone.
Anthropic/Claude 4.5 Sonnet
Très grand modèle multimodal et multilingue, extrêmement performant en code, en raisonnement et en mathématiques. L'utilisateur ou le développeur qui utilise ce modèle peut choisir entre plusieurs niveaux de raisonnement.
Cohere/Command A
Grand modèle, performant pour la programmation, l’utilisation d’outils externes, la “génération augmentée de récupération” (RAG, retrieval augmented generation).
DeepSeek/DeepSeek R1 0528
Modèle de très grande taille, spécialisé dans les tâches mathématiques, scientifiques et de programmation. Il simule une étape de raisonnement avant de générer sa réponse et avec la mise à jour de mai 2025 a gagné en profondeur d’analyse et en précision grâce à une optimisation du post-entraînement.
DeepSeek/DeepSeek v3.1
Très grand modèle conçu pour des tâches complexes : génération de code, analyse de documents longs. Cette version est particulièrement forte en utilisation d’outils et peut simuler une phase de raisonnement avant de fournir la réponse finale.
DeepSeek/DeepSeek V3.2
Très grand modèle conçu pour des tâches complexes : orchestration agentique, génération de code, analyse de documents longs. Cette version est particulièrement forte en utilisation d’outils et peut simuler une phase de raisonnement avant de fournir la réponse finale.
- Nouveau
EuroLLM/EuroLLM 22B Instruct
Modèle multilingue conçu spécifiquement pour la diversité linguistique européenne, avec de fortes capacités en traduction et compréhension multilingue.
- Nouveau
Google/Gemini 2.5 Flash
Grand modèle multimodal et multilingue avec deux modalités de réponses: l’utilisateur peut choisir entre un mode de raisonnement, pour des réponses plus approfondies, ou un mode rapide, pour générer directement à la réponse finale.
Google/Gemini 3 Flash
Grand modèle multimodal natif et multilingue, distillé depuis Gemini 3 Pro. Il intègre une capacité de raisonnement avancée ("Deep Think") activable à la demande, avec un niveau de raisonnement paramétrable par l'utilisateur ou le développeur. Le modèle prend en charge nativement le texte, le code, l'audio, l'image, la vidéo et les PDF.
- Nouveau
Google/Gemini 3 Pro
Grand modèle multimodal natif et multilingue. Il intègre une capacité de raisonnement avancée ("Deep Think") activable à la demande pour les tâches complexes (mathématiques, logique, codage), distincte de sa capacité de génération standard plus rapide. Le modèle prend en charge nativement le texte, le code, l'audio, l'image, la vidéo et la 3D.
- Nouveau
Google/Gemma 3 12B
Petit modèle multimodal adapté aux tâches courantes comme les questions-réponses, les résumés ou l’interprétation d’images.
Google/Gemma 3 27B
Modèle de taille moyenne multimodal adapté aux tâches courantes comme les questions-réponses, les résumés ou l’interprétation d’images.
Google/Gemma 3 4B
Très petit modèle multimodal et compact adapté aux tâches courantes comme les questions-réponses, les résumés ou l’interprétation d’images.
Google/Gemma 3n 4B
Très petit modèle multimodal et compact conçu pour fonctionner localement sur un ordinateur ou un smartphone, sans recours à un serveur - il est capable d’adapter sa puissance selon la capacité de la capacité et le besoin.
Zhipu/GLM 4.6
Grand modèle spécialisé en code créé par Zhipu AI, un éditeur de modèles d’IA Chinois créé en 2019 par des professeurs de l’université de Tsinghua et soutenu par des grands acteurs comme Alibaba et Tencent. Cette mise à jour augmente la taille de la fenêtre de contexte, améliore sa performance en code, s'aligne plus avec les préférences humaines et est plus capable en cas d'usages agentiques/utilisation d'outils.
Zhipu/GLM 4.7
Grand modèle spécialisé en code créé par Zhipu AI, un éditeur de modèles d’IA Chinois créé en 2019 par des professeurs de l’université de Tsinghua et soutenu par des grands acteurs comme Alibaba et Tencent. Cette mise à jour améliore sa performance en code (notamment pour les interfaces web), interragi mieux avec des environnements de code assisté par IA et plus généralement performe mieux dans des contextes agentiques.
OpenAI/GPT 5 Mini
Le GPT-5 Mini est une version allégée du modèle GPT-5 principal. Il est conçu pour être utilisé dans des environnements où il est nécessaire de limiter les coûts, par exemple à grande échelle. Son modèle de raisonnement est presque aussi performant que celui du modèle principal (gpt-5-thinking) malgré sa taille plus petite. Grâce à sa fenêtre de contexte de 400 000 jetons, il peut accepter de longues requêtes, ce rend possible l'analyse de plusieurs documents à la fois.
OpenAI/GPT 5 Nano
Le GPT-5 Nano est la plus petite et la plus rapide version du modèle de raisonnement GPT-5. Il est conçu pour des contextes où une latence ou un coût ultra-faible est nécessaire. Grâce à sa fenêtre de contexte de 400 000 jetons, il peut accepter de longues requêtes, ce rend possible l'analyse de plusieurs documents à la fois.
OpenAI/GPT 5.1
Deuxième itération de GPT 5, avec un style jugé (par l'éditeur) plus naturel, avec de meilleurs résultats en code et en tâches d’agents. Le modèle a la spécificité d'ajuster son temps de raisonnement selon la difficulté.
OpenAI/GPT 5.2
Troisième itération de GPT 5, avec une attention spéciale portée à son utilité sur des tâches professionelles.
- Nouveau
OpenAI/GPT OSS-120B
Le plus grand des deux premiers modèles semi-ouverts d'OpenAI depuis GPT-2. Conçu en réponse à la montée en puissance des acteurs open source comme Meta (LLaMA) et Mistral, il s'agit d'un modèle de raisonnement performant, notamment sur des tâches complexes et dans des environnements « agentiques ».
OpenAI/GPT OSS-20B
Le plus petit des deux modèles semi-ouverts d'OpenAI. Il a été conçu en réponse à la concurrence de l'open source et est destiné aux cas d'utilisation nécessitant une faible latence ainsi qu'aux déploiements locaux ou spécialisés.
xAI/Grok 4.1 Fast
Grok 4.1 Fast est une nouvelle itération de la quatrième génération de Grok. Basé sur le même modèle de base, selon l’éditeur il bénéficie d'un processus de post-entraînement amélioré qui lui confère un meilleur style, un comportement agentique supérieur et une meilleure cohérence des réponses, en particulier lors de discussions prolongées.
Nous/Hermes 4 70B
Grand modèle réentraîné à partir du Llama 3.1 70B, ajusté pour mieux répondre aux demandes et instructions stylistiques des utilisateurs.
Moonshot AI/Kimi K2
Développé par Moonshot AI (亦称「月之暗面」/ Yue Zhi An Mian), une société basée à Pékin, Kimi K2 est un très grand modèle orienté code et usages agentiques. Il est reconnu pour les tâches de développement dans des contextes agentiques (par ex. dans Cursor ou Windsurf) notamment pour son rôle en tant qu’orchestrateur. Il n’expose pas de “mode raisonnement” explicite, mais pour les grandes tâches il sous-divise sa réponse en étapes et alterne entre actions (appels d’outils) et rédaction de texte.
Moonshot AI/Kimi K2 Thinking
Cette version de Kimi K2 intègre une phase de raisonnement plus avancée, améliorant ses performances par rapport à l'itération originale. Il a été développé par Moonshot AI (亦称「月之暗面」/ Yue Zhi An Mian), une société basée à Pékin.
Liquid/LFM 2 8B A1B
Un modèle spécifiquement conçu pour l'inférence efficace sur appareils locaux (on-device deployment). Son architecture vise à offrir une qualité de sortie compétitive avec celle de modèles denses de plus grande taille, tout en minimisant la latence et les exigences en ressources de calcul.
Meta/Llama 3.3 70B
Grand modèle destiné à un large éventail de tâches et pouvant rivaliser avec des modèles plus volumineux.
Meta/Llama 4 Maverick
Très grand modèle doté d’une très large fenêtre de contexte, adapté par exemple au résumé de plusieurs documents en même temps.
Meta/Llama 4 Scout
Grand modèle doté d’une très large fenêtre de contexte, adapté par exemple à la synthèse d'un ensemble de documents.
MiniMax/MiniMax M2
Modèle spécialisé dans le code avec un rapport qualité/rapidité/prix très compétitif. Il a été conçu par MiniMax, entreprise basée à Shanghai en Chine.
Mistral AI/Mistral 3 Large
Très grand modèle multimodal semi-ouvert performant en code et contextes multilingues.
- Nouveau
Mistral AI/Mistral Medium 3.1
Modèle de taille moyenne multilingue, multimodal et peu couteux par rapport à d’autres modèles qui offrent des performances similaires. Il est devenu particulièrement intéressant après une mise à jour en août 2025 avec des améliorations importantes de performance générale, un ton "amélioré" et une meilleure capacité de chercher des informations sur Internet.
Mistral AI/Mistral Small 3.2
Malgré son nom, c’est un modèle de taille moyenne. Il est multimodal (capable de traiter texte et images) et il se démarque par un respect précis des requêtes et sa capacité à utiliser des outils avancées.
Ai2/Olmo 3 32B Think
Modèle de raisonnement dont le code et les données sont complètement ouverts. Il a été entraîné par AI2, un institut de recherche à but non lucratif.
Alibaba/Qwen 3 32B
Modèle de taille moyenne multilingue avec deux modalités de réponses: l’utilisateur peut choisir entre un mode de raisonnement, pour des réponses plus approfondies, ou un mode rapide, pour générer directement la réponse finale.
Alibaba/Qwen 3 8B
Petit modèle multilingue dense de la famille Qwen 3, offrant un mode “raisonnement” pour des tâches complexes (mathématiques, code) et un mode “réponse directe” pour des réponses plus rapides.
Alibaba/Qwen 3 Max
Parmi les rares modèles propriétaires de Qwen, celui-ci est le plus grand et le plus puissant de la troisième génération. Il a été entraîné avec une attention particulière à l’usage en entreprise et aux cas d’utilisation agentiques.
Alibaba/Qwen3 Coder 480B A35B
Très grand modèle spécialisé dans la génération de code, analyse de dépôts entiers et résolution de problèmes multi-étapes. Cette version est particulièrement forte en utilisation d’outils et peut simuler une phase de raisonnement avant de fournir la réponse finale.