278 378 votes
Obj : 300 000 Légende Discutez, votez et aidez-nous à atteindre cet objectif !
Vos votes sont importants : ils alimentent le jeu de données compar:IA mis à disposition librement pour affiner les prochains modèles sur le français.
Ce commun numérique contribue au meilleur respect de la diversité linguistique et culturelle des futurs modèles de langue.

Des votes… au classement des modèles

Merci pour vos contributions !
Le classement compar:IA repose sur l’ensemble des votes et réactions issus de la comparaison à l'aveugle des modèles et collectés depuis l’ouverture du service au public en octobre 2024.
Construit en partenariat avec le Pôle d'Expertise de la Régulation Numérique (PEReN), le classement des modèles est établi en fonction du score de satisfaction calculé à partir du modèle statistique Bradley Terry, méthode largement répandue pour convertir des votes binaires en classement probabiliste.
Le classement compar:IA n’a pas vocation à constituer une recommandation officielle ni à évaluer la performance technique des modèles. Il reflète les préférences subjectives des utilisateurs de la plateforme et non la factualité ou la véracité des réponses.

Total modèles : 82
Total votes : 278 000

Mise à jour le 2/11/2026

Télécharger les données
Des votes… au classement des modèles
Rang Infobulle Rang de classement attribué selon le score de satisfaction Bradley-Terry
Modèle
Score de
satisfaction BT
Infobulle Score statistique estimé selon le modèle Bradley-Terry reflétant la probabilité qu'un modèle soit préféré à un autre. Ce score est calculé à partir de l'ensemble des votes et réactions des utilisateurs. Pour en savoir plus, rendez-vous sur l’onglet méthodologie.
Confiance (±) Infobulle Intervalle indiquant la fiabilité du rang de classement : plus l'intervalle est étroit, plus l'estimation du rang est fiable. Il y a 95% de chances que le vrai rang du modèle soit dans cette plage.
Total votes
Conso. moyenne
(1000 tokens)
Infobulle Mesurée en milliwattheures, l’énergie consommée représente l'électricité utilisée par le modèle pour traiter une requête et générer la réponse correspondante. La consommation énergétique des modèles dépend de leur taille et de leur architecture. Nous prenons le parti d’afficher en grisé non analysés (N/A) les modèles propriétaires pour lesquels nous ne disposons pas d’information transparente sur la taille et l’architecture.
Taille
(paramètres)
Infobulle Taille du modèle en milliards de paramètres, catégorisée selon cinq classes. Pour les modèles propriétaires, cette taille n’est pas communiquée.
Architecture Infobulle L'architecture d'un modèle LLM désigne les principes de conception qui définissent comment les composants d'un réseau de neurones sont agencés et interagissent pour transformer les données d'entrée en sorties prédictives, incluant le mode d'activation des paramètres (dense vs. sparse), la spécialisation des composants et les mécanismes de traitement de l'information (transformers, réseaux convolutifs, architectures hybrides).
Date sortie
Organisation
Licence
1
1128
-2/+11262N/AXL - (estimation)Propriétaire12/25GooglePropriétaire
2
1122
-1/+231404134 mWh
XL - 675 MdsMoE12/25Mistral AISemi-ouvert
3
1118
-0/+26358N/AL - (estimation)Propriétaire8/25Mistral AIPropriétaire
4
1106
-3/+14927N/AXL - (estimation)Propriétaire6/25GooglePropriétaire
5
1101
-3/+13210N/AXL - (estimation)Propriétaire11/25GooglePropriétaire
6
1101
-2/+23283N/AXL - (estimation)Propriétaire9/25AlibabaPropriétaire
7
1100
-1/+38684N/AXL - (estimation)Propriétaire12/24GooglePropriétaire
8
1091
-2/+243853979 mWh
XL - 685 MdsMoE3/25DeepSeekSemi-ouvert
9
1089
-4/+32207N/AL - (estimation)Propriétaire6/25Mistral AIPropriétaire
10
1082
-4/+18583112 mWh
S - 27 MdsDense3/25GoogleSemi-ouvert
11
1078
-7/+253883979 mWh
XL - 671 MdsMoE12/24DeepSeekSemi-ouvert
12
1077
-7/+325273979 mWh
XL - 685 MdsMoE8/25DeepSeekSemi-ouvert
13
1075
-7/+33189N/AL - (estimation)Propriétaire11/25OpenAIPropriétaire
14
1074
-8/+518433979 mWh
XL - 685 MdsMoE12/25DeepSeekSemi-ouvert
15
1072
-5/+36519N/AXL - (estimation)Propriétaire9/25AnthropicPropriétaire
16
1072
-8/+621781892 mWh
L - 355 MdsMoE7/25ZhipuSemi-ouvert
17
1069
-8/+52832N/AL - (estimation)Propriétaire12/25OpenAIPropriétaire
18
1068
-10/+813043785 mWh
XL - 1000 MdsMoE11/25Moonshot AISemi-ouvert
19
1066
-8/+62553N/AXL - (estimation)Propriétaire11/25xAIPropriétaire
20
1065
-8/+72315342 mWh
L - 117 MdsMoE8/25OpenAISemi-ouvert
21
1063
-7/+72623N/AXL - (estimation)Propriétaire9/25xAIPropriétaire
22
1063
-4/+5828894 mWh
XS - 12 MdsDense3/25GoogleSemi-ouvert
23
1063
-5/+92540N/AXL - (estimation)Propriétaire5/25AnthropicPropriétaire
24
1060
-7/+101537N/AL - (estimation)Propriétaire4/25xAIPropriétaire
25
1059
-4/+65510109 mWh
S - 24 MdsDense6/25Mistral AISemi-ouvert
26
1057
-6/+917463785 mWh
XL - 1000 MdsMoE9/25Moonshot AISemi-ouvert
27
1055
-6/+820973979 mWh
XL - 685 MdsMoE5/25DeepSeekSemi-ouvert
28
1055
-2/+67866857 mWh
L - 111 MdsDense3/25CohereSemi-ouvert
29
1049
-5/+43147109 mWh
S - 24 MdsDense6/25Mistral AISemi-ouvert
30
1048
-4/+53907N/AXL - (estimation)Propriétaire2/25AnthropicPropriétaire
31
1047
-5/+815571951 mWh
XL - 480 MdsMoE7/25AlibabaSemi-ouvert
32
1045
-4/+527691892 mWh
L - 357 MdsMoE9/25ZhipuSemi-ouvert
33
1043
-2/+46709658 mWh
M - 70 MdsDense10/24NvidiaSemi-ouvert
34
1036
-9/+88201892 mWh
L - 357 MdsMoE12/25ZhipuSemi-ouvert
35
1035
-3/+2936184 mWh
XS - 4 MdsDense3/25GoogleSemi-ouvert
36
1033
-4/+3467684 mWh
XS - 8 MdsMatformer5/25GoogleSemi-ouvert
37
1031
-3/+37173N/AM - (estimation)Propriétaire4/25OpenAIPropriétaire
38
1030
-3/+47387N/AXL - (estimation)Propriétaire9/24GooglePropriétaire
39
1025
-5/+435103979 mWh
XL - 671 MdsMoE1/25DeepSeekSemi-ouvert
40
1020
-6/+32352118 mWh
S - 32 MdsDense4/25AlibabaSemi-ouvert
41
1015
-5/+438491601 mWh
XL - 400 MdsMoE4/25MetaSemi-ouvert
42
1014
-5/+5271983 mWh
S - 21 MdsMoE8/25OpenAISemi-ouvert
43
1014
-3/+54934N/AS - (estimation)Propriétaire2/25Mistral AIPropriétaire
44
1012
-3/+54459N/AS - (estimation)Propriétaire8/25OpenAIPropriétaire
45
1010
-3/+56565400 mWh
L - 109 MdsMoE4/25MetaSemi-ouvert
46
1004
-4/+35079109 mWh
S - 24 MdsDense3/25Mistral AISemi-ouvert
47
1002
-5/+32830N/AS - (estimation)Propriétaire4/25OpenAIPropriétaire
48
999
-3/+43843N/AL - (estimation)Propriétaire8/25OpenAIPropriétaire
49
996
-5/+4227681 mWh
XS - 8 MdsMoE10/25LiquidSemi-ouvert
50
990
-6/+25113118 mWh
S - 32 MdsDense12/24CohereSemi-ouvert
51
988
-7/+3382583 mWh
S - 30 MdsMoE5/25AlibabaSemi-ouvert
52
988
-7/+4324589 mWh
XS - 8 MdsDense7/25AlibabaSemi-ouvert
53
986
-5/+39845658 mWh
M - 70 MdsDense12/24MetaSemi-ouvert
54
984
-6/+53318109 mWh
S - 24 MdsDense1/25Mistral AISemi-ouvert
55
981
-9/+61619N/AS - (estimation)Propriétaire11/24OpenAIPropriétaire
56
981
-5/+46990N/AS - (estimation)Propriétaire7/24OpenAIPropriétaire
57
978
-7/+62415658 mWh
M - 70 MdsDense9/25Swiss AIOpen source
58
977
-5/+45717N/AS - (estimation)Propriétaire4/25OpenAIPropriétaire
59
976
-6/+82160733 mWh
L - 230 MdsMoE10/25MiniMaxSemi-ouvert
60
973
-8/+8130289 mWh
XS - 8 MdsDense10/24CohereSemi-ouvert
61
971
-4/+45583658 mWh
M - 70 MdsDense7/24MetaSemi-ouvert
62
970
-3/+55683N/AXL - (estimation)Propriétaire10/24AnthropicPropriétaire
63
966
-3/+3996896 mWh
XS - 14 MdsDense12/24MicrosoftSemi-ouvert
64
961
-3/+45896N/AXL - (estimation)Propriétaire8/24OpenAIPropriétaire
65
956
-2/+499739134 mWh
XL - 405 MdsDense7/24MetaSemi-ouvert
66
952
-2/+4511590 mWh
XS - 9 MdsDense6/24GoogleSemi-ouvert
67
947
-5/+51566118 mWh
S - 32 MdsDense4/25AlibabaSemi-ouvert
68
945
-3/+43583N/AXS - (estimation)Propriétaire4/25OpenAIPropriétaire
69
944
-2/+52981658 mWh
M - 70 MdsDense1/25DeepSeekSemi-ouvert
70
934
-4/+43199658 mWh
M - 70 MdsDense8/25NousSemi-ouvert
71
932
-2/+31044489 mWh
XS - 8 MdsDense7/24MetaSemi-ouvert
72
925
-1/+6141788 mWh
XS - 7 MdsDense9/24AlibabaSemi-ouvert
73
883
-2/+02560193 mWh
S - 56 MdsMoE12/23Mistral AISemi-ouvert
74
880
-1/+13578N/AS - (estimation)Propriétaire9/24LiquidPropriétaire
75
868
-2/+21196118 mWh
S - 32 MdsDense11/25Ai2Open source
76
860
-1/+1253583 mWh
XS - 3.8 MdsDense8/24MicrosoftSemi-ouvert
77
850
-1/+1625194 mWh
XS - 12 MdsDense7/24Mistral AISemi-ouvert
78
840
-1/+154551063 mWh
L - 176 MdsMoE4/24Mistral AISemi-ouvert
79
816
-1/+0179688 mWh
XS - 14 MdsDense2/25jpacificoSemi-ouvert
80
764
-2/+36590 mWh
XS - 9 MdsDense5/2401-aiSemi-ouvert
81
749
-1/+130996 mWh
XS - 14 MdsDense9/24jpacificoSemi-ouvert
82
727
-0/+28088 mWh
XS - 7 MdsDense7/24AlibabaSemi-ouvert

Les modèles les plus appréciés sont-ils économes en énergie ?

Ce graphique représente pour chaque modèle le score de satisfaction (score Bradley Terry) en fonction de l’estimation de la consommation énergétique moyenne pour 1000 tokens. La consommation énergétique est estimée à partir de la méthodologie Ecologits et repose sur la prise en compte de deux paramètres: la taille des modèles (nombre de paramètres) et leur architecture. Pour les modèles propriétaires, ces informations ne sont pas ou que partiellement communiquées. C’est pourquoi ils sont exclus du graphique ci-dessous.

Score de satisfaction Bradley-Terry (BT) VS Consommation moyenne pour 1000 tokens

Sélectionnez un modèle pour connaitre son score Bradley-Terry (BT) et sa consommation énergétique

Score Bradley-Terry (BT)
75080085090095010001050110011505001000150020002500300035004000
Consommation moyenne pour 1000 tokens (mWh)
Filtre par consommation énergétique moyenne pour 1000 tokens
Taille (paramètres)

Architecture du modèle

  • MoE Infobulle L’architecture Mixture of Experts (MoE) utilise un mécanisme de routage pour n’activer, en fonction de l’entrée, que certains sous-ensembles spécialisés (“experts”) du réseau de neurones. Cela permet de construire des modèles très grands tout en gardant un coût de calcul réduit, car seule une partie du réseau est utilisée à chaque étape.
  • Dense Infobulle L’architecture dense désigne un type de réseau de neurones dans lequel chaque neurone d’une couche est connecté à tous les neurones de la couche suivante. Cela permet à tous les paramètres de la couche de contribuer au calcul de la sortie.
  • Matformer Infobulle Imaginez des poupées russes (matryoshkas → matryoshka transformer → Matformer) : chaque bloc contient plusieurs sous-modèles imbriqués de tailles croissantes, partageant les mêmes paramètres. Cela permet, à chaque requête, de sélectionner un modèle de capacité adaptée, selon la mémoire ou la latence disponibles, sans avoir besoin de ré-entraîner différents modèles.

Comment trouver le bon équilibre entre performance perçue et sobriété énergétique ? Exemples de lecture du graphique

  • Plus un modèle est situé en haut du graphique, plus son score de satisfaction Bradley-Terry est élevé. Plus un modèle est situé sur la gauche du graphique, moins il consomme d’énergie par rapport aux autres modèles.
  • En haut à gauche se trouvent les modèles qui plaisent et qui consomment peu d’énergie par rapport aux autres modèles.
  • Au-delà de la taille, l’architecture a un impact sur la consommation énergétique moyenne des modèles: par exemple, à gabarit similaire, le modèle Llama 3 405B (architecture dense, 405 milliards de paramètres) consomme 10 fois plus d’énergie en moyenne que le modèle GLM 4.5 (architecture MOE, 355 milliards de paramètres et 32 milliards de paramètres actifs).

Pourquoi les modèles propriétaires ne sont-ils pas affichés sur le graphique ?

L’estimation de la consommation énergétique pour l’inférence des modèles repose sur la méthodologie Ecologits qui prend en compte la taille et l’architecture des modèles. Or ces informations ne sont pas rendues publiques par les éditeurs de modèles pour les modèles dits « propriétaires ».

Nous prenons ainsi le parti de ne pas intégrer les modèles propriétaires au graphique tant que les informations contribuant au calcul de consommation énergétique ne sont pas transparentes.

Comment est calculé l’impact énergétique des modèles ?

compar:IA utilise la méthodologie développée par Ecologits (GenAI Impact) pour fournir une estimation du bilan énergétique lié à l’inférence des modèles d’IA générative conversationnelle. Cette estimation permet aux utilisateurs de comparer l'impact environnemental de différents modèles d'IA pour une même requête. Cette transparence est essentielle pour encourager le développement et l'adoption de modèles d'IA plus éco-responsables.

Ecologits applique les principes de l'analyse du cycle de vie (ACV) conformément à la norme ISO 14044 en se concentrant pour le moment sur l'impact de l'inférence (c'est-à-dire l'utilisation des modèles pour répondre aux requêtes) et de la fabrication des cartes graphiques (extraction des ressources, fabrication et transport).

La consommation électrique du modèle est estimée en tenant compte de divers paramètres tels que la taille et l’architecture du modèle d'IA utilisé, la localisation des serveurs où sont déployés les modèles et le nombre de tokens de sortie. Le calcul de l’indicateur de potentiel de réchauffement climatique exprimé en équivalent CO2 est dérivé de la mesure de consommation électrique du modèle.

Il est important de noter que les méthodologies d'évaluation de l'impact environnemental de l'IA sont encore en développement.

Données du graphique en tableau

Mise à jour le 2/11/2026

Télécharger les données
Des votes… au classement des modèles
Modèle
Score de
satisfaction BT
Infobulle Score statistique estimé selon le modèle Bradley-Terry reflétant la probabilité qu'un modèle soit préféré à un autre. Ce score est calculé à partir de l'ensemble des votes et réactions des utilisateurs. Pour en savoir plus, rendez-vous sur l’onglet méthodologie.
Conso. moyenne
(1000 tokens)
Infobulle Mesurée en milliwattheures, l’énergie consommée représente l'électricité utilisée par le modèle pour traiter une requête et générer la réponse correspondante. La consommation énergétique des modèles dépend de leur taille et de leur architecture. Nous prenons le parti d’afficher en grisé non analysés (N/A) les modèles propriétaires pour lesquels nous ne disposons pas d’information transparente sur la taille et l’architecture.
Taille
(paramètres)
Infobulle Taille du modèle en milliards de paramètres, catégorisée selon cinq classes. Pour les modèles propriétaires, cette taille n’est pas communiquée.
Architecture Infobulle L'architecture d'un modèle LLM désigne les principes de conception qui définissent comment les composants d'un réseau de neurones sont agencés et interagissent pour transformer les données d'entrée en sorties prédictives, incluant le mode d'activation des paramètres (dense vs. sparse), la spécialisation des composants et les mécanismes de traitement de l'information (transformers, réseaux convolutifs, architectures hybrides).
Organisation
Licence
99681 mWh XS - 8 MdsMoELiquidSemi-ouvert
101483 mWh S - 21 MdsMoEOpenAISemi-ouvert
98883 mWh S - 30 MdsMoEAlibabaSemi-ouvert
86083 mWh XS - 3.8 MdsDenseMicrosoftSemi-ouvert
103584 mWh XS - 4 MdsDenseGoogleSemi-ouvert
103384 mWh XS - 8 MdsMatformerGoogleSemi-ouvert
92588 mWh XS - 7 MdsDenseAlibabaSemi-ouvert
81688 mWh XS - 14 MdsDensejpacificoSemi-ouvert
72788 mWh XS - 7 MdsDenseAlibabaSemi-ouvert
98889 mWh XS - 8 MdsDenseAlibabaSemi-ouvert
97389 mWh XS - 8 MdsDenseCohereSemi-ouvert
93289 mWh XS - 8 MdsDenseMetaSemi-ouvert
95290 mWh XS - 9 MdsDenseGoogleSemi-ouvert
76490 mWh XS - 9 MdsDense01-aiSemi-ouvert
106394 mWh XS - 12 MdsDenseGoogleSemi-ouvert
85094 mWh XS - 12 MdsDenseMistral AISemi-ouvert
96696 mWh XS - 14 MdsDenseMicrosoftSemi-ouvert
74996 mWh XS - 14 MdsDensejpacificoSemi-ouvert
1059109 mWh S - 24 MdsDenseMistral AISemi-ouvert
1049109 mWh S - 24 MdsDenseMistral AISemi-ouvert
1004109 mWh S - 24 MdsDenseMistral AISemi-ouvert
984109 mWh S - 24 MdsDenseMistral AISemi-ouvert
1082112 mWh S - 27 MdsDenseGoogleSemi-ouvert
1020118 mWh S - 32 MdsDenseAlibabaSemi-ouvert
990118 mWh S - 32 MdsDenseCohereSemi-ouvert
947118 mWh S - 32 MdsDenseAlibabaSemi-ouvert
868118 mWh S - 32 MdsDenseAi2Open source
883193 mWh S - 56 MdsMoEMistral AISemi-ouvert
1065342 mWh L - 117 MdsMoEOpenAISemi-ouvert
1010400 mWh L - 109 MdsMoEMetaSemi-ouvert
1043658 mWh M - 70 MdsDenseNvidiaSemi-ouvert
986658 mWh M - 70 MdsDenseMetaSemi-ouvert
978658 mWh M - 70 MdsDenseSwiss AIOpen source
971658 mWh M - 70 MdsDenseMetaSemi-ouvert
944658 mWh M - 70 MdsDenseDeepSeekSemi-ouvert
934658 mWh M - 70 MdsDenseNousSemi-ouvert
976733 mWh L - 230 MdsMoEMiniMaxSemi-ouvert
1055857 mWh L - 111 MdsDenseCohereSemi-ouvert
8401063 mWh L - 176 MdsMoEMistral AISemi-ouvert
10151601 mWh XL - 400 MdsMoEMetaSemi-ouvert
10721892 mWh L - 355 MdsMoEZhipuSemi-ouvert
10451892 mWh L - 357 MdsMoEZhipuSemi-ouvert
10361892 mWh L - 357 MdsMoEZhipuSemi-ouvert
10471951 mWh XL - 480 MdsMoEAlibabaSemi-ouvert
10683785 mWh XL - 1000 MdsMoEMoonshot AISemi-ouvert
10573785 mWh XL - 1000 MdsMoEMoonshot AISemi-ouvert
10913979 mWh XL - 685 MdsMoEDeepSeekSemi-ouvert
10783979 mWh XL - 671 MdsMoEDeepSeekSemi-ouvert
10773979 mWh XL - 685 MdsMoEDeepSeekSemi-ouvert
10743979 mWh XL - 685 MdsMoEDeepSeekSemi-ouvert
10553979 mWh XL - 685 MdsMoEDeepSeekSemi-ouvert
10253979 mWh XL - 671 MdsMoEDeepSeekSemi-ouvert
11224134 mWh XL - 675 MdsMoEMistral AISemi-ouvert
9569134 mWh XL - 405 MdsDenseMetaSemi-ouvert

Comment choisir la méthode de classement des modèles ?

Depuis 2024, des milliers d’utilisateurs ont utilisé compar:IA pour comparer les réponses de différents modèles, générant ainsi des centaines de milliers de votes. Compter simplement le nombre de victoires ne suffit pas pour établir un classement. Un système équitable doit être statistiquement robuste, s’ajuster après chaque confrontation, et refléter réellement la valeur des performances obtenues.

C’est dans cette perspective qu’a été mis en place un classement basé sur le modèle Bradley-Terry, élaboré en collaboration avec les équipes du Pôle d’Expertise de la Régulation numérique (PEReN), à partir de l’ensemble des votes et réactions collectés sur la plateforme. Pour aller plus loin, consultez notre carnet méthodologique.

Deux manières de classer les modèles

Classement par taux de victoire

Définition : Système de classement empirique des modèles reposant sur le pourcentage de parties gagnées par un modèle contre tous les autres modèles.

Problèmes principaux

  • Biais du nombre de parties : un modèle ayant remporté trois victoires sur trois “matchs” affiche un taux de victoire de 100 %, mais ce score est peu significatif étant basé sur très peu de données.
  • Aucune prise en compte de la difficulté des matchs : battre un modèle “débutant” ou un “expert” compte pareil. Les taux de victoire ne sont pas équitables puisqu’ils ne tiennent pas compte de la difficulté des matchs.
  • Stagnation : à long terme, beaucoup de bons modèles finissent autour de 50 % de taux de victoire car ils affrontent des modèles de leur niveau, ce qui rend le classement peu discriminant.

Classement Bradley-Terry (BT)

Définition : Système de classement où le gain ou la perte de points dépend du résultat (victoire/défaite/nul et du niveau estimé de l’adversaire : si un modèle plus faible bat un modèle plus fort, sa progression dans le classement est plus importante.

Avantages

  • Modèle probabiliste : on peut estimer le résultat probable de n'importe quelle confrontation, même entre des modèles n'ayant jamais été directement comparés.
  • Prise en compte de la difficulté des matchs : les scores estimés à partir du modèle Bradley Terry tiennent compte du niveau des adversaires rencontrés, permettant une comparaison équitable entre modèles.
  • Meilleure gestion de l’incertitude : l'intervalle de confiance intègre l'ensemble du réseau de comparaisons. Cela permet une estimation plus précise de l'incertitude, surtout pour les modèles ayant peu de confrontations directes mais beaucoup d'adversaires communs.

Impact du choix de la méthode sur le classement des modèles

10 premiers modèles du classement selon de taux de victoire « empirique »

54%56%58%60%62%64%66%gemini-2.0-flashmistral-medium-2508deepseek-v3-0324magistral-mediumgemini-2.5-flashgemini-3-flash-previewgemma-3-27bqwen3-max-2025-09-23mistral-large-2512gemini-3-pro-preview

En se basant uniquement sur le taux de victoire moyen, on peut obtenir un classement global, mais ce calcul suppose que chaque modèle ait joué contre tous les autres.

Cette méthode n'est pas idéale car elle nécessite les données de toutes les combinaisons de modèles et ès qu’on augmente le nombre de modèles, cela devient vite coûteux et lourd à maintenir.

10 premiers modèles du classement selon de taux de victoire estimé avec le modèle Bradley-Terry

54%56%58%60%62%64%66%gemini-3-flash-previewmistral-large-2512mistral-medium-2508gemini-2.5-flashgemini-3-pro-previewqwen3-max-2025-09-23gemini-2.0-flashdeepseek-v3-0324magistral-mediumgemma-3-27b

Le modèle Bradley-Terry transforme un ensemble de comparaisons locales et potentiellement incomplètes en un système de classement global cohérent et statistiquement robuste, là où le taux de victoire empirique reste limité aux observations directes.