Comparatif 2025 des 150 meilleurs LLMs d'OpenAI, Mistral, Cohere, Anthropic, Alibaba...
Nous avons réalisé un comparatif des LLM les plus populaires afin de vous donner une vision du marché ainsi qu'une liste des critères de choix des LLMs les plus adaptés à vos besoins.
Le marché des grands modèles de langage (LLM) connaît une croissance importante, avec une offre de plus en plus diversifiée et difficilement lisible.
Cette liste des LLM vous permettra de faire un tour du marché très rapidement.
Mais, pour vous aider à choisir le bon modèle, voici une liste des critères essentiels: performances, coût, souveraineté, confidentialité, sécurité, personnalisation, évolutivité, rapidité et options d’hébergement.
Comparatif LLM : les critères essentiels
Le choix d’un LLM ne se limite pas à la seule performance sur des benchmarks : il s’agit d’une évaluation globale prenant en compte la qualité des réponses, la rapidité d’exécution (vitesse de génération, latence), la taille de la fenêtre contextuelle (le volume de texte que vous pouvez inclure dans la requête), mais aussi le coût d’utilisation (prix par million de tokens), la facilité d’intégration et les capacités de personnalisation.
Les modèles les plus avancés, comme o4-mini (high) d’OpenAI ou Gemini 2.5 Pro de Google, se distinguent par leur score d’intelligence élevé, leur rapidité de génération et leur faible latence. Cependant, certains modèles spécialisés ou allégés peuvent offrir des performances optimisées pour des usages spécifiques ou des contraintes matérielles. Une entreprise n'a pas toujours besoin d'un modèle généraliste polyvalent et peut se contenter d'un petit modèle spécialisé ou spécialisable en tout cas via un RAG, par exemple.
Le prix par million de tokens varie fortement d’un modèle à l’autre. Des modèles comme Gemma 3 4B ou Qwen2.5 Coder 7B figurent parmi les plus économiques, tandis que les modèles premium affichent des tarifs nettement supérieurs.
La vitesse de sortie (le nombre de tokens/mots par seconde) et la latence sont des facteurs décisifs pour les applications en temps réel (comme les chatbots). Certains modèles sont conçus pour maximiser le débit, d’autres pour réduire au minimum le temps de réponse.
Liste des LLM : panorama des solutions
La liste des LLM disponibles s’étend des offres propriétaires (OpenAI, Google, Anthropic, Meta, Mistral, xAI, Alibaba…) aux modèles open source ou spécialisés, chacun répondant à des besoins distincts.
Souveraineté, confidentialité et sécurité : cloud vs on-premise
Un critère de plus en plus central dans le comparatif LLM est le mode d’hébergement : cloud, on-premise ou hybride. Le cloud offre une évolutivité immédiate, un déploiement rapide et des coûts variables, mais soulève des questions de confidentialité et de souveraineté des données, car les informations transitent par des serveurs tiers. À l’inverse, l’hébergement on-premise garantit un contrôle total sur les données, une personnalisation poussée et une conformité accrue aux exigences réglementaires, au prix d’une gestion plus complexe et de coûts initiaux plus élevés.
Certaines entreprises optent pour une approche hybride : elles exploitent la flexibilité du cloud pour les usages généraux et réservent un LLM interne pour les données sensibles ou pour maîtriser les coûts à grande échelle.
Personnalisation, évolutivité et adaptation métier
La capacité à personnaliser un LLM pour l’adapter à des cas d’usage métier, à intégrer des bases de connaissances internes ou à ajuster les paramètres de sécurité et de confidentialité est un atout majeur. Les modèles open source ou ceux pouvant être déployés on-premise offrent généralement une plus grande latitude de personnalisation et d’évolutivité.
Model | Company | Context Window | Intelligence | Price ($ per M tokens) | Output Speed (tokens/s) | Latency (seconds) |
---|---|---|---|---|---|---|
Yi-Large | 01.AI | 32k | 28 | 3.00 | 67.6 | 0.41 |
Jamba 1.5 Large | AI21 Labs | 256k | 29 | 3.50 | ||
Jamba 1.6 Large | AI21 Labs | 256k | 29 | 3.50 | 62.1 | 0.61 |
Jamba 1.5 Mini | AI21 Labs | 256k | 18 | 0.25 | ||
Jamba 1.6 Mini | AI21 Labs | 256k | 18 | 0.25 | 175.2 | 0.32 |
Jamba Instruct | AI21 Labs | 256k | 0.00 | |||
Qwen3 235B A22B (Reasoning) | Alibaba | 128k | 62 | 2.63 | 69.5 | 1.17 |
Qwen3 32B (Reasoning) | Alibaba | 128k | 59 | 2.63 | 64.9 | 1.08 |
QwQ-32B | Alibaba | 131k | 58 | 0.47 | 106.9 | 0.52 |
Qwen3 14B (Reasoning) | Alibaba | 128k | 56 | 1.31 | 63.6 | 1.05 |
Qwen3 30B A3B (Reasoning) | Alibaba | 128k | 56 | 0.75 | 92.1 | 1.02 |
Qwen3 8B (Reasoning) | Alibaba | 128k | 51 | 0.66 | 94.2 | 0.97 |
Qwen3 4B (Reasoning) | Alibaba | 32k | 47 | 0.40 | 100.5 | 0.98 |
Qwen3 235B A22B | Alibaba | 128k | 47 | 1.23 | 70.3 | 1.22 |
Qwen2.5 Max | Alibaba | 32k | 45 | 2.80 | 50.9 | 1.26 |
Qwen3 32B | Alibaba | 128k | 44 | 1.23 | 65.5 | 1.06 |
QwQ 32B-Preview | Alibaba | 33k | 43 | 0.23 | 50.6 | 0.44 |
Qwen3 30B A3B | Alibaba | 128k | 43 | 0.35 | 92.5 | 1.03 |
Qwen3 14B | Alibaba | 128k | 41 | 0.61 | 64.2 | 1.13 |
Qwen2.5 72B | Alibaba | 131k | 40 | 0.00 | 50.8 | 1.08 |
Qwen3 1.7B (Reasoning) | Alibaba | 32k | 38 | 0.40 | 131.1 | 0.90 |
Qwen2.5 Instruct 32B | Alibaba | 128k | 37 | 0.15 | ||
Qwen3 8B | Alibaba | 128k | 37 | 0.31 | 95.3 | 1.01 |
Qwen2.5 Coder 32B | Alibaba | 131k | 36 | 0.15 | 53.1 | 0.40 |
Qwen3 4B | Alibaba | 32k | 35 | 0.19 | 102.9 | 0.98 |
Qwen2.5 Turbo | Alibaba | 1m | 34 | 0.09 | 108.8 | 1.10 |
Qwen2 72B | Alibaba | 131k | 33 | 0.00 | 31.0 | 1.31 |
Qwen2.5 Coder 7B | Alibaba | 131k | 27 | 0.03 | 229.6 | 0.47 |
Qwen3 1.7B | Alibaba | 32k | 25 | 0.19 | 134.7 | 0.93 |
Qwen3 0.6B (Reasoning) | Alibaba | 32k | 23 | 0.40 | 209.9 | 0.94 |
Qwen3 0.6B | Alibaba | 32k | 17 | 0.19 | 216.5 | 0.92 |
Qwen Chat 14B | Alibaba | 8k | 0.00 | |||
Qwen1.5 Chat 110B | Alibaba | 32k | 0.00 | 23.7 | ||
Qwen Chat 72B | Alibaba | 34k | 1.00 | |||
Tulu3 405B | Allen Institute for AI | 128k | 40 | 0.00 | ||
Nova Premier | Amazon | 1m | 43 | 5.00 | 65.4 | 0.85 |
Nova Pro | Amazon | 300k | 37 | 1.40 | ||
Nova Lite | Amazon | 300k | 33 | 0.10 | 284.3 | 0.30 |
Nova Micro | Amazon | 130k | 28 | 0.06 | 327.2 | 0.29 |
Claude 3.7 Sonnet Thinking | Anthropic | 200k | 57 | 6.00 | ||
Claude 3.7 Sonnet | Anthropic | 200k | 48 | 6.00 | 75.8 | 2.31 |
Claude 3.5 Sonnet (Oct) | Anthropic | 200k | 44 | 6.00 | 77.6 | 0.88 |
Claude 3 Opus | Anthropic | 200k | 35 | 30.00 | 27.7 | 1.02 |
Claude 3.5 Haiku | Anthropic | 200k | 35 | 1.60 | 64.5 | 0.87 |
Claude 3 Sonnet | Anthropic | 200k | 28 | 6.00 | 59.8 | 0.61 |
Claude 2.1 | Anthropic | 200k | 24 | 12.00 | 13.9 | 0.95 |
Claude 3.5 Sonnet (June) | Anthropic | 200k | 6.00 | 78.4 | ||
Claude 3 Haiku | Anthropic | 200k | 0.50 | 139.9 | ||
Claude Instant | Anthropic | 100k | 1.20 | 62.6 | ||
Claude 2.0 | Anthropic | 100k | 12.00 | 30.8 | ||
Command A | Cohere | 256k | 40 | 4.38 | 94.0 | 0.20 |
Command-R+ | Cohere | 128k | 21 | 4.38 | 49.5 | 0.27 |
Aya Expanse 32B | Cohere | 128k | 20 | 0.75 | 120.3 | 0.17 |
Command-R+ (Apr '24) | Cohere | 128k | 20 | 6.00 | 63.3 | 0.23 |
Aya Expanse 8B | Cohere | 8k | 16 | 0.75 | 169.6 | 0.15 |
Command-R | Cohere | 128k | 15 | 0.26 | 67.6 | 0.19 |
Command-R (Mar '24) | Cohere | 128k | 15 | 0.75 | 163.2 | 0.16 |
DBRX | Databricks | 33k | 20 | 0.00 | ||
DeepSeek R1 | DeepSeek | 128k | 60 | 0.96 | 24.7 | 3.86 |
DeepSeek V3 (Mar' 25) | DeepSeek | 128k | 53 | 0.48 | 24.8 | 3.50 |
DeepSeek R1 Distill Qwen 32B | DeepSeek | 128k | 52 | 0.22 | 21.4 | 1.08 |
DeepSeek R1 Distill Qwen 14B | DeepSeek | 128k | 49 | 0.88 | 46.1 | 0.63 |
DeepSeek R1 Distill Llama 70B | DeepSeek | 128k | 48 | 0.60 | 108.2 | 0.47 |
DeepSeek V3 (Dec '24) | DeepSeek | 128k | 46 | 0.48 | ||
DeepSeek R1 Distill Llama 8B | DeepSeek | 128k | 34 | 0.04 | 52.8 | 0.71 |
DeepSeek R1 Distill Qwen 1.5B | DeepSeek | 128k | 19 | 0.18 | 384.8 | 0.23 |
DeepSeek-V2.5 (Dec '24) | DeepSeek | 128k | 0.17 | |||
DeepSeek-Coder-V2 | DeepSeek | 128k | 0.17 | |||
DeepSeek LLM 67B (V1) | DeepSeek | 4k | 0.00 | |||
DeepSeek-V2 | DeepSeek | 128k | 0.17 | |||
DeepSeek-V2.5 | DeepSeek | 128k | 0.17 | |||
DeepSeek Coder V2 Lite | DeepSeek | 128k | 0.09 | 98.7 | ||
Gemini 2.5 Pro | 1m | 69 | 3.44 | 154.2 | 33.13 | |
Gemini 2.5 Flash (Reasoning) | 1m | 60 | 0.99 | 331.7 | 7.95 | |
Gemini 2.0 Flash Thinking exp. (Jan '25) | 1m | 52 | 0.00 | |||
Gemini 2.0 Pro Experimental | 2m | 49 | 0.00 | 30.8 | 16.84 | |
Gemini 2.5 Flash | 1m | 49 | 0.26 | 266.7 | 0.40 | |
Gemini 2.0 Flash | 1m | 48 | 0.17 | 246.7 | 0.36 | |
Gemini 2.0 Flash (exp) | 1m | 46 | 0.00 | 259.5 | 0.24 | |
Gemini 1.5 Pro (Sep) | 2m | 45 | 2.19 | 92.4 | 0.52 | |
Gemini 2.0 Flash-Lite (Feb '25) | 1m | 41 | 0.13 | 211.7 | 0.27 | |
Gemini 1.5 Flash (Sep) | 1m | 39 | 0.13 | 192.2 | 0.18 | |
Gemma 3 27B | 128k | 38 | 0.00 | |||
Gemma 3 12B | 128k | 34 | 0.06 | 20.2 | 0.71 | |
Gemini 1.5 Pro (May) | 2m | 34 | 2.19 | 66.1 | 0.34 | |
Gemini 1.5 Flash-8B | 1m | 31 | 0.07 | 279.5 | 0.20 | |
Gemini 1.5 Flash (May) | 1m | 28 | 0.13 | 329.2 | 0.25 | |
Gemma 3 4B | 128k | 24 | 0.03 | 92.0 | 0.22 | |
Gemma 2 9B | 8k | 22 | 0.12 | |||
Gemini 1.0 Pro | 33k | 21 | 0.75 | |||
PALM-2 | 8k | 0.00 | ||||
Gemma 3 1B | 32k | 0.00 | ||||
Gemini 2.0 Flash-Lite (Preview) | 1m | 0.13 | 208.3 | |||
Gemma 2 27B | 8k | 0.26 | ||||
Gemini 1.0 Ultra | 33k | 0.00 | ||||
Gemini 2.0 Flash Thinking exp. (Dec '24) | 2m | 0.00 | ||||
LFM 40B | Liquid AI | 32k | 22 | 0.15 | 159.6 | 0.17 |
Llama 4 Maverick | Meta | 1m | 51 | 0.37 | 128.7 | 0.37 |
Llama 4 Scout | Meta | 10m | 43 | 0.28 | 127.1 | 0.48 |
Llama 3.3 70B | Meta | 128k | 41 | 0.62 | 106.2 | 0.44 |
Llama 3.1 405B | Meta | 128k | 40 | 3.25 | 35.2 | 0.68 |
Llama 3.1 70B | Meta | 128k | 35 | 0.72 | 60.9 | 0.48 |
Llama 3.2 90B (Vision) | Meta | 128k | 33 | 0.72 | 40.3 | 0.25 |
Llama 3 70B | Meta | 8k | 27 | 0.84 | 47.2 | 0.58 |
Llama 3.1 8B | Meta | 128k | 24 | 0.10 | 185.9 | 0.32 |
Llama 3 8B | Meta | 8k | 21 | 0.09 | 104.7 | 0.33 |
Llama 2 Chat 13B | Meta | 4k | 20 | 0.00 | ||
Llama 3.2 3B | Meta | 128k | 20 | 0.04 | 117.9 | 0.44 |
Llama 3.2 1B | Meta | 128k | 10 | 0.03 | 118.4 | 0.42 |
Llama 2 Chat 7B | Meta | 4k | 8 | 0.10 | ||
Llama 3.2 11B (Vision) | Meta | 128k | 0.16 | 117.2 | ||
Llama 65B | Meta | 2k | 0.00 | |||
Llama 2 Chat 70B | Meta | 4k | 0.00 | |||
Phi-4 | Microsoft Azure | 16k | 40 | 0.22 | 32.3 | 0.47 |
Phi-4 Multimodal | Microsoft Azure | 128k | 27 | 0.00 | 21.5 | 0.34 |
Phi-4 Mini | Microsoft Azure | 128k | 26 | 0.00 | 58.6 | 0.33 |
Phi-3 Medium 14B | Microsoft Azure | 128k | 25 | 0.30 | 52.2 | 0.44 |
Phi-3 Mini | Microsoft Azure | 4k | 22 | 0.00 | ||
MiniMax-Text-01 | MiniMax | 4m | 40 | 0.42 | 32.5 | 0.86 |
Mistral Medium 3 | Mistral | 128k | 49 | 0.00 | ||
Mistral Large 2 (Nov '24) | Mistral | 128k | 38 | 3.00 | 58.7 | 0.41 |
Pixtral Large | Mistral | 128k | 37 | 3.00 | 82.3 | 0.37 |
Mistral Large 2 (Jul '24) | Mistral | 128k | 37 | 3.00 | 36.7 | 0.50 |
Mistral Small 3.1 | Mistral | 128k | 35 | 0.15 | 154.3 | 0.27 |
Mistral Small | Mistral | 32k | 35 | 0.15 | 164.0 | 0.27 |
Codestral (Jan '25) | Mistral | 256k | 28 | 0.45 | 124.3 | 0.31 |
Mistral Small (Sep '24) | Mistral | 33k | 27 | 0.30 | 91.8 | 0.30 |
Mistral Large (Feb '24) | Mistral | 33k | 26 | 6.00 | 30.2 | 0.47 |
Mixtral 8x22B | Mistral | 65k | 26 | 3.00 | 58.8 | 0.32 |
Pixtral 12B | Mistral | 128k | 23 | 0.15 | 86.1 | 0.28 |
Mistral Small (Feb '24) | Mistral | 33k | 23 | 1.50 | 161.2 | 0.26 |
Mistral Medium | Mistral | 33k | 23 | 4.09 | 84.8 | 0.39 |
Ministral 8B | Mistral | 128k | 22 | 0.10 | 134.6 | 0.30 |
Codestral (May '24) | Mistral | 33k | 20 | 0.30 | 104.2 | 0.31 |
Ministral 3B | Mistral | 128k | 20 | 0.04 | 228.2 | 0.25 |
Mistral NeMo | Mistral | 128k | 20 | 0.15 | 142.4 | 0.29 |
Mixtral 8x7B | Mistral | 33k | 17 | 0.70 | 87.9 | 0.33 |
Codestral-Mamba | Mistral | 256k | 14 | 0.25 | 94.4 | 0.44 |
Mistral 7B | Mistral | 8k | 10 | 0.25 | 103.8 | 0.27 |
Mistral Saba | Mistral | 32k | 0.30 | 91.9 | ||
DeepHermes 3 - Mistral 24B | Nous Research | 32k | 30 | 0.00 | ||
Hermes 3 - Llama-3.1 70B | Nous Research | 128k | 29 | 0.00 | ||
DeepHermes 3 - Llama-3.1 8B | Nous Research | 128k | 16 | 0.00 | ||
Llama 3.1 Nemotron Ultra 253B Reasoning | NVIDIA | 128k | 61 | 0.90 | 42.8 | 0.65 |
Llama 3.3 Nemotron Super 49B Reasoning | NVIDIA | 128k | 51 | 0.00 | ||
Llama 3.3 Nemotron Super 49B v1 | NVIDIA | 128k | 39 | 0.00 | ||
Llama 3.1 Nemotron 70B | NVIDIA | 128k | 37 | 0.24 | 49.1 | 0.52 |
o4-mini (high) | OpenAI | 200k | 70 | 1.93 | 142.3 | 51.15 |
o3 | OpenAI | 128k | 67 | 17.50 | 213.3 | 15.64 |
o3-mini (high) | OpenAI | 200k | 66 | 1.93 | 184.5 | 43.36 |
o3-mini | OpenAI | 200k | 63 | 1.93 | 189.2 | 13.01 |
o1 | OpenAI | 200k | 62 | 26.25 | 134.0 | 22.47 |
o1-mini | OpenAI | 128k | 54 | 1.93 | 226.3 | 10.77 |
GPT-4.1 mini | OpenAI | 1m | 53 | 0.70 | 79.3 | 0.46 |
GPT-4.1 | OpenAI | 1m | 53 | 3.50 | 123.3 | 0.57 |
GPT-4o (March 2025) | OpenAI | 128k | 50 | 7.50 | 190.7 | 0.37 |
GPT-4o (Nov '24) | OpenAI | 128k | 41 | 4.38 | 113.0 | 0.51 |
GPT-4.1 nano | OpenAI | 1m | 41 | 0.17 | 196.1 | 0.34 |
GPT-4o (May '24) | OpenAI | 128k | 41 | 7.50 | 154.2 | 0.51 |
GPT-4o mini | OpenAI | 128k | 36 | 0.26 | 70.3 | 0.47 |
o1-pro | OpenAI | 200k | 262.50 | |||
GPT-4o mini Realtime (Dec '24) | OpenAI | 128k | 0.00 | |||
GPT-4o Realtime (Dec '24) | OpenAI | 128k | 0.00 | |||
GPT-4o (ChatGPT) | OpenAI | 128k | 7.50 | |||
o1-preview | OpenAI | 128k | 26.25 | 168.6 | ||
GPT-4o (Aug '24) | OpenAI | 128k | 4.38 | 140.6 | ||
GPT-4 Turbo | OpenAI | 128k | 15.00 | 43.0 | ||
GPT-3.5 Turbo | OpenAI | 4k | 0.75 | 131.8 | ||
GPT-4 | OpenAI | 8k | 37.50 | 30.0 | ||
GPT-4.5 (Preview) | OpenAI | 128k | 93.75 | 72.8 | ||
GPT-3.5 Turbo (0613) | OpenAI | 4k | 0.00 | |||
OpenChat 3.5 | OpenChat | 8k | 0.06 | 58.5 | ||
Sonar | Perplexity | 127k | 43 | 1.00 | 143.4 | 1.81 |
Sonar Pro | Perplexity | 200k | 43 | 6.00 | 81.8 | 2.58 |
Sonar Reasoning Pro | Perplexity | 127k | 0.00 | |||
R1 1776 | Perplexity | 128k | 3.50 | |||
Sonar Reasoning | Perplexity | 127k | 2.00 | 88.9 | ||
Reka Flash 3 | Reka AI | 128k | 47 | 0.35 | 56.5 | 0.94 |
Reka Flash | Reka AI | 128k | 0.35 | 46.3 | ||
Reka Core | Reka AI | 128k | 2.00 | 27.4 | ||
Reka Flash (Feb '24) | Reka AI | 128k | 0.35 | 46.0 | ||
Reka Edge | Reka AI | 128k | 0.10 | 85.6 | ||
Arctic | Snowflake | 4k | 0.00 | |||
Solar Mini | Upstage | 4k | 0.15 | 86.2 | ||
Grok 3 mini Reasoning (high) | xAI | 1m | 67 | 0.35 | 103.9 | 0.41 |
Grok 3 | xAI | 1m | 51 | 6.00 | 54.9 | 0.53 |
Grok 2 | xAI | 131k | 39 | 0.00 | ||
Grok Beta | xAI | 128k | 38 | 7.50 | 68.0 | 0.31 |
Grok 3 Reasoning Beta | xAI | 1m | 0.00 | |||
Grok 3 mini Reasoning (low) | xAI | 1m | 0.35 | 107.9 |