Formation à GPT3 et ChatGPT
Musclez le contenu + SEO
Intelligence artificielle générative

Comparatif 2025 des 150 meilleurs LLMs d'OpenAI, Mistral, Cohere, Anthropic, Alibaba...

Nous avons réalisé un comparatif des LLM les plus populaires afin de vous donner une vision du marché ainsi qu'une liste des critères de choix des LLMs les plus adaptés à vos besoins.

Le marché des grands modèles de langage (LLM) connaît une croissance importante, avec une offre de plus en plus diversifiée et difficilement lisible.

Cette liste des LLM vous permettra de faire un tour du marché très rapidement.

Mais, pour vous aider à choisir le bon modèle, voici une liste des critères essentiels: performances, coût, souveraineté, confidentialité, sécurité, personnalisation, évolutivité, rapidité et options d’hébergement.

Comparatif LLM : les critères essentiels

Le choix d’un LLM ne se limite pas à la seule performance sur des benchmarks : il s’agit d’une évaluation globale prenant en compte la qualité des réponses, la rapidité d’exécution (vitesse de génération, latence), la taille de la fenêtre contextuelle (le volume de texte que vous pouvez inclure dans la requête), mais aussi le coût d’utilisation (prix par million de tokens), la facilité d’intégration et les capacités de personnalisation.

  • Les modèles les plus avancés, comme o4-mini (high) d’OpenAI ou Gemini 2.5 Pro de Google, se distinguent par leur score d’intelligence élevé, leur rapidité de génération et leur faible latence. Cependant, certains modèles spécialisés ou allégés peuvent offrir des performances optimisées pour des usages spécifiques ou des contraintes matérielles. Une entreprise n'a pas toujours besoin d'un modèle généraliste polyvalent et peut se contenter d'un petit modèle spécialisé ou spécialisable en tout cas via un RAG, par exemple.

  • Le prix par million de tokens varie fortement d’un modèle à l’autre. Des modèles comme Gemma 3 4B ou Qwen2.5 Coder 7B figurent parmi les plus économiques, tandis que les modèles premium affichent des tarifs nettement supérieurs.

  • La vitesse de sortie (le nombre de tokens/mots par seconde) et la latence sont des facteurs décisifs pour les applications en temps réel (comme les chatbots). Certains modèles sont conçus pour maximiser le débit, d’autres pour réduire au minimum le temps de réponse.

Liste des LLM : panorama des solutions

La liste des LLM disponibles s’étend des offres propriétaires (OpenAI, Google, Anthropic, Meta, Mistral, xAI, Alibaba…) aux modèles open source ou spécialisés, chacun répondant à des besoins distincts.

Souveraineté, confidentialité et sécurité : cloud vs on-premise

Un critère de plus en plus central dans le comparatif LLM est le mode d’hébergement : cloud, on-premise ou hybride. Le cloud offre une évolutivité immédiate, un déploiement rapide et des coûts variables, mais soulève des questions de confidentialité et de souveraineté des données, car les informations transitent par des serveurs tiers. À l’inverse, l’hébergement on-premise garantit un contrôle total sur les données, une personnalisation poussée et une conformité accrue aux exigences réglementaires, au prix d’une gestion plus complexe et de coûts initiaux plus élevés.

Certaines entreprises optent pour une approche hybride : elles exploitent la flexibilité du cloud pour les usages généraux et réservent un LLM interne pour les données sensibles ou pour maîtriser les coûts à grande échelle.

Personnalisation, évolutivité et adaptation métier

La capacité à personnaliser un LLM pour l’adapter à des cas d’usage métier, à intégrer des bases de connaissances internes ou à ajuster les paramètres de sécurité et de confidentialité est un atout majeur. Les modèles open source ou ceux pouvant être déployés on-premise offrent généralement une plus grande latitude de personnalisation et d’évolutivité.

 

Model Company Context Window Intelligence Price ($ per M tokens) Output Speed (tokens/s) Latency (seconds)
Yi-Large 01.AI 32k 28 3.00 67.6 0.41
Jamba 1.5 Large AI21 Labs 256k 29 3.50    
Jamba 1.6 Large AI21 Labs 256k 29 3.50 62.1 0.61
Jamba 1.5 Mini AI21 Labs 256k 18 0.25    
Jamba 1.6 Mini AI21 Labs 256k 18 0.25 175.2 0.32
Jamba Instruct AI21 Labs 256k     0.00  
Qwen3 235B A22B (Reasoning) Alibaba 128k 62 2.63 69.5 1.17
Qwen3 32B (Reasoning) Alibaba 128k 59 2.63 64.9 1.08
QwQ-32B Alibaba 131k 58 0.47 106.9 0.52
Qwen3 14B (Reasoning) Alibaba 128k 56 1.31 63.6 1.05
Qwen3 30B A3B (Reasoning) Alibaba 128k 56 0.75 92.1 1.02
Qwen3 8B (Reasoning) Alibaba 128k 51 0.66 94.2 0.97
Qwen3 4B (Reasoning) Alibaba 32k 47 0.40 100.5 0.98
Qwen3 235B A22B Alibaba 128k 47 1.23 70.3 1.22
Qwen2.5 Max Alibaba 32k 45 2.80 50.9 1.26
Qwen3 32B Alibaba 128k 44 1.23 65.5 1.06
QwQ 32B-Preview Alibaba 33k 43 0.23 50.6 0.44
Qwen3 30B A3B Alibaba 128k 43 0.35 92.5 1.03
Qwen3 14B Alibaba 128k 41 0.61 64.2 1.13
Qwen2.5 72B Alibaba 131k 40 0.00 50.8 1.08
Qwen3 1.7B (Reasoning) Alibaba 32k 38 0.40 131.1 0.90
Qwen2.5 Instruct 32B Alibaba 128k 37 0.15    
Qwen3 8B Alibaba 128k 37 0.31 95.3 1.01
Qwen2.5 Coder 32B Alibaba 131k 36 0.15 53.1 0.40
Qwen3 4B Alibaba 32k 35 0.19 102.9 0.98
Qwen2.5 Turbo Alibaba 1m 34 0.09 108.8 1.10
Qwen2 72B Alibaba 131k 33 0.00 31.0 1.31
Qwen2.5 Coder 7B Alibaba 131k 27 0.03 229.6 0.47
Qwen3 1.7B Alibaba 32k 25 0.19 134.7 0.93
Qwen3 0.6B (Reasoning) Alibaba 32k 23 0.40 209.9 0.94
Qwen3 0.6B Alibaba 32k 17 0.19 216.5 0.92
Qwen Chat 14B Alibaba 8k     0.00  
Qwen1.5 Chat 110B Alibaba 32k     0.00 23.7
Qwen Chat 72B Alibaba 34k     1.00  
Tulu3 405B Allen Institute for AI 128k 40 0.00    
Nova Premier Amazon 1m 43 5.00 65.4 0.85
Nova Pro Amazon 300k 37 1.40    
Nova Lite Amazon 300k 33 0.10 284.3 0.30
Nova Micro Amazon 130k 28 0.06 327.2 0.29
Claude 3.7 Sonnet Thinking Anthropic 200k 57 6.00    
Claude 3.7 Sonnet Anthropic 200k 48 6.00 75.8 2.31
Claude 3.5 Sonnet (Oct) Anthropic 200k 44 6.00 77.6 0.88
Claude 3 Opus Anthropic 200k 35 30.00 27.7 1.02
Claude 3.5 Haiku Anthropic 200k 35 1.60 64.5 0.87
Claude 3 Sonnet Anthropic 200k 28 6.00 59.8 0.61
Claude 2.1 Anthropic 200k 24 12.00 13.9 0.95
Claude 3.5 Sonnet (June) Anthropic 200k     6.00 78.4
Claude 3 Haiku Anthropic 200k     0.50 139.9
Claude Instant Anthropic 100k     1.20 62.6
Claude 2.0 Anthropic 100k     12.00 30.8
Command A Cohere 256k 40 4.38 94.0 0.20
Command-R+ Cohere 128k 21 4.38 49.5 0.27
Aya Expanse 32B Cohere 128k 20 0.75 120.3 0.17
Command-R+ (Apr '24) Cohere 128k 20 6.00 63.3 0.23
Aya Expanse 8B Cohere 8k 16 0.75 169.6 0.15
Command-R Cohere 128k 15 0.26 67.6 0.19
Command-R (Mar '24) Cohere 128k 15 0.75 163.2 0.16
DBRX Databricks 33k 20 0.00    
DeepSeek R1 DeepSeek 128k 60 0.96 24.7 3.86
DeepSeek V3 (Mar' 25) DeepSeek 128k 53 0.48 24.8 3.50
DeepSeek R1 Distill Qwen 32B DeepSeek 128k 52 0.22 21.4 1.08
DeepSeek R1 Distill Qwen 14B DeepSeek 128k 49 0.88 46.1 0.63
DeepSeek R1 Distill Llama 70B DeepSeek 128k 48 0.60 108.2 0.47
DeepSeek V3 (Dec '24) DeepSeek 128k 46 0.48    
DeepSeek R1 Distill Llama 8B DeepSeek 128k 34 0.04 52.8 0.71
DeepSeek R1 Distill Qwen 1.5B DeepSeek 128k 19 0.18 384.8 0.23
DeepSeek-V2.5 (Dec '24) DeepSeek 128k     0.17  
DeepSeek-Coder-V2 DeepSeek 128k     0.17  
DeepSeek LLM 67B (V1) DeepSeek 4k     0.00  
DeepSeek-V2 DeepSeek 128k     0.17  
DeepSeek-V2.5 DeepSeek 128k     0.17  
DeepSeek Coder V2 Lite DeepSeek 128k     0.09 98.7
Gemini 2.5 Pro Google 1m 69 3.44 154.2 33.13
Gemini 2.5 Flash (Reasoning) Google 1m 60 0.99 331.7 7.95
Gemini 2.0 Flash Thinking exp. (Jan '25) Google 1m 52 0.00    
Gemini 2.0 Pro Experimental Google 2m 49 0.00 30.8 16.84
Gemini 2.5 Flash Google 1m 49 0.26 266.7 0.40
Gemini 2.0 Flash Google 1m 48 0.17 246.7 0.36
Gemini 2.0 Flash (exp) Google 1m 46 0.00 259.5 0.24
Gemini 1.5 Pro (Sep) Google 2m 45 2.19 92.4 0.52
Gemini 2.0 Flash-Lite (Feb '25) Google 1m 41 0.13 211.7 0.27
Gemini 1.5 Flash (Sep) Google 1m 39 0.13 192.2 0.18
Gemma 3 27B Google 128k 38 0.00    
Gemma 3 12B Google 128k 34 0.06 20.2 0.71
Gemini 1.5 Pro (May) Google 2m 34 2.19 66.1 0.34
Gemini 1.5 Flash-8B Google 1m 31 0.07 279.5 0.20
Gemini 1.5 Flash (May) Google 1m 28 0.13 329.2 0.25
Gemma 3 4B Google 128k 24 0.03 92.0 0.22
Gemma 2 9B Google 8k 22 0.12    
Gemini 1.0 Pro Google 33k 21 0.75    
PALM-2 Google 8k     0.00  
Gemma 3 1B Google 32k     0.00  
Gemini 2.0 Flash-Lite (Preview) Google 1m     0.13 208.3
Gemma 2 27B Google 8k     0.26  
Gemini 1.0 Ultra Google 33k     0.00  
Gemini 2.0 Flash Thinking exp. (Dec '24) Google 2m     0.00  
LFM 40B Liquid AI 32k 22 0.15 159.6 0.17
Llama 4 Maverick Meta 1m 51 0.37 128.7 0.37
Llama 4 Scout Meta 10m 43 0.28 127.1 0.48
Llama 3.3 70B Meta 128k 41 0.62 106.2 0.44
Llama 3.1 405B Meta 128k 40 3.25 35.2 0.68
Llama 3.1 70B Meta 128k 35 0.72 60.9 0.48
Llama 3.2 90B (Vision) Meta 128k 33 0.72 40.3 0.25
Llama 3 70B Meta 8k 27 0.84 47.2 0.58
Llama 3.1 8B Meta 128k 24 0.10 185.9 0.32
Llama 3 8B Meta 8k 21 0.09 104.7 0.33
Llama 2 Chat 13B Meta 4k 20 0.00    
Llama 3.2 3B Meta 128k 20 0.04 117.9 0.44
Llama 3.2 1B Meta 128k 10 0.03 118.4 0.42
Llama 2 Chat 7B Meta 4k 8 0.10    
Llama 3.2 11B (Vision) Meta 128k     0.16 117.2
Llama 65B Meta 2k     0.00  
Llama 2 Chat 70B Meta 4k     0.00  
Phi-4 Microsoft Azure 16k 40 0.22 32.3 0.47
Phi-4 Multimodal Microsoft Azure 128k 27 0.00 21.5 0.34
Phi-4 Mini Microsoft Azure 128k 26 0.00 58.6 0.33
Phi-3 Medium 14B Microsoft Azure 128k 25 0.30 52.2 0.44
Phi-3 Mini Microsoft Azure 4k 22 0.00    
MiniMax-Text-01 MiniMax 4m 40 0.42 32.5 0.86
Mistral Medium 3 Mistral 128k 49 0.00    
Mistral Large 2 (Nov '24) Mistral 128k 38 3.00 58.7 0.41
Pixtral Large Mistral 128k 37 3.00 82.3 0.37
Mistral Large 2 (Jul '24) Mistral 128k 37 3.00 36.7 0.50
Mistral Small 3.1 Mistral 128k 35 0.15 154.3 0.27
Mistral Small Mistral 32k 35 0.15 164.0 0.27
Codestral (Jan '25) Mistral 256k 28 0.45 124.3 0.31
Mistral Small (Sep '24) Mistral 33k 27 0.30 91.8 0.30
Mistral Large (Feb '24) Mistral 33k 26 6.00 30.2 0.47
Mixtral 8x22B Mistral 65k 26 3.00 58.8 0.32
Pixtral 12B Mistral 128k 23 0.15 86.1 0.28
Mistral Small (Feb '24) Mistral 33k 23 1.50 161.2 0.26
Mistral Medium Mistral 33k 23 4.09 84.8 0.39
Ministral 8B Mistral 128k 22 0.10 134.6 0.30
Codestral (May '24) Mistral 33k 20 0.30 104.2 0.31
Ministral 3B Mistral 128k 20 0.04 228.2 0.25
Mistral NeMo Mistral 128k 20 0.15 142.4 0.29
Mixtral 8x7B Mistral 33k 17 0.70 87.9 0.33
Codestral-Mamba Mistral 256k 14 0.25 94.4 0.44
Mistral 7B Mistral 8k 10 0.25 103.8 0.27
Mistral Saba Mistral 32k     0.30 91.9
DeepHermes 3 - Mistral 24B Nous Research 32k 30 0.00    
Hermes 3 - Llama-3.1 70B Nous Research 128k 29 0.00    
DeepHermes 3 - Llama-3.1 8B Nous Research 128k 16 0.00    
Llama 3.1 Nemotron Ultra 253B Reasoning NVIDIA 128k 61 0.90 42.8 0.65
Llama 3.3 Nemotron Super 49B Reasoning NVIDIA 128k 51 0.00    
Llama 3.3 Nemotron Super 49B v1 NVIDIA 128k 39 0.00    
Llama 3.1 Nemotron 70B NVIDIA 128k 37 0.24 49.1 0.52
o4-mini (high) OpenAI 200k 70 1.93 142.3 51.15
o3 OpenAI 128k 67 17.50 213.3 15.64
o3-mini (high) OpenAI 200k 66 1.93 184.5 43.36
o3-mini OpenAI 200k 63 1.93 189.2 13.01
o1 OpenAI 200k 62 26.25 134.0 22.47
o1-mini OpenAI 128k 54 1.93 226.3 10.77
GPT-4.1 mini OpenAI 1m 53 0.70 79.3 0.46
GPT-4.1 OpenAI 1m 53 3.50 123.3 0.57
GPT-4o (March 2025) OpenAI 128k 50 7.50 190.7 0.37
GPT-4o (Nov '24) OpenAI 128k 41 4.38 113.0 0.51
GPT-4.1 nano OpenAI 1m 41 0.17 196.1 0.34
GPT-4o (May '24) OpenAI 128k 41 7.50 154.2 0.51
GPT-4o mini OpenAI 128k 36 0.26 70.3 0.47
o1-pro OpenAI 200k     262.50  
GPT-4o mini Realtime (Dec '24) OpenAI 128k     0.00  
GPT-4o Realtime (Dec '24) OpenAI 128k     0.00  
GPT-4o (ChatGPT) OpenAI 128k     7.50  
o1-preview OpenAI 128k     26.25 168.6
GPT-4o (Aug '24) OpenAI 128k     4.38 140.6
GPT-4 Turbo OpenAI 128k     15.00 43.0
GPT-3.5 Turbo OpenAI 4k     0.75 131.8
GPT-4 OpenAI 8k     37.50 30.0
GPT-4.5 (Preview) OpenAI 128k     93.75 72.8
GPT-3.5 Turbo (0613) OpenAI 4k     0.00  
OpenChat 3.5 OpenChat 8k     0.06 58.5
Sonar Perplexity 127k 43 1.00 143.4 1.81
Sonar Pro Perplexity 200k 43 6.00 81.8 2.58
Sonar Reasoning Pro Perplexity 127k     0.00  
R1 1776 Perplexity 128k     3.50  
Sonar Reasoning Perplexity 127k     2.00 88.9
Reka Flash 3 Reka AI 128k 47 0.35 56.5 0.94
Reka Flash Reka AI 128k     0.35 46.3
Reka Core Reka AI 128k     2.00 27.4
Reka Flash (Feb '24) Reka AI 128k     0.35 46.0
Reka Edge Reka AI 128k     0.10 85.6
Arctic Snowflake 4k     0.00  
Solar Mini Upstage 4k     0.15 86.2
Grok 3 mini Reasoning (high) xAI 1m 67 0.35 103.9 0.41
Grok 3 xAI 1m 51 6.00 54.9 0.53
Grok 2 xAI 131k 39 0.00    
Grok Beta xAI 128k 38 7.50 68.0 0.31
Grok 3 Reasoning Beta xAI 1m     0.00  
Grok 3 mini Reasoning (low) xAI 1m     0.35 107.9

EXCLUSIF

35 Formations
Intelligence Artificielle
Marketing Digital
Ecommerce
Forfait illimité: à partir de 166€/mois

Accès 100 collaborateurs

Découvrir

Recevez des exclus !

Contenus liés

Search