Calculateur de Tarification API
Comparez les coûts des API LLM entre fournisseurs. Calculez le coût par requête et les dépenses mensuelles.
Préréglages d'utilisation
tokens
tokens
/jour
Modèle (7/19)
Comparaison des Coûts
| Modèle | Fournisseur | Coût d'Entrée | Coût de Sortie | Total/Req | Quotidien | Mensuel |
|---|---|---|---|---|---|---|
| GPT-4o MiniLe Moins Cher | OpenAI | $0.0001 | $0.0003 | $0.0004 | $0.05 | $1.35 |
| Gemini 2.5 Flash | $0.0001 | $0.0003 | $0.0004 | $0.05 | $1.35 | |
| Claude 3.5 Haiku | Anthropic | $0.0008 | $0.0020 | $0.0028 | $0.28 | $8.40 |
| Gemini 2.5 Pro | $0.0013 | $0.0050 | $0.0063 | $0.63 | $18.75 | |
| GPT-4o | OpenAI | $0.0025 | $0.0050 | $0.0075 | $0.75 | $22.50 |
| Claude Sonnet 4 | Anthropic | $0.0030 | $0.0075 | $0.0105 | $1.05 | $31.50 |
| Claude Opus 4 | Anthropic | $0.0150 | $0.0375 | $0.0525 | $5.25 | $157.50 |
Coûts affichés par requête | Trié par coût (du moins cher au plus cher)
Comparaison des coûts mensuels
GPT-4o Mini$1.35
Gemini 2.5 Flash$1.35
Claude 3.5 Haiku$8.40
Gemini 2.5 Pro$18.75
GPT-4o$22.50
Claude Sonnet 4$31.50
Claude Opus 4$157.50
Dernière Mise à Jour: March 16, 2026
Comment Ça Marche
Les API LLM facturent en fonction de l'utilisation de tokens. Les tokens sont des fragments de texte — environ 4 caractères ou 0,75 mot en anglais. La tarification est divisée en tokens d'entrée (votre prompt) et tokens de sortie (la réponse du modèle), chacun facturé par million de tokens. Ce calculateur multiplie votre utilisation de tokens par requête par le nombre de requêtes quotidiennes pour estimer les coûts quotidiens et mensuels chez plusieurs fournisseurs.
common.whyThisMatters
tools.api-pricing.whyThisMatters
common.realWorldExamples
tools.api-pricing.realWorldExamples
Méthodologie et Sources
This calculator uses current API pricing data from major LLM providers including OpenAI, Anthropic, Google, Mistral, Meta, Cohere, and others. Prices are listed per million tokens for both input and output, reflecting the standard billing model used across the industry.
Cost per request is calculated as: Total Cost = (Input Tokens × Input Price/1M) + (Output Tokens × Output Price/1M). Monthly estimates multiply per-request cost by the estimated number of requests per month.
Token count estimation uses the general approximation of ~0.75 words per token for English text. Actual tokenization varies by model and tokenizer — GPT-4 and Claude use BPE tokenization, while other models may use SentencePiece or similar tokenizers.
Data sources: Official API pricing pages from each provider, updated regularly. Prices reflect standard tier pricing without volume discounts or committed use agreements.
Limitations: API pricing changes frequently as providers compete and release new models. Cached token pricing, batch processing discounts, and enterprise agreements may significantly reduce costs. The calculator does not account for rate limits, latency differences, or quality variations between models at different price points.
common.commonMistakes
tools.api-pricing.commonMistakes
Questions Fréquentes
Comment les coûts d'API sont-ils calculés ?
Les fournisseurs d'API facturent en fonction des tokens traités. Chaque requête comprend des tokens d'entrée (votre prompt) et des tokens de sortie (la réponse du modèle). La formule de coût est : (tokens_entrée / 1 000 000) × prix_entrée + (tokens_sortie / 1 000 000) × prix_sortie. Par exemple, une requête avec 1 000 tokens d'entrée et 500 tokens de sortie vers GPT-4o coûte (1000/1M × 2,50 $) + (500/1M × 10,00 $) = 0,0025 $ + 0,005 $ = 0,0075 $ par requête.
Qu'est-ce qu'un token ?
Un token est un fragment de texte traité par les modèles de langage. En anglais, un token représente environ 4 caractères ou environ 0,75 mot. Ainsi, un texte anglais de 1 000 mots correspond à environ 1 333 tokens. Cependant, la tokenisation varie selon la langue — le chinois, le japonais et le coréen utilisent généralement plus de tokens par caractère. Le code tend également à utiliser plus de tokens en raison des caractères spéciaux et du formatage.
Quel modèle offre le meilleur rapport qualité-prix ?
Cela dépend de votre cas d'utilisation. Pour les tâches simples comme la classification ou l'extraction, les modèles plus petits comme GPT-4o Mini, Gemini 2.5 Flash ou Claude 3.5 Haiku offrent un excellent rapport qualité-prix à une fraction du coût. Pour le raisonnement complexe, le codage ou les tâches créatives, les modèles plus grands comme GPT-4o, Claude Sonnet 4 ou Gemini 2.5 Pro offrent une meilleure qualité. Testez toujours d'abord avec des modèles plus petits — vous pourriez être surpris par leurs performances pour votre tâche spécifique.
Why is output pricing usually higher than input pricing?
Output tokens are more expensive because generating each output token requires a full forward pass through the model, making it computationally intensive. Input tokens, by contrast, can be processed in parallel during the prefill phase. Additionally, output generation is auto-regressive — each new token depends on all previous tokens — which limits parallelization and increases per-token compute cost. This is why output is typically 2-5x more expensive than input.
How can I reduce my LLM API costs?
Several strategies can significantly reduce API costs: (1) Use prompt caching for repeated context — many providers offer 50-90% discounts on cached tokens. (2) Choose the right model size — smaller models like GPT-4o-mini or Claude Haiku are 10-20x cheaper and sufficient for many tasks. (3) Optimize prompt length by removing unnecessary instructions or context. (4) Use batch processing APIs when real-time responses aren't needed. (5) Implement response length limits to avoid unnecessarily long outputs.
tools.api-pricing.faq.q6
tools.api-pricing.faq.a6
tools.api-pricing.faq.q7
tools.api-pricing.faq.a7
tools.api-pricing.faq.q8
tools.api-pricing.faq.a8
Outils Connexes
Guides Connexes
En savoir plus sur les concepts derrière cet outil