# Comprendre la tarification des APIs LLM
Les APIs de modèles de langage facturent en fonction de l'utilisation des tokens, et non du temps ou des requêtes. Chaque appel a deux coûts : le coût d'entrée (traitement de votre prompt) et le coût de sortie (génération de la réponse). Comprendre cette distinction est essentiel pour estimer avec précision votre facture mensuelle.# Tokens d'entrée et tokens de sortie
Tokens d'entrée
Les tokens d'entrée représentent tout ce qui est envoyé au modèle : votre prompt système, l'historique de la conversation et le message de l'utilisateur. Ils sont moins chers car le modèle les traite en parallèle. Un prompt système typique de 200 mots génère environ 267 tokens d'entrée.
Tokens de sortie
Les tokens de sortie sont générés un par un séquentiellement, ce qui les rend plus coûteux en calcul. La plupart des fournisseurs facturent 3 à 5 fois plus pour les tokens de sortie. Une réponse de 300 mots génère environ 400 tokens de sortie. Garder les réponses concises est une des stratégies d'économie les plus efficaces.
# Choisir le bon modèle pour votre budget
GPT-4o mini ou Gemini 1.5 Flash et ne montez en gamme que si la qualité est insuffisante. La différence de coût entre un petit et un grand modèle peut être de 10 à 100 fois. claude-3-opus ou o1 pour les raisonnements complexes où la qualité impacte directement les résultats.