# Entendendo preços de API LLM
As APIs de Modelo de Linguagem Grande cobram com base no uso de tokens, não em tempo ou solicitações. Cada chamada de API tem dois custos: o custo de entrada (processando seu prompt) e o custo de saída (gerando a resposta). Entender essa divisão é fundamental para estimar sua fatura mensal com precisão.# Tokens de entrada vs tokens de saída
Tokens de entrada
Os tokens de entrada representam tudo enviado para o modelo: seu prompt do sistema, histórico de conversa e mensagem do usuário. Eles são mais baratos porque o modelo os processa em paralelo. Um prompt de sistema típico de 200 palavras custa aproximadamente 267 tokens de entrada.
Tokens de saída
Os tokens de saída são gerados um por um em sequência, tornando-os computacionalmente mais caros. A maioria dos provedores cobra 3–5× mais para tokens de saída. Uma resposta de 300 palavras gera aproximadamente 400 tokens de saída. Manter as respostas concisas é uma das estratégias mais eficazes de economia de custos.
# Escolhendo o modelo certo para seu orçamento
GPT-4o mini ou Gemini 1.5 Flash e atualize apenas se a qualidade for insuficiente. A diferença de custo entre um modelo pequeno e grande pode ser 10–100×. claude-3-opus ou o1 para tarefas de raciocínio complexo onde a qualidade afeta diretamente os resultados.