# Понимание ценообразования API LLM
API больших языковых моделей взимают плату на основе использования токенов, а не времени или количества запросов. Каждый вызов API имеет две стоимости: входная стоимость (обработка вашего промпта) и выходная стоимость (генерирование ответа). Понимание этого разделения критически важно для точной оценки вашего ежемесячного счета.# Входные токены vs выходные токены
Входные токены
Входные токены представляют все, что отправляется в модель: ваш системный промпт, историю беседы и сообщение пользователя. Они дешевле, потому что модель обрабатывает их параллельно. Типичный системный промпт из 200 слов стоит примерно 267 входных токенов.
Выходные токены
Выходные токены генерируются один за другим последовательно, делая их вычислительно более дорогостоящими. Большинство провайдеров взимают 3–5× больше за выходные токены. Ответ из 300 слов генерирует примерно 400 выходных токенов. Сохранение ответов краткими - одна из наиболее эффективных стратегий экономии затрат.
# Выбор подходящей модели для вашего бюджета
GPT-4o mini или Gemini 1.5 Flash, и обновляйте, только если качество недостаточно. Разница в стоимости между маленькой и большой моделью может быть 10–100×. claude-3-opus или o1, для сложных задач рассуждения, где качество напрямую влияет на результаты.