LLMコスト計算ツール。AIモデルAPIの料金見積もり

LLM APIの呼び出しコストを無料で試算できるオンラインツールです。GPT-4o、Claude、Gemini、Llamaなどを、100万トークンあたりの実際の料金で比較できます。

~750 単語

~375 単語

1リクエストあたりのコスト

$0.00
x 1,000

推定合計コスト

$0.00
入力 出力
ユーティリティスタジオ

このユーティリティをあなたのサイトに追加しませんか?

WordPress、Notion、またはご自身のサイト向けに、カラーとダークモードをカスタマイズできます。

よくある質問

LLM APIのコストはどう計算されますか?

LLM APIでは、入力トークン(プロンプト)と出力トークン(レスポンス)が別々に課金されます。1リクエストあたりの合計コストは「(入力トークン数 × 入力単価 + 出力トークン数 × 出力単価) ÷ 1,000,000」で算出されます。これにリクエスト数を掛けることで、月間合計コストが求められます。

トークンとは何ですか?単語数とどう関係しますか?

トークンとは、言語モデルが処理するテキストの基本単位です。英語では平均して1トークンが約0.75単語に相当するため、1,000トークン ≈ 750単語となります。料金は100万トークンあたり($/1M)で表示されるのが業界標準です。

出力トークンが入力トークンより高いのはなぜですか?

テキストを生成(出力)する際、モデルはトークンを1つずつ逐次的に計算するため、入力を読み込む処理よりも計算コストが高くなります。多くのプロバイダーでは、出力トークンの料金を入力トークンの3〜5倍に設定しています。

LLM APIのコストを下げるにはどうすればよいですか?

品質要件を満たす中で最も小さなモデルを選択しましょう。繰り返し使うプロンプトはキャッシュを活用することも有効です。システムプロンプトはできるだけ短くし、不要なコンテキストは含めないようにしましょう。分類や抽出などのシンプルなタスクには、GPT-4o miniやGemini Flashのような軽量モデルが大幅なコスト削減につながります。

# LLM APIの料金体系を理解する

大規模言語モデルのAPIは、時間やリクエスト数ではなく、トークンの使用量に基づいて課金されます。各APIコールには2種類のコストが発生します。入力コスト(プロンプトの処理)と出力コスト(レスポンスの生成)です。この違いを把握することが、月額費用を正確に見積もるうえで欠かせません。

# 入力トークンと出力トークンの違い

入力トークン

入力トークンとは、モデルに送信されるすべてのテキストを指します。システムプロンプト、会話履歴、ユーザーメッセージが含まれます。モデルがこれらを並列処理するため、コストは比較的低く抑えられます。200単語程度の一般的なシステムプロンプトは、おおよそ267入力トークンに相当します。

出力トークン

出力トークンは1つずつ逐次的に生成されるため、計算コストが高くなります。多くのプロバイダーでは、出力トークンの料金を入力トークンの3〜5倍に設定しています。300単語のレスポンスはおよそ400出力トークンに相当します。レスポンスを簡潔に保つことは、コスト削減に最も効果的な手段のひとつです。

# 予算に合ったモデルの選び方

まずはGPT-4o miniGemini 1.5 Flashのような中堅モデルから始め、品質が不十分な場合にのみ上位モデルへ移行することをおすすめします。小型モデルと大型モデルのコスト差は、10〜100倍になることもあります。
すべてのタスクが同じモデル品質を必要とするわけではありません。分類・抽出・要約といったタスクは、より小型で安価なモデルでも十分に対応できることが多いです。claude-3-opuso1のような大規模フロンティアモデルは、品質が結果に直接影響する複雑な推論タスクのために取っておきましょう。

参考文献