メインコンテンツへスキップ

Chutesの動作方法

Chutes AIはオープンソースモデル向けの分散型サーバーレスコンピュートプラットフォームです。OpenAI互換の推論エンドポイントを公開し、ペイアズユーゴー値の倍数として表現された上限までAPIの使用量をバンドルするサブスクリプションプランを提供しています — Z.AI GLMコーディングプランと構造が似ていますが、完全なオープンソースカタログ(DeepSeek、Llama、Qwen、MiniMax、Kimi、その他多数)をカバーしています。 KodusはChutesと他のものと同じOpenAI互換アダプターを通じて通信するため、コードの変更は不要です — BYOKクレデンシャルだけです。

プランの概要

価格とクォータルールは変更されます。ティアを選択する前に、chutes.ai/pricingで必ず確認してください。
2026年初頭以降、すべてのChutesサブスクリプションには、各モデルの100万トークンあたりの価格から計算された、ティアのペイアズユーゴー値の5倍の使用量が含まれます。 代表的なティア(価格設定ページで最新の数値を確認してください):
ティア月額料金備考
Base約$3/月エントリーティア;限られたモデル選択。
Standard約$10/月フロンティアモデル(DeepSeek V3、MiniMax M2.1など)に必要。
Pro約$20+/月より大量のレビューのための高い5×上限。
EnterpriseカスタムChutesに問い合わせ。
  • 5×上限は月次でリセットされ、ペイアズユーゴーで支払う同じトークン単価に対して計算されます。
  • 一部のモデルにはStandard以上が必要です — ベースティアはフロンティアコーディングモデルを含みません。
  • Chutesは一部のモデルに信頼実行環境(機密コンピュート)バリアントを示す -TEE サフィックスを付けます。

推奨モデル

Chutesは機密コンピュートバリアントに -TEE サフィックスを付けた、HuggingFaceスタイルの org/model 識別子を使用します:
モデルID備考
deepseek-ai/DeepSeek-V3-0324-TEEフロンティアコーディングモデル;強力なエージェント動作。Standard以上が必要。
moonshotai/Kimi-K2-Instruct長コンテキストKimi K2 — 大きなPRに最適。
Qwen/Qwen3-Coder-480B-A35B-Instruct専門コーダー。
chutes/MiniMaxAI/MiniMax-M2.1-TEE代替フロンティアオプション。
ライブリストと現在の価格はllm.chutes.ai/v1/modelsで確認できます。

APIキーの作成

アクティブなサブスクリプション(またはペイアズユーゴー残高)を持つChutesアカウントが必要です。
  1. chutes.aiにアクセスしてアカウントを作成します。
  2. chutes.ai/pricingでティアにサブスクライブするか、希望する場合はペイアズユーゴーを有効にします。
  3. 開発者コンソールを開いてAPIキーを作成します。すぐにコピーします。

KodusでChutesを設定する

オプション1 — Kodus CloudでのBYOK(推奨)

  1. Kodusウェブ UIで、設定 → BYOKを開き、メインモデル(またはフォールバック)の編集をクリックします。
  2. ベースURLと自由テキストのモデル名を入力できるよう、フォームをカスタムモードに切り替えます。
  3. フィールドを入力します:
    フィールド
    プロバイダーOpenAI Compatible
    APIキーChutes APIキー
    ベースURLhttps://llm.chutes.ai/v1
    モデル例:deepseek-ai/DeepSeek-V3-0324-TEE
    最大同時リクエスト数3〜5 が安全な出発点;上限に達しなければ上げる
    最大出力トークン切り捨てが発生しない限りデフォルトのまま
  4. 保存します。Kodusはエンドポイントに対してキーを検証し、401 / 404があれば即座に表示されます。
  5. PRを開いてレビューをトリガーします;BYOKステータスバッジは最初の成功した呼び出しで緑になります。
5×上限はトークン単価から計算されます。高価なフロンティアモデルは小さなモデルよりも上限を速く消費します — ドル当たりのレビューを最大化したい場合は、定期的なPRにはChutesを安価なモデル(Llama、Qwen小型バリアント)と組み合わせ、複雑なレビューにはKodyルールまたは別のBYOKプロファイルを通じてフロンティアモデルを節約してください。
Chutesは分散コンピュートで実行されるため、コールドスタートと末尾レイテンシは専用プロバイダーよりも変動が大きくなります。ノードが遅いか月次上限に達した場合にKodusがフェイルオーバーできるよう、OpenAIまたはAnthropicキーをフォールバックとして設定します。

オプション2 — セルフホスト(環境変数)

固定モード(単一グローバルプロバイダー、BYOKなし)でKodusを実行している場合は、APIとワーカーコンテナの .env でChutesを設定します:
# Chutes設定(固定モード)
API_LLM_PROVIDER_MODEL="deepseek-ai/DeepSeek-V3-0324-TEE"   # カタログの任意のモデルID
API_OPENAI_FORCE_BASE_URL="https://llm.chutes.ai/v1"
API_OPEN_AI_API_KEY="your-chutes-api-key"
このパスは意図的にBYOKを無効にしているセルフホストKodusインストールにのみ必要です。セルフホストインスタンスでBYOKが有効な場合は、オプション1を優先してください — UIベースのフローはクラウドと同じです。
.env を編集後、APIとワーカーコンテナを再起動して確認します:
docker-compose logs api worker | grep -iE "chutes|llm\.chutes"
完全なセルフホストセットアップ(ドメイン、セキュリティキー、データベース、Webhook、リバースプロキシ)については、汎用VMデプロイガイドに従い、LLMブロックのみ上記のものと置き換えてください。

Chutesを選ぶ場合

  • サブスクリプション価格で最も幅広いオープンソースカタログが欲しい場合 — フロンティアDeepSeek / MiniMax / Qwnを定額料金で予測可能な上限付きで使用。
  • 機密コンピュートが重要な場合 — Chutesはコンプライアンス体制で必要な場合に信頼実行環境内で実行される -TEE バリアントを提供。
  • 低〜中程度のボリュームで実行しており、安価なティアの5×PAYG上限内に収まる場合。
複雑な上限計算なしに簡単な定額サブスクリプションを希望する場合はSyntheticを選択してください。GLMファミリーを特にティア付きコミットで希望する場合はZ.AIを選択してください。

トラブルシューティング

  • フロンティアモデル(DeepSeek V3、MiniMax M2.1、一部Qwnバリアント)は2026年2月以降Standardティア以上にゲートされています。
  • アップグレードするか、現在のティアで利用可能なモデル(小型LlamaまたはQwnバリアント)を選択してください。
  • Chutesダッシュボードで現在の使用量を確認します。
  • 上限を延ばすために一時的により安価なモデルに切り替えるか、ティアをアップグレードします。
  • 上限に達している間もレビューが継続されるよう フォールバック BYOKプロバイダーを設定します。
  • Chutesダッシュボードでキーがアクティブでサブスクリプションが最新であることを確認します。
  • .env の値に末尾のスペースや引用符がないことを確認します。
  • Chutesは org/model 形式を使用し、一部のバリアントは -TEE(機密コンピュート)で終わります。llm.chutes.ai/v1/modelsで正確な大文字小文字を確認してください。
  • Chutesは分散コンピュートで実行されるため、末尾レイテンシは専用クラウドより高くなります。
  • レイテンシに敏感なレビューには専用プロバイダーを優先し、夜間またはバッチレビュージョブにChutesを予約するか、高速プロバイダーを メイン として、Chutesを フォールバック として設定します。
  • サーバーが llm.chutes.ai に到達できることを確認します。
  • APIとワーカーのログで正確な上流エラーを確認します。

関連リンク