DEV Community

Cover image for Hy3プレビューAPIを無料で使う方法
Akira
Akira

Posted on • Originally published at apidog.com

Hy3プレビューAPIを無料で使う方法

Tencentは2026年4月22日にHy3 Previewをオープンソース化し、その日のうちにOpenRouterはこれを完全無料のエンドポイントとしてリストアップしました。クレジットカード不要、トークン課金なし、試用期間なし。TencentのYuanbaoアプリやCodeBuddyアシスタントを動かす2950億パラメーターのMixture-of-Expertsモデルを、今日から自分のコードから無料で呼び出すことができます。

Apidogを今すぐ試してみよう

このガイドでは、OpenRouter、Hugging Face Space、そしてオリジナルのHy3リポジトリを通じて、Hy3 Preview APIを無料で利用する方法を紹介します。また、Hy3を2026年の他のオープンモデルと区別する推論モードや、使い捨てスクリプトを書かずにApidog内でAPIをテストする方法についても解説します。

最速で最初の応答を得たい場合は、「ステップバイステップ:OpenRouterでHy3 Previewを無料で呼び出す」にスキップしてください。

TL;DR

  • Hy3 PreviewはOpenRouterで無料利用可能。モデルIDは tencent/hy3-preview:free、入出力ともに完全無料。
  • Mixture-of-Expertsモデル。2950億パラメーター、アクティブ210億パラメーター、192エキスパート(トップ8ルーティング)、256Kトークンのコンテキストウィンドウ
  • 推論モードは3つ:高速応答用のno_think、エージェント/コーディングタスク用にはlowhigh
  • オープンウェイトモデルとして強力なベンチマーク(SWE-bench Verified 74.4Terminal-Bench 2.0 54.4GPQA Diamond 87.2MMLU 87.42)。
  • 無料で使う方法は3つ:OpenRouter無料ティア、Hugging FaceのHy3-preview Space、またはvLLM+オープンウェイトによるローカル推論。
  • Hy3はOpenAI Chat Completionsスキーマを利用。Apidogとは高い互換性があり、OpenRouterエンドポイントにリクエストを送るだけでOK。

Hy3 Previewとは?

Hy3 PreviewはTencentの再編HunYuan基盤モデルチームによる初の主力リリースで、現在は元OpenAI研究者Yao Shunyu氏が率いています。Tencent史上最高性能のモデルであり、DeepSeekやAlibaba、Zhipuといった中国系オープンウェイトモデルのトップリリースへの直接回答です。

Hy3モデル構成図

公式モデルカードの技術プロファイル:

  • アーキテクチャ:Mixture-of-Experts、80層+MTP層、64ヘッドのグループ化クエリ注意。
  • パラメーター:2950億(フォワードパスごとに210億アクティブ)。
  • エキスパート:192人、トークンごとにトップ8ルーティング。
  • コンテキスト:256Kトークン(OpenRouterリスト上は262,144)。
  • トークナイザー:BF16精度、120,832語彙。
  • ライセンス:Tencent Hy Community License(商用利用可能)。

2000億規模のMoEモデルとの違いは「エージェント学習」。RLインフラ刷新で複数ターンのツール利用が最適化され、SWE-bench VerifiedやTerminal-Bench 2.0などでコード&シェルタスクのスコアがクローズドモデルに迫ります。

ベンチマークスコア

Hy3 Previewを無料で利用する3つの方法

チャットUI、API、ローカル実行のいずれかにより、以下の3つのパスがあります。

パス 内容 無料か? 用途
OpenRouter tencent/hy3-preview:free ホストされたOpenAI互換API はい($0 入出力) エージェント/スクリプト/バックエンド
Hugging Face Space ブラウザチャットデモ はい クイックプロンプト・試用・スモークテスト
セルフホスト(vLLM/SGLang) ローカルGPUでウェイト実行 ソフト無料、HWコスト プライバシー/大量処理

ほとんどの開発者はOpenRouter推奨。サインアップからAPI呼び出しまで最速、無料ティアの制限もプロトタイピングなら十分です。

ステップバイステップ:OpenRouterでHy3 Previewを無料で呼び出す

tencent/hy3-preview:free を使って最短でAPI応答を得る手順です。

OpenRouter登録フロー

  1. OpenRouterアカウント作成

    openrouter.aiでメール登録。無料モデル利用に支払い情報は不要。

  2. APIキー生成

    ダッシュボードの「Keys」から新規APIキーを発行し、export OPENROUTER_API_KEY=sk-or-... のように保存。

  3. モデルページ確認

    Hy3 Preview無料リストにアクセスし、「Free」バナーと利用状況を確認(ローンチ時は1日68.1億プロンプトトークン処理)。

モデル利用状況

  1. 最初のリクエストを送信 OpenAI互換形式なので、OpenAI SDKやcurlでそのまま利用可能。
   curl https://openrouter.ai/api/v1/chat/completions \
     -H "Authorization: Bearer $OPENROUTER_API_KEY" \
     -H "Content-Type: application/json" \
     -d '{
       "model": "tencent/hy3-preview:free",
       "messages": [
         {"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
       ],
       "temperature": 0.9,
       "top_p": 1.0
     }'
Enter fullscreen mode Exit fullscreen mode
  1. 推論モードを指定(任意) Hy3はreasoningパラメーターでeffortlow/high)を切り替え可能。OpenRouterではreasoning_details配列で推論トレースも返します。
   {
     "model": "tencent/hy3-preview:free",
     "messages": [
       {"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
     ],
     "reasoning": {"effort": "high"}
   }
Enter fullscreen mode Exit fullscreen mode
  1. 反復利用 256Kウィンドウを活かし、コードベース全体・長い会話でも同じスレッドで連続利用できます。

これでHy3 PreviewのAPIフローは完了。Hugging Face公開ウェイトと同一で、無料ティアの品質も有料ルートと同等です。

無料、プラス、セルフホスト:違いまとめ

各プランの違いを実装時の視点で比較します。

機能 OpenRouter無料 OpenRouter有料 セルフホスト
トークンコスト $0 プロバイダーごと 電気代+GPU減価償却
推論モード no_think/low/high 同じ 同じ
コンテキスト長 256K 256K 256K(メモリ次第)
スループット 共有プール(負荷で低下) 専用 クラスタ依存
レート制限 無料ティア制限 プロバイダーごと なし
データ保持 OpenRouterポリシー プロバイダーごと 自前ハードのみ
推論トークンの可視性 あり(reasoning_details あり あり

プロトタイプ・評価・低トラフィック用途は無料で十分。レイテンシやキャップ超過時は有料やセルフホストを検討。

Hy3を最大活用するためのプロンプトとパラメータTips

Hy3は明示的な設定が重要。以下の実践ポイントを意識してください。

  • 温度設定:デフォルトはtemperature=0.9/top_p=1.0が推奨。構造化出力時は0.3まで下げる。
  • チャットならno_think:デフォルトで推論オフ。プランニングや多段階コード、数学時のみlow/highを使う。一行QAにhighは不要。
  • システムプロンプトでツール名明示:Hy3はhy_v3パーサーで訓練。ツール毎の役割説明をプロンプトで明記すると精度向上。
  • コードは要約せず全貼り付け:256Kウィンドウを活かし、ファイルをそのまま投入。モデルにコードを類推させない。
  • 複数ファイルはバッチ投入:SWE-bench 74.4は複数ファイル同時編集で達成。1件ずつではなく、セットでプロンプト化。
  • まず計画させる:エージェントタスクは「計画→確認→実行」の2段階パターンが安定。

リリース前に把握すべき制限

  • レート制限は変動:無料ティアは全ユーザーで共有。ピーク時は429エラーが出るので、指数バックオフでリトライ推奨。
  • 推論トークンは出力扱いreasoning_detailsは無料だが、有料ルートでは課金対象。収益プロダクトでのデフォルト利用は要注意。
  • ライセンスはApache 2.0ではない:商用OKだが、利用ポリシー・帰属義務あり。必ずGitHubリポジトリで確認。
  • ツール呼び出しは正しいパーサー必須:セルフホスト時はvLLM--tool-call-parser hy_v3(SGLangはhunyuan)を指定。
  • 多言語サポートは英語・中国語が主:C-Eval 89.80, CMMLU 89.61。その他言語は品質低下。
  • 一部推論ベンチは米国トップに未到達:HLE 30、難問推論はOpenAI/Google DeepMindの現行旗艦に劣る。

開発者向けTips:Hy3 Preview × Apidog

コマンドラインcurlだけでなく、反復作業にはApidogのようなビジュアルAPIクライアントが効率的です。

  1. Apidogで新規プロジェクト作成

    OpenAI Chat Completions OpenAPI仕様をインポート(OpenRouterと完全互換)。

  2. ベースURL/環境変数をセット

    ベースURL:https://openrouter.ai/api/v1、APIキーを環境変数化。

  3. モデル指定してリクエスト作成

    モデル:tencent/hy3-preview:free、エンドポイント:/chat/completions

  4. 推論モード比較はリクエストフォーク

    Apidogならリクエスト複製→パラメータ変更で、同じプロンプトに対しno_think/low/highを並列実行、出力差やレイテンシ比較が容易。

  5. プロンプトテンプレ保存&再利用

    長大なエージェントプロンプトも、Apidog環境・変数で分離保存し再利用可能。

Postmanユーザーは移行も簡単です。APIテストガイド(2026年Postmanなし)や、VS Code内でのApidog活用法も参考にしてください。エディタ内でのAPIテスト&プロンプト調整にも最適です。

上限到達時の無料代替手段

OpenRouter無料プールでスロットリングされた場合、以下の方法を活用しましょう。

  • Hugging Face Space利用

    Hy3-preview Spaceはブラウザから即利用可能。スクリプトAPI不可だが、比較やクイックテストに便利。

  • 他の中国製オープンウェイトモデル

    Alibaba Qwen 3.5 Omni(マルチモーダル対応の無料ティア)、セットアップはQwen 3.5 Omni発表利用方法を参照。Zhipu GLM 5V Turboも無料ティアあり、詳細はGLM 5V Turbo APIガイド

これらはHy3のSWE-benchやTerminal-Bench性能には及びませんが、チャット/多言語/マルチモーダルなど用途によって選択肢になります。本番導入時はApidogでモデルごとコレクションを作り、実際のプロンプトでベンチマークを行いましょう。

vLLMによるHy3 Previewのセルフホスティング

十分なGPUリソースがあれば、ローカル推論も実用的です。公式モデルカードでは、テンソル並列8&マルチトークン予測を有効化したvLLMを推薦。

vllm serve tencent/Hy3-preview \
  --tensor-parallel-size 8 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser hy_v3 \
  --reasoning-parser hy_v3 \
  --enable-auto-tool-choice \
  --served-model-name hy3-preview
Enter fullscreen mode Exit fullscreen mode

SGLangの場合は --tool-call-parser hunyuan / --reasoning-parser hunyuan を指定。サーバーが http://localhost:8000/v1 で起動したら、OpenAI SDKのベースURL/キーを切り替えるだけでOK。

フル精度モデルはBF16・H100クラスGPU×8想定。量子化ビルドも今後登場予定ですが、現時点の公式推奨はフル精度です。

FAQ

Hy3 Previewは本当に無料ですか?

はい。OpenRouterは tencent/hy3-preview:free を100万入力・出力トークンあたり$0で公開。推論トークンも無料ですが、無料ティアのレート制限はあり。実運用前にモデルページで最新状況を確認してください。

Hy3 PreviewはDeepSeek V3やQwen 3と比較してどうですか?

SWE-bench Verified 74.4、Terminal-Bench 2.0スコア54.4で、中国系オープンモデルのトップティア。純粋なチャットはQwen 3やDeepSeek V3が競合しますが、エージェント・コーディングワークフローではHy3のRL学習とツール利用が差別化要素です。

Hy3の推論モードの違いは?

no_think(デフォルト/直接回答)、lowhighの3種。OpenRouterではreasoningパラメータ、直接APIならchat_template_kwargs={"reasoning_effort": "high"}で切り替え。プランニング・多段階コード・数学はhigh、通常チャットはno_think

Hy3 Previewの商用利用は可能?

可能です。Tencent Hy Community Licenseのもと、帰属表示と利用ポリシー遵守で商用OK。収益化前にGitHubリポジトリで必ず規約確認を。

無料ティアのコンテキスト長は?

エンドツーエンドで256Kトークン(OpenRouterリスト上は262,144)。中規模コードベース全体+ツールスキーマ+履歴も十分収容可能。

コードを書かずにHy3 Previewをテストする方法は?

Hugging Face Spaceのブラウザチャットデモ、もしくはOpenRouterエンドポイントにApidogでアクセス。ApidogはOpenAI OpenAPI仕様をインポートできるため、ベースURL・APIキー・モデル名の3項目だけで即テスト開始できます。

Top comments (0)