Tencentは2026年4月22日にHy3 Previewをオープンソース化し、その日のうちにOpenRouterはこれを完全無料のエンドポイントとしてリストアップしました。クレジットカード不要、トークン課金なし、試用期間なし。TencentのYuanbaoアプリやCodeBuddyアシスタントを動かす2950億パラメーターのMixture-of-Expertsモデルを、今日から自分のコードから無料で呼び出すことができます。
このガイドでは、OpenRouter、Hugging Face Space、そしてオリジナルのHy3リポジトリを通じて、Hy3 Preview APIを無料で利用する方法を紹介します。また、Hy3を2026年の他のオープンモデルと区別する推論モードや、使い捨てスクリプトを書かずにApidog内でAPIをテストする方法についても解説します。
最速で最初の応答を得たい場合は、「ステップバイステップ:OpenRouterでHy3 Previewを無料で呼び出す」にスキップしてください。
TL;DR
-
Hy3 PreviewはOpenRouterで無料利用可能。モデルIDは
tencent/hy3-preview:free、入出力ともに完全無料。 - Mixture-of-Expertsモデル。2950億パラメーター、アクティブ210億パラメーター、192エキスパート(トップ8ルーティング)、256Kトークンのコンテキストウィンドウ。
-
推論モードは3つ:高速応答用の
no_think、エージェント/コーディングタスク用にはlowとhigh。 - オープンウェイトモデルとして強力なベンチマーク(SWE-bench Verified 74.4、Terminal-Bench 2.0 54.4、GPQA Diamond 87.2、MMLU 87.42)。
- 無料で使う方法は3つ:OpenRouter無料ティア、Hugging FaceのHy3-preview Space、またはvLLM+オープンウェイトによるローカル推論。
- Hy3はOpenAI Chat Completionsスキーマを利用。Apidogとは高い互換性があり、OpenRouterエンドポイントにリクエストを送るだけでOK。
Hy3 Previewとは?
Hy3 PreviewはTencentの再編HunYuan基盤モデルチームによる初の主力リリースで、現在は元OpenAI研究者Yao Shunyu氏が率いています。Tencent史上最高性能のモデルであり、DeepSeekやAlibaba、Zhipuといった中国系オープンウェイトモデルのトップリリースへの直接回答です。
公式モデルカードの技術プロファイル:
- アーキテクチャ:Mixture-of-Experts、80層+MTP層、64ヘッドのグループ化クエリ注意。
- パラメーター:2950億(フォワードパスごとに210億アクティブ)。
- エキスパート:192人、トークンごとにトップ8ルーティング。
- コンテキスト:256Kトークン(OpenRouterリスト上は262,144)。
- トークナイザー:BF16精度、120,832語彙。
- ライセンス:Tencent Hy Community License(商用利用可能)。
2000億規模のMoEモデルとの違いは「エージェント学習」。RLインフラ刷新で複数ターンのツール利用が最適化され、SWE-bench VerifiedやTerminal-Bench 2.0などでコード&シェルタスクのスコアがクローズドモデルに迫ります。
Hy3 Previewを無料で利用する3つの方法
チャットUI、API、ローカル実行のいずれかにより、以下の3つのパスがあります。
| パス | 内容 | 無料か? | 用途 |
|---|---|---|---|
OpenRouter tencent/hy3-preview:free
|
ホストされたOpenAI互換API | はい($0 入出力) | エージェント/スクリプト/バックエンド |
| Hugging Face Space | ブラウザチャットデモ | はい | クイックプロンプト・試用・スモークテスト |
| セルフホスト(vLLM/SGLang) | ローカルGPUでウェイト実行 | ソフト無料、HWコスト | プライバシー/大量処理 |
ほとんどの開発者はOpenRouter推奨。サインアップからAPI呼び出しまで最速、無料ティアの制限もプロトタイピングなら十分です。
ステップバイステップ:OpenRouterでHy3 Previewを無料で呼び出す
tencent/hy3-preview:free を使って最短でAPI応答を得る手順です。
OpenRouterアカウント作成
openrouter.aiでメール登録。無料モデル利用に支払い情報は不要。APIキー生成
ダッシュボードの「Keys」から新規APIキーを発行し、export OPENROUTER_API_KEY=sk-or-...のように保存。モデルページ確認
Hy3 Preview無料リストにアクセスし、「Free」バナーと利用状況を確認(ローンチ時は1日68.1億プロンプトトークン処理)。
- 最初のリクエストを送信 OpenAI互換形式なので、OpenAI SDKやcurlでそのまま利用可能。
curl https://openrouter.ai/api/v1/chat/completions \
-H "Authorization: Bearer $OPENROUTER_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
],
"temperature": 0.9,
"top_p": 1.0
}'
-
推論モードを指定(任意)
Hy3は
reasoningパラメーターでeffort(low/high)を切り替え可能。OpenRouterではreasoning_details配列で推論トレースも返します。
{
"model": "tencent/hy3-preview:free",
"messages": [
{"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
],
"reasoning": {"effort": "high"}
}
- 反復利用 256Kウィンドウを活かし、コードベース全体・長い会話でも同じスレッドで連続利用できます。
これでHy3 PreviewのAPIフローは完了。Hugging Face公開ウェイトと同一で、無料ティアの品質も有料ルートと同等です。
無料、プラス、セルフホスト:違いまとめ
各プランの違いを実装時の視点で比較します。
| 機能 | OpenRouter無料 | OpenRouter有料 | セルフホスト |
|---|---|---|---|
| トークンコスト | $0 | プロバイダーごと | 電気代+GPU減価償却 |
| 推論モード |
no_think/low/high
|
同じ | 同じ |
| コンテキスト長 | 256K | 256K | 256K(メモリ次第) |
| スループット | 共有プール(負荷で低下) | 専用 | クラスタ依存 |
| レート制限 | 無料ティア制限 | プロバイダーごと | なし |
| データ保持 | OpenRouterポリシー | プロバイダーごと | 自前ハードのみ |
| 推論トークンの可視性 | あり(reasoning_details) |
あり | あり |
プロトタイプ・評価・低トラフィック用途は無料で十分。レイテンシやキャップ超過時は有料やセルフホストを検討。
Hy3を最大活用するためのプロンプトとパラメータTips
Hy3は明示的な設定が重要。以下の実践ポイントを意識してください。
-
温度設定:デフォルトは
temperature=0.9/top_p=1.0が推奨。構造化出力時は0.3まで下げる。 -
チャットなら
no_think:デフォルトで推論オフ。プランニングや多段階コード、数学時のみlow/highを使う。一行QAにhighは不要。 -
システムプロンプトでツール名明示:Hy3は
hy_v3パーサーで訓練。ツール毎の役割説明をプロンプトで明記すると精度向上。 - コードは要約せず全貼り付け:256Kウィンドウを活かし、ファイルをそのまま投入。モデルにコードを類推させない。
- 複数ファイルはバッチ投入:SWE-bench 74.4は複数ファイル同時編集で達成。1件ずつではなく、セットでプロンプト化。
- まず計画させる:エージェントタスクは「計画→確認→実行」の2段階パターンが安定。
リリース前に把握すべき制限
- レート制限は変動:無料ティアは全ユーザーで共有。ピーク時は429エラーが出るので、指数バックオフでリトライ推奨。
-
推論トークンは出力扱い:
reasoning_detailsは無料だが、有料ルートでは課金対象。収益プロダクトでのデフォルト利用は要注意。 - ライセンスはApache 2.0ではない:商用OKだが、利用ポリシー・帰属義務あり。必ずGitHubリポジトリで確認。
-
ツール呼び出しは正しいパーサー必須:セルフホスト時はvLLM
--tool-call-parser hy_v3(SGLangはhunyuan)を指定。 - 多言語サポートは英語・中国語が主:C-Eval 89.80, CMMLU 89.61。その他言語は品質低下。
- 一部推論ベンチは米国トップに未到達:HLE 30、難問推論はOpenAI/Google DeepMindの現行旗艦に劣る。
開発者向けTips:Hy3 Preview × Apidog
コマンドラインcurlだけでなく、反復作業にはApidogのようなビジュアルAPIクライアントが効率的です。
Apidogで新規プロジェクト作成
OpenAI Chat Completions OpenAPI仕様をインポート(OpenRouterと完全互換)。ベースURL/環境変数をセット
ベースURL:https://openrouter.ai/api/v1、APIキーを環境変数化。モデル指定してリクエスト作成
モデル:tencent/hy3-preview:free、エンドポイント:/chat/completions。推論モード比較はリクエストフォーク
Apidogならリクエスト複製→パラメータ変更で、同じプロンプトに対しno_think/low/highを並列実行、出力差やレイテンシ比較が容易。プロンプトテンプレ保存&再利用
長大なエージェントプロンプトも、Apidog環境・変数で分離保存し再利用可能。
Postmanユーザーは移行も簡単です。APIテストガイド(2026年Postmanなし)や、VS Code内でのApidog活用法も参考にしてください。エディタ内でのAPIテスト&プロンプト調整にも最適です。
上限到達時の無料代替手段
OpenRouter無料プールでスロットリングされた場合、以下の方法を活用しましょう。
Hugging Face Space利用
Hy3-preview Spaceはブラウザから即利用可能。スクリプトAPI不可だが、比較やクイックテストに便利。他の中国製オープンウェイトモデル
Alibaba Qwen 3.5 Omni(マルチモーダル対応の無料ティア)、セットアップはQwen 3.5 Omni発表・利用方法を参照。Zhipu GLM 5V Turboも無料ティアあり、詳細はGLM 5V Turbo APIガイド。
これらはHy3のSWE-benchやTerminal-Bench性能には及びませんが、チャット/多言語/マルチモーダルなど用途によって選択肢になります。本番導入時はApidogでモデルごとコレクションを作り、実際のプロンプトでベンチマークを行いましょう。
vLLMによるHy3 Previewのセルフホスティング
十分なGPUリソースがあれば、ローカル推論も実用的です。公式モデルカードでは、テンソル並列8&マルチトークン予測を有効化したvLLMを推薦。
vllm serve tencent/Hy3-preview \
--tensor-parallel-size 8 \
--speculative-config.method mtp \
--speculative-config.num_speculative_tokens 1 \
--tool-call-parser hy_v3 \
--reasoning-parser hy_v3 \
--enable-auto-tool-choice \
--served-model-name hy3-preview
SGLangの場合は --tool-call-parser hunyuan / --reasoning-parser hunyuan を指定。サーバーが http://localhost:8000/v1 で起動したら、OpenAI SDKのベースURL/キーを切り替えるだけでOK。
フル精度モデルはBF16・H100クラスGPU×8想定。量子化ビルドも今後登場予定ですが、現時点の公式推奨はフル精度です。
FAQ
Hy3 Previewは本当に無料ですか?
はい。OpenRouterは tencent/hy3-preview:free を100万入力・出力トークンあたり$0で公開。推論トークンも無料ですが、無料ティアのレート制限はあり。実運用前にモデルページで最新状況を確認してください。
Hy3 PreviewはDeepSeek V3やQwen 3と比較してどうですか?
SWE-bench Verified 74.4、Terminal-Bench 2.0スコア54.4で、中国系オープンモデルのトップティア。純粋なチャットはQwen 3やDeepSeek V3が競合しますが、エージェント・コーディングワークフローではHy3のRL学習とツール利用が差別化要素です。
Hy3の推論モードの違いは?
no_think(デフォルト/直接回答)、low、highの3種。OpenRouterではreasoningパラメータ、直接APIならchat_template_kwargs={"reasoning_effort": "high"}で切り替え。プランニング・多段階コード・数学はhigh、通常チャットはno_think。
Hy3 Previewの商用利用は可能?
可能です。Tencent Hy Community Licenseのもと、帰属表示と利用ポリシー遵守で商用OK。収益化前にGitHubリポジトリで必ず規約確認を。
無料ティアのコンテキスト長は?
エンドツーエンドで256Kトークン(OpenRouterリスト上は262,144)。中規模コードベース全体+ツールスキーマ+履歴も十分収容可能。
コードを書かずにHy3 Previewをテストする方法は?
Hugging Face Spaceのブラウザチャットデモ、もしくはOpenRouterエンドポイントにApidogでアクセス。ApidogはOpenAI OpenAPI仕様をインポートできるため、ベースURL・APIキー・モデル名の3項目だけで即テスト開始できます。




Top comments (0)