DEV Community

Cover image for Hy3 Preview API Kostenlos Nutzen: So geht's
Emre Demir
Emre Demir

Posted on • Originally published at apidog.com

Hy3 Preview API Kostenlos Nutzen: So geht's

Tencent hat Hy3 Preview am 22. April 2026 quelloffen gemacht, und innerhalb eines Tages listete OpenRouter es als vollständig kostenlosen Endpunkt. Keine Kreditkarte, keine Token-Abrechnung, kein Testzeitraum. Sie können dasselbe 295B-Parameter Mixture-of-Experts-Modell, das Tencents Yuanbao-App und den CodeBuddy-Assistenten antreibt, heute aus Ihrem eigenen Code heraus für null Euro aufrufen.

Testen Sie Apidog noch heute

Dieser Leitfaden zeigt, wie Sie die Hy3 Preview API kostenlos über OpenRouter, den Hugging Face Space und das ursprüngliche Hy3-Repository nutzen können. Er behandelt auch die Denkmodi, die Hy3 von den meisten offenen Modellen von 2026 unterscheiden, und wie Sie die API innerhalb von Apidog testen können, ohne Wegwerf-Skripte schreiben zu müssen.

Wenn Sie den schnellsten Weg zu Ihrer ersten Antwort wünschen, springen Sie zu „Schritt-für-Schritt: Hy3 Preview kostenlos über OpenRouter aufrufen“.

Kurz gesagt (TL;DR)

  • Hy3 Preview ist kostenlos auf OpenRouter unter der Modell-ID tencent/hy3-preview:free mit 0 $ Eingabe- und 0 $ Ausgabepreisen.
  • Es ist ein Mixture-of-Experts-Modell: insgesamt 295B Parameter, 21B aktiv, 192 Experten mit Top-8-Routing und ein 256K-Token-Kontextfenster.
  • Drei Denkmodi sind eingebaut: no_think für schnelle Antworten, low und high für tiefgreifende Chain-of-Thought bei Agenten- und Programmieraufgaben.
  • Die Benchmarks sind für ein Open-Weights-Modell stark: SWE-bench Verified 74.4, Terminal-Bench 2.0 54.4, GPQA Diamond 87.2, MMLU 87.42.
  • Sie können es auf drei kostenlosen Wegen ausführen: den kostenlosen OpenRouter-Tarif, den Hugging Face Hy3-preview Space oder die lokale Inferenz mit vLLM und den offenen Gewichten.
  • Apidog passt gut zum OpenRouter-Endpunkt, da Hy3 das OpenAI Chat Completions-Schema verwendet; richten Sie eine Anfrage an OpenRouter und legen Sie los.

Was ist Hy3 Preview?

Hy3 Preview ist die erste Flaggschiff-Veröffentlichung des neu strukturierten Hunyuan-Basismodellteams von Tencent, das jetzt von Yao Shunyu geleitet wird, einem ehemaligen OpenAI-Forscher, den das Unternehmen eingestellt hat, um seinen Reasoning Stack voranzutreiben. Es kann als Tencents bisher leistungsfähigstes Modell und eine direkte Antwort auf die wichtigsten chinesischen Open-Weights-Veröffentlichungen von DeepSeek, Alibaba und Zhipu verstanden werden.

Hy3 Architektur

Das technische Profil der offiziellen Modellkarte ist agentenorientiert:

  • Architektur: Mixture-of-Experts, 80 Schichten plus eine MTP-Schicht, 64 Attention-Heads mit gruppierter Query-Attention.
  • Parameter: insgesamt 295B, 21B aktiv pro Vorwärtsdurchlauf.
  • Experten: 192 Spezialisten mit Top-8-Routing pro Token.
  • Kontext: 256K Token (262.144 auf OpenRouters Liste).
  • Tokenizer: 120.832-Einträge-Vokabular mit BF16-Präzision.
  • Lizenz: Tencent Hy Community License, kommerzielle Nutzung im Rahmen der Lizenzbedingungen erlaubt.

Was es von einem generischen MoE im 200B-Bereich unterscheidet, ist das agentische Training. Tencent hat seine RL-Infrastruktur für den Multi-Turn-Werkzeuggebrauch neu aufgebaut, und die veröffentlichten Ergebnisse auf SWE-bench Verified, Terminal-Bench 2.0 und der internen WildClawBench-Suite bringen es in die Nähe der besten geschlossenen Modelle bei Code- und Shell-Aufgaben.

Hy3 Benchmarks

Drei kostenlose Wege zur Nutzung von Hy3 Preview

Sie haben drei Möglichkeiten, je nachdem, ob Sie eine Chat-Benutzeroberfläche, eine API oder lokale Gewichte wünschen.

Weg Was es ist Kostenlos? Gut für
OpenRouter tencent/hy3-preview:free Gehostete OpenAI-kompatible API Ja, 0 $ Input/Output Entwicklung von Agenten, Skripten und Backend-Funktionen
Hugging Face Space Browser-Chat-Demo Ja Schnelle Prompts, Ausprobieren, Smoke-Tests
Selbst gehostete Gewichte (vLLM/SGLang) Führen Sie die offenen Gewichte auf eigenen GPUs aus Kostenlose Software, Hardwarekosten fallen an Datenschutzsensible Arbeitslasten, hohes Volumen

Die meisten Entwickler werden den OpenRouter-Weg bevorzugen. Es ist der kürzeste Weg von der Anmeldung bis zu einem funktionierenden API-Aufruf, und die Ratenbegrenzungen im kostenlosen Tarif sind für Prototypen ausreichend großzügig.

Schritt-für-Schritt: Hy3 Preview kostenlos über OpenRouter aufrufen

Hier ist der minimale Weg von null zu einer funktionierenden tencent/hy3-preview:free-Antwort.

OpenRouter Schritt 1

  1. OpenRouter-Konto erstellen. Gehen Sie auf openrouter.ai und melden Sie sich mit E-Mail an. Für Free-Tier-Modelle ist keine Zahlungsmethode erforderlich.
  2. API-Schlüssel generieren. Im OpenRouter-Dashboard unter „Keys“ neuen Schlüssel erstellen. In eine Umgebungsvariable speichern, etwa export OPENROUTER_API_KEY=sk-or-....
  3. Modellseite öffnen. Gehen Sie zur kostenlosen Hy3 Preview-Liste und prüfen Sie den „Free“-Statusbanner. Dort sehen Sie auch Nutzungsstatistiken.

OpenRouter Schritt 2

Erste Anfrage senden: OpenRouter unterstützt das OpenAI Chat Completions-Schema, jedes OpenAI SDK funktioniert. Beispiel mit cURL:

curl https://openrouter.ai/api/v1/chat/completions \
  -H "Authorization: Bearer $OPENROUTER_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "tencent/hy3-preview:free",
    "messages": [
      {"role": "user", "content": "Explain the MoE routing decision inside a top-8 of 192 setup in 3 sentences."}
    ],
    "temperature": 0.9,
    "top_p": 1.0
  }'
Enter fullscreen mode Exit fullscreen mode
  1. Reasoning aktivieren: Hy3 akzeptiert einen reasoning-Parameter mit effort auf low oder high. OpenRouter gibt die Denkspur in einem separaten reasoning_details-Array zurück.
{
  "model": "tencent/hy3-preview:free",
  "messages": [
    {"role": "user", "content": "Plan, then write a Bash script that rotates daily log files older than 30 days into a dated archive folder."}
  ],
  "reasoning": {"effort": "high"}
}
Enter fullscreen mode Exit fullscreen mode
  1. Iterieren: Halten Sie die Sitzung im selben Thread, um Kontext zu bewahren. Hy3s 256K-Fenster kann komplette Codebasen verarbeiten.

Das war's. Das Modell hinter OpenRouter ist identisch mit dem Hugging Face-Modell; die Qualität ist gleich, egal ob kostenfrei oder kostenpflichtig.

Kostenlos, Plus und selbst gehostet: Wo sie sich unterscheiden

Fähigkeit OpenRouter Kostenlos OpenRouter Kostenpflichtig Selbst gehostet (vLLM/SGLang)
Kosten pro Token 0 $ Pro Anbieter Strom plus GPU-Amortisation
Denkmodi no_think, low, high Gleich Gleich
Kontextlänge 256K 256K 256K (sofern Speicher ausreicht)
Durchsatz unter Last Geteilter Pool, ggf. depriorisiert Dediziert Was Ihr Cluster liefert
Ratenbegrenzungen OpenRouter Free-Tier-Grenze Anbieterspezifisch Keine
Datenaufbewahrung OpenRouter Protokollierung Anbieterspezifisch Bleibt auf Ihrer Hardware
Sichtbarkeit von Reasoning-Token Ja, über reasoning_details Ja Ja

Kostenlos eignet sich für Prototypen, Nebenprojekte, Benchmarks und Agenten mit geringem Traffic. Wählen Sie kostenpflichtig oder selbst gehostet, wenn Latenz oder Skalierung entscheidend sind.

Prompt- und Parameter-Tipps, um mehr aus Hy3 herauszuholen

  • Temperatur anpassen: Standard ist temperature=0.9, top_p=1.0. Für strukturierte Ausgabe auf 0.3 reduzieren, für kreative Aufgaben bei 0.9 bleiben.
  • no_think für Chat: Für einfachen Chat reicht der Standardmodus. low oder high für Planung, Code, Mathematik nutzen.
  • Tools im System-Prompt benennen: Beschreiben Sie Werkzeuge explizit, nicht nur als Schema. Das verbessert Tool-Aufrufe.
  • Code direkt einfügen: Nutzen Sie das 256K-Fenster, um vollständige Dateien einzufügen.
  • Mehrere Dateien stapeln: Senden Sie zusammengehörige Dateien in einer Nachricht, nicht einzeln.
  • Zuerst nach einem Plan fragen: Für komplexe Aufgaben erst „Plane“, dann „Führe aus“ abfragen.

Grenzen, die man vor dem Einsatz kennen sollte

  • Ratenbegrenzungen je nach Last: Der OpenRouter Free-Pool kann bei Peaks 429er-Fehler liefern. Exponentielles Backoff einplanen.
  • Reasoning-Token zählen als Output: Im Free-Tier kostenlos, bei kostenpflichtigen Endpunkten kostenpflichtig.
  • Lizenz prüfen: Die Tencent Hy Community License ist keine Apache 2.0. Kommerzielle Nutzung erfordert Einhaltung der Bedingungen. Lizenz im GitHub-Repo lesen.
  • Tool-Parser beachten: Beim Self-Hosting vLLM/SGLang mit --tool-call-parser hy_v3 bzw. hunyuan starten.
  • Sprache: Englisch und Chinesisch sind am stärksten, andere Sprachen schwächer.
  • Benchmark-Vergleich: Bei einigen Reasoning-Suiten hinter den US-Flaggschiffen.

Der schnelle Entwicklerweg: Hy3 Preview plus Apidog

Die Arbeit mit cURL ist für erste Tests geeignet, aber für schnelle Iteration ist ein visueller API-Client wie Apidog effizienter.

  1. Apidog öffnen und ein neues Projekt anlegen. Importieren Sie die OpenAI Chat Completions OpenAPI-Spezifikation.
  2. Basis-URL setzen auf https://openrouter.ai/api/v1 und eine Umgebungsvariable für OPENROUTER_API_KEY hinterlegen.
  3. Anfrage anlegen auf /chat/completions mit Modell tencent/hy3-preview:free.
  4. Anfrage duplizieren und Denkmodi (no_think, low, high) vergleichen. So messen Sie Latenz und Output direkt nebeneinander.
  5. Prompt-Vorlagen speichern: Nutzen Sie Apidogs Variablen- und Umgebungsfeatures, um System-Prompts, Tool-Schemata und User-Turns zu verwalten.

Wenn Sie von Postman wechseln, finden Sie im API-Testing ohne Postman im Jahr 2026 Leitfaden die wichtigsten Schritte. Alternativ können Sie Apidog in VS Code nutzen, um API-Tests direkt im Editor auszuführen.

Kostenlose Alternativen, wenn Sie an die Grenze stoßen

Sollten Sie beim kostenlosen OpenRouter auf Limits stoßen, probieren Sie diese Wege:

Für produktive Entwicklung empfiehlt sich, Apidog herunterzuladen und pro Modell eine Sammlung zu erstellen. Benchmarks mit eigenen Prompts sind oft aussagekräftiger als Leaderboards.

Hy3 Preview selbst hosten mit vLLM

Mit passender Hardware können Sie Hy3 lokal ausführen. Die Modellkarte empfiehlt vLLM mit Tensorparallelität und Multi-Token-Vorhersage:

vllm serve tencent/Hy3-preview \
  --tensor-parallel-size 8 \
  --speculative-config.method mtp \
  --speculative-config.num_speculative_tokens 1 \
  --tool-call-parser hy_v3 \
  --reasoning-parser hy_v3 \
  --enable-auto-tool-choice \
  --served-model-name hy3-preview
Enter fullscreen mode Exit fullscreen mode

Für SGLang verwenden Sie --tool-call-parser hunyuan und --reasoning-parser hunyuan. Sobald der Server unter http://localhost:8000/v1 läuft, zeigen Sie Ihr OpenAI-kompatibles SDK einfach auf die lokale URL, wie bei OpenRouter.

Rechnen Sie mit acht H100-ähnlichen GPUs bei BF16 für das volle Modell. Quantisierte Community-Builds werden folgen.

FAQ

Ist Hy3 Preview kostenlos?

Ja. OpenRouter listet tencent/hy3-preview:free mit 0 $ pro Million Input/Output-Token. Reasoning-Token sind im Free-Tier ebenfalls gratis, zählen aber für die Limits. Status auf der OpenRouter-Modellseite prüfen.

Wie schneidet Hy3 Preview im Vergleich zu DeepSeek V3 und Qwen 3 ab?

SWE-bench Verified 74.4 und Terminal-Bench 2.0 54.4 platzieren es auf Augenhöhe mit den Top-Chinesischen Open-Modellen, mit Fokus auf Agenten- und Tool-Nutzung. Für reinen Chat sind Qwen 3 und DeepSeek V3 ebenfalls stark; bei Agenten-Workflows ist Hy3s RL-Training der Unterschied.

Was sind Hy3s Denkmodi?

Drei: no_think (Standard), low, high. Übergeben Sie den Modus mit dem reasoning-Parameter auf OpenRouter oder per chat_template_kwargs={"reasoning_effort": "high"} beim direkten Modellaufruf. high für Planung, mehrschrittigen Code und Mathematik; für normalen Chat deaktiviert lassen.

Kann ich Hy3 Preview kommerziell nutzen?

Ja, unter der Tencent Hy Community License. Kommerzielle Nutzung mit Quellenangabe und Einhaltung der Nutzungsrichtlinien erlaubt. Lizenzbedingungen hier.

Welche Kontextlänge unterstützt der kostenlose Tarif?

256K Token. OpenRouter listet 262.144 Token, wie die Modellkarte. Damit können Sie komplette mittelgroße Codebasen einfügen.

Wie teste ich Hy3 Preview ohne Code zu schreiben?

Nutzen Sie den Hugging Face Space für Chat im Browser oder richten Sie Apidog auf den OpenRouter-Endpunkt ein. Apidog importiert die OpenAI OpenAPI-Spezifikation; Anfrage-Setup: Basis-URL, API-Key, Modellname.

Top comments (0)