Jedes große KI-Labor hat in den letzten sechs Wochen dieselbe primitive Funktion ausgeliefert: Anthropic hat /goal zu Claude Code hinzugefügt, OpenAI hat es in die Codex CLI und die Codex Desktop-App integriert, Nous Research hat es in Hermes eingebaut. Die Namensgebung ist bewusst konsistent: Die Branche einigt sich auf eine gemeinsame Schnittstelle für Agenten, die in einer geschlossenen Schleife arbeiten, bis ein messbarer Endzustand erreicht ist.
Probieren Sie Apidog noch heute aus
Wenn Sie bisher den manuellen Ablauf „Genehmigen, Prompt senden, Agenten zum Fortfahren auffordern, wiederholen“ genutzt haben, ist /goal der Slash-Befehl, der diese Schleife automatisiert. Sie definieren ein Ziel, der Agent arbeitet darauf hin und meldet sich erst zurück, wenn das Ziel erreicht ist, eine Grenze ausgelöst wurde oder das Budget erschöpft ist.
Dieser Leitfaden richtet sich an Entwickler und API-Builder. Sie lernen, was /goal unter der Haube macht, wie Sie es in Codex und Claude Code einrichten, wie Sie robuste Ziel-Prompts schreiben und wie Sie den Workflow mit Apidog in API-Entwicklung und Tests einbinden.
Wenn Sie die API-Beispiele später nachvollziehen möchten, können Sie Apidog herunterladen.
Was /goal tatsächlich tut
Kurz gesagt: /goal lässt einen KI-Agenten eine Aufgabe iterativ bearbeiten, bis eine Abbruchbedingung erfüllt ist.
Der Ablauf sieht typischerweise so aus:
- Sie definieren ein Ziel.
- Das Hauptmodell plant und führt Arbeitsschritte aus.
- Ein kleineres Validator-Modell prüft nach jedem Schritt: „Ist das Ziel erreicht?“
- Falls nein, läuft der Agent weiter.
- Falls ja, beendet der Agent die Schleife und meldet das Ergebnis.
Der Unterschied zur normalen Agentennutzung:
-
Ohne
/goal: Sie sind die Schleife. Sie lesen Ausgaben, prüfen Zwischenergebnisse, geben neue Anweisungen und genehmigen Tool-Aufrufe. -
Mit
/goal: Der Agent besitzt die Schleife. Er plant, führt aus, validiert sich selbst und stoppt erst bei Erfolg, Fehler, Grenze oder Budgetende.
Beispiel:
/goal create a landing page
Ein solcher Befehl kann Recherche, Gerüstbau, Styling, Debugging und Vorschau in einem kontinuierlichen Durchlauf auslösen. Entscheidend ist aber: Je messbarer das Ziel, desto zuverlässiger wird der Lauf.
Warum /goal plötzlich überall ist
Lang laufende Agentenaufgaben scheitern häufig an zwei Punkten:
- Drift: Das Modell entfernt sich vom ursprünglichen Ziel und produziert selbstbewusste, aber falsche Ergebnisse.
- Babysitting: Der Benutzer muss jede Iteration überwachen, obwohl der Agent eigentlich autonom arbeiten soll.
Ein Validator-Modell reduziert beide Probleme. Es prüft bei jeder Iteration gegen ein festes Ziel und gibt der Schleife eine klare Abbruchbedingung.
Der praktische Nutzen entsteht vor allem dann, wenn der Endzustand maschinell überprüfbar ist:
- Tests laufen erfolgreich durch.
- Ein Build beendet sich mit Exit-Code
0. - Ein API-Endpunkt gibt
200zurück. - Ein Antwortschema entspricht der Spezifikation.
- Eine Datei enthält definierte Abschnitte oder Beispiele.
/goal in Codex einrichten
Die Codex CLI bietet die meiste Kontrolle.
1. Ziele in Codex Desktop aktivieren
Öffnen Sie Codex Desktop und gehen Sie zu:
Einstellungen → Konfiguration
Setzen Sie dort:
goals = true
Die CLI übernimmt diese Einstellung.
2. CLI im Full-Auto-Modus starten
Damit Sie nicht bei jeder Iteration Genehmigungsaufforderungen sehen:
codex --approval-mode full-auto
3. Ziel setzen
/goal [Ihr Ziel hier]
Codex bestätigt, dass das Ziel registriert wurde, und beginnt mit der Ausführung.
Wenn Sie lieber mit einer Oberfläche arbeiten, starten Sie in Codex Desktop statt in der CLI. Die Funktionalität ist ähnlich, aber Sie können Ziele einfacher anhalten, löschen und die Token-Nutzung überwachen.
/goal in Claude Code einrichten
Claude Code funktioniert ähnlich:
- Claude Code CLI starten.
-
/goaleingeben. - Aufgabenbeschreibung ergänzen.
Beispiel:
/goal alle fehlschlagenden Tests beheben, bis npm test erfolgreich mit Exit-Code 0 beendet wird
Die offizielle Dokumentation finden Sie auf der Claude Code Dokumentationsseite.
Wenn beim Start von Claude Code Konfigurationsfehler auftreten, hilft der Leitfaden zur Behebung ungültiger custom3p Enterprise-Konfigurationsfehler. Für Multi-Agenten-Workflows mit Claude Code und /goal siehe die Analyse zu Ruflo, einer Multi-Agenten-Schicht über Claude Code.
Wichtig: Claude Code zeigt bei /goal eine Live-Token-Anzahl und einen Fortschrittsbalken. Beobachten Sie nicht nur die Textausgabe. Wenn viele Tokens verbraucht werden, aber kein Fortschritt sichtbar ist, konvergiert der Validator wahrscheinlich nicht. Nutzen Sie dann:
/pause
oder:
/goal clear
Die Prompt-Struktur, die funktioniert
Die Syntax ist einfach. Die Herausforderung ist, einen Prompt zu schreiben, der nicht in einer Endlosschleife landet.
Ein guter /goal-Prompt enthält drei Teile:
- Aufgabe: Was soll erledigt werden?
- Messbarer Endzustand: Woran erkennt der Validator „fertig“?
- Einschränkungen: Welche Grenzen darf der Agent nicht überschreiten?
Grundform:
/goal [Aufgabe erledigen] bis [messbarer Endzustand] ohne [Einschränkungen]
Beispiel:
/goal alle fehlschlagenden Tests beheben, bis npm test mit Exit-Code 0 beendet wird, ohne Dateien außerhalb des Verzeichnisses /auth zu ändern
Warum das gut funktioniert:
-
npm testliefert ein klares Signal. - Exit-Code
0ist eindeutig. -
/authist eine überprüfbare Grenze. - Der Agent kann Erfolg nicht einfach behaupten.
Schwaches Gegenbeispiel:
/goal diese Benutzeroberfläche moderner machen
Besser:
/goal die Benutzeroberfläche überarbeiten, bis der Lighthouse-Accessibility-Score mindestens 90 beträgt und keine bestehenden E2E-Tests fehlschlagen
Struktur für längere Aufgaben
Für größere Ziele lohnt sich ein strukturierter Prompt:
/goal
Ziel: [Einzeiliges Ziel]
Erfolgskriterien:
- [Messbares Kriterium 1]
- [Messbares Kriterium 2]
- [Messbares Kriterium 3]
Einschränkungen:
- [Grenze 1]
- [Grenze 2]
Kontext:
- [Relevante Dateien]
- [Relevante Befehle]
- [Spezifikationen oder API-Verträge]
Beispiel für ein Backend-Feature:
/goal
Ziel: Implementiere den POST /auth/login Endpunkt.
Erfolgskriterien:
- npm test beendet sich mit Exit-Code 0
- Der Endpunkt gibt bei gültigen Credentials HTTP 200 zurück
- Der Endpunkt gibt bei ungültigen Credentials HTTP 401 zurück
- Die Response entspricht dem vorhandenen OpenAPI-Schema
Einschränkungen:
- Keine Änderungen außerhalb von /src/auth und /tests/auth
- Keine Änderung am bestehenden User-Modell
- Keine neuen Produktionsabhängigkeiten ohne Begründung
Kontext:
- OpenAPI-Spezifikation: ./openapi.yaml
- Tests: ./tests/auth/login.test.ts
- Startbefehl: npm run dev
Dieses Format gibt dem Validator konkrete Prüfpunkte.
Beispiele, die Sie direkt übernehmen können
Forschung
/goal alle öffentlichen Benchmarks für Claude Opus 4.7 sammeln, die seit April 2026 veröffentlicht wurden, Quellen speichern und eine nach Datum sortierte Markdown-Tabelle erstellen, bis die Tabelle mindestens 10 verschiedene Benchmarks abdeckt
Repo-Wartung
/goal toten Code, ungenutzte Abhängigkeiten und veraltete Dateien in diesem Repo finden, dann einen PR-Beschreibungsvorschlag mit sicheren Entfernungen erstellen, bis jeder Punkt eine Begründung hat
Dokumentation
/goal README.md so umschreiben, dass ein neuer Mitwirkender das Projekt installieren, ausführen, testen und verstehen kann, bis jeder dieser vier Schritte einen funktionierenden Befehl und eine erwartete Ausgabe hat
Feature-Arbeit
/goal einen Dark-/Light-Theme-Umschalter hinzufügen, die Auswahl in localStorage speichern, Stile für beide Themes aktualisieren und im Browser überprüfen, bis der Umschalter ohne Seitenneuladen funktioniert und einen Refresh überlebt
Das gemeinsame Muster: Jedes Ziel enthält einen überprüfbaren Endzustand.
/goal mit API-Entwicklungs-Workflows kombinieren
API-Entwicklung eignet sich besonders gut für /goal, weil der Endzustand meist eindeutig testbar ist:
- Endpunkt erreichbar
- Statuscode korrekt
- Response-Schema korrekt
- Fehlerfälle abgedeckt
- Vertrag dokumentiert
- Tests grün
Ein praxistauglicher Workflow:
1. Vertrag zuerst in Apidog entwerfen
Definieren Sie in Apidog:
- Endpunkt
- Request-Schema
- Response-Schema
- Beispiel-Payloads
- Fehlerfälle
- Testfälle
Dieser Vertrag wird zur Quelle der Wahrheit.
2. Spezifikation exportieren
Exportieren Sie die OpenAPI-3.x-Spezifikation und legen Sie sie im Repository ab, zum Beispiel:
./openapi.yaml
3. /goal mit Spezifikation und Tests starten
Beispiel:
/goal
Ziel: Implementiere den in openapi.yaml definierten POST /orders Endpunkt.
Erfolgskriterien:
- Der Service startet mit npm run dev
- Alle relevanten Apidog-Testfälle bestehen
- Die Response entspricht dem OpenAPI-Schema
- npm test beendet sich mit Exit-Code 0
Einschränkungen:
- Keine Änderungen an bestehenden öffentlichen API-Feldern
- Keine Breaking Changes an anderen Endpunkten
Kontext:
- OpenAPI-Spezifikation: ./openapi.yaml
- Apidog-Testfälle sind die Quelle der Wahrheit
4. Validator gegen den Test-Runner prüfen lassen
Der Agent sollte nicht selbst definieren, wann die API „fertig“ ist. Lassen Sie ihn gegen vorhandene Testfälle laufen. Bei jeder Iteration prüft der Validator den Test-Runner und beendet die Schleife erst, wenn die Tests grün sind.
Das ist besser, als den Agenten eigene Tests erfinden zu lassen. Der Vertrag steht bereits fest, und der Agent muss gegen diesen Vertrag implementieren.
Wenn Sie Apidog noch nicht genutzt haben: Die Plattform kombiniert API-Design, Mocking, Testing und Dokumentation. Das ist für /goal nützlich, weil der Validator idealerweise nur einen Befehl ausführen muss, um den Status zu prüfen.
Weiterführend:
Praktische Tipps für /goal im Einsatz
Ein Ziel nach dem anderen
Codex und Claude Code arbeiten jeweils mit einem aktiven Ziel. Löschen Sie alte Ziele vor dem nächsten Lauf:
/goal clear
Erst planen, dann ausführen
Ein guter Ablauf:
/plan
Plan prüfen, dann:
/goal [Plan umsetzen, bis messbare Kriterien erfüllt sind]
Das reduziert unnötige Iterationen.
Fortschritt in einer Datei speichern lassen
Weisen Sie den Agenten an, eine Datei zu pflegen:
progress.md
Beispiel:
/goal alle fehlschlagenden Tests beheben, bis npm test erfolgreich ist, und währenddessen progress.md mit erledigten Schritten, offenen Problemen und ausgeführten Befehlen aktualisieren
Das gibt Ihnen einen auditierbaren Verlauf und dem Agenten stabileren Kontext.
Ziel vom Modell formulieren lassen
Wenn Sie nur eine grobe Idee haben, starten Sie mit einem normalen Prompt:
Formuliere daraus einen robusten /goal-Prompt mit messbaren Erfolgskriterien und klaren Einschränkungen:
[meine Idee]
Danach verwenden Sie die generierte Version als /goal.
Validator-Signal verbessern statt erneut laufen lassen
Wenn ein Ziel nicht endet, ist meist nicht der Agent das Problem, sondern das Erfolgskriterium.
Schlecht:
bis die API gut funktioniert
Besser:
bis alle Tests in tests/api erfolgreich sind und GET /health HTTP 200 zurückgibt
Wann /goal nicht gut funktioniert
/goal ist nicht für jede Aufgabe geeignet.
Hohe Token-Kosten
Lang laufende Schleifen verbrauchen mehr Tokens als ein normaler Prompt. Setzen Sie ein Budget und pausieren Sie bei Bedarf.
/pause
Kein klares Validierungssignal
Aufgaben wie UX-Geschmack, Tonalität oder „mach es schöner“ sind schwer validierbar. Verwenden Sie /goal nur, wenn Sie klare Kriterien definieren können.
Externe Nebeneffekte
Seien Sie vorsichtig bei Zielen, die Folgendes auslösen könnten:
- E-Mails senden
- Zahlungen ausführen
- Produktions-APIs aufrufen
- Daten löschen
- Benutzerkonten verändern
Definieren Sie harte Grenzen und nutzen Sie nach Möglichkeit Mock- oder Staging-Umgebungen.
Wenn Sie Zugriffskontrolle und Abrechnung für KI-Agenten in API-Teams betrachten, hilft der Artikel zur GitHub Copilot Nutzungs- und Abrechnungs-API für Teams.
Veralteter Kontext
Wenn sich die Codebasis während eines langen Laufs ändert, kann der Agent auf veraltetem Kontext weiterarbeiten. In solchen Fällen besser pausieren, Kontext aktualisieren und neu starten.
Was /goal für KI-gestützte Entwicklung bedeutet
/goal verschiebt KI-Entwicklung von „Autovervollständigung“ zu „delegierter Arbeit mit überprüfbaren Kriterien“.
Ihre Aufgabe als Entwickler wird dadurch weniger:
- jede Codezeile selbst schreiben
- jede Iteration manuell überwachen
- den Agenten ständig weiter prompten
Und mehr:
- Erfolgskriterien definieren
- Einschränkungen formulieren
- Tests und Verträge bereitstellen
- Ergebnisse prüfen
Teams mit klaren Spezifikationen, CI und API-Verträgen profitieren am meisten. Wenn Ihre API ein OpenAPI-Dokument und eine Testsuite hat, kann ein /goal-Agent gegen echte Kriterien arbeiten. Wenn die API nur implizit im Kopf eines Entwicklers existiert, fehlt dem Validator das Signal.
Hier werden API-Plattformen zur Infrastruktur für KI-Workflows. Apidog unterstützt Design-First API Development. Das wird besonders nützlich, wenn ein Agent die Spezifikation lesen und seine Implementierung gegen Ihre Testfälle prüfen kann.
Wenn Sie diesen Contract-First-Workflow ausprobieren möchten, können Sie Apidog herunterladen.
FAQ
Funktioniert /goal in der Codex Web-App?
Ja. /goal funktioniert in der Codex CLI, Codex Desktop, der Codex App und der Claude Code CLI. Hermes unterstützt ebenfalls denselben Befehl.
Wie unterscheidet sich /goal von einem normalen Prompt?
Ein normaler Prompt läuft einmal und stoppt. /goal läuft in einer geschlossenen Schleife. Ein Validator-Modell prüft nach jedem Schritt, ob die Abbruchbedingung erfüllt ist.
Kann der Agent meine Einschränkungen verletzen?
Der Validator prüft Einschränkungen bei jeder Iteration. In der Praxis hängt die Zuverlässigkeit davon ab, wie konkret Sie formulieren.
Gut:
ohne Dateien außerhalb von /auth zu ändern
Schlecht:
ohne etwas kaputt zu machen
Kostet /goal mehr Tokens?
Ja. Rechnen Sie mit höherem Token-Verbrauch, weil der Agent mehrere Iterationen durchläuft und zusätzlich validiert wird. Setzen Sie Budgets und nutzen Sie /pause, wenn ein Lauf nicht konvergiert.
Was ist, wenn ich gegen eine echte API testen möchte?
Nutzen Sie ein Tool wie Apidog, um den API-Vertrag und echte Testfälle festzulegen. Der Agent kann gegen diese Tests iterieren, statt Erfolg selbst zu behaupten.
Wenn Sie einen Claude-gestützten Dienst mit begrenztem Budget aufsetzen möchten, siehe den Leitfaden zur kostenlosen Claude API.


Top comments (0)