Google Cloud a rĂ©cemment introduit Vertex AI Agent Engine, une plateforme intĂ©grĂ©e Ă lâĂ©cosystĂšme Vertex AI conçue pour centraliser et dĂ©ployer des agents Ă grande Ă©chelle dans unun environnement cloud sĂ©curisĂ© et scalable.
Dans cet article, nous allons voir les avantages de Vertex AI Agent Engine et les différentes façons de déployer un agent dessus : l'approche native avec ADK (Agent Development Kit) et l'approche flexible via le SDK Vertex AI pour les agents conçus avec des frameworks comme LangChain, LangGraph ou CrewAI.
A travers cet article, nous allons comprendre comment passer dâun agent local Ă un agent opĂ©rationnel dans le cloud, prĂȘt Ă interagir avec vos donnĂ©es et vos utilisateurs.
âComprendre Vertex AI Agent Engine et ses avantages
Vertex AI Agent Engine est un service de Google Cloud conçu pour simplifier le dĂ©ploiement et lâorchestration dâagents IA. LâidĂ©e derriĂšre Agent Engine est simple : proposer une infrastructure centralisĂ©e pour gĂ©rer des agents, quâils soient conversationnels, analytiques ou autonomes.
đĄ Les principaux avantages de Vertex AI Agent Engine
âĄïž Gestion des mĂ©moires et des sessions
Vertex AI Agent Engine intÚgre nativement la gestion des sessions et des mémoires conversationnelles. Cela permet à un agent de :
- garder le contexte entre plusieurs interactions dâun mĂȘme utilisateur,
- sâappuyer sur lâhistorique dâĂ©changes,
- enrichir sa compréhension du contexte au fil du temps.
âĄïž Support multi-frameworks
Vertex AI Agent Engine ne se limite pas Ă un framework. Il prend en charge plusieurs frameworks dâagents (ADK, LangChain, LlamaIndex, frameworks maison, etc.), ce qui permet de lâadapter Ă diffĂ©rents contextes.
âĄïž IntĂ©gration native Ă Google Cloud
Les agents peuvent facilement se connecter Ă dâautres services. GrĂące aux Tools comme Google Cloud, MCP (Model Context Protocol), A2A (Agent2Agent) ou encore des âcustom toolsâ, ils peuvent interagir avec des API, des bases de donnĂ©es ou des applications mĂ©tiers.
âĄïž Auto-scaling
Agent Engine gĂšre automatiquement le scaling et le dĂ©ploiement des agents. Le compute sâajuste automatiquement selon la demande.
âĄïž SĂ©curitĂ© et gouvernance
Chaque agent hĂ©rite dâune identitĂ© sĂ©curisĂ©e. Vous pouvez ainsi dĂ©finir des permissions prĂ©cises pour les accĂšs aux donnĂ©es ou aux APIs.
âĄïž Monitoring
Chaque exĂ©cution dâagent est monitorĂ©e : logs dĂ©taillĂ©s, mĂ©triques, et suivi des appels aux modĂšles. Cela facilite le debug, lâoptimisation et lâanalyse de performances.
đ DĂ©ployer son agent avec le framework ADK (Agent Development Kit)
Le framework ADK (Agent Development Kit) est le framework proposĂ© par Google pour construire des agents et disponible actuellement en Python et en Java. Il offre une structure claire pour le dĂ©veloppement, le test et le dĂ©ploiement dâagents, tout en sâintĂ©grant nativement avec les services Vertex AI.
Le premier dĂ©ploiement peut sâeffectuer en quelques minutes.
Pré-requis :
- La CLI Google Cloud (gcloud)
1. Installation et initialisation du projet
CrĂ©ation dâun environnement virtuel Python (ici Ă lâaide de uv):
mkdir deploy-with-adk && cd deploy-with-adk
uv venv --python 3.12
source .venv/bin/activate
Initialisation dâun projet dâagent avec ADK :
uv pip install google-adk
adk create personal_assistant
Lâarborescence du projet est automatiquement créée :
âââ deploy-with-adk
âââ personal_assistant
âââ __init__.py
âââ .env
âââ agent.py
2. CrĂ©ation dâun agent
Dans mon fichier agent.py, jâai créé, pour cet article, un agent tout simple capable de rĂ©pondre Ă mes questions tout en se basant sur un datastore dans VertexAI Search contenant diffĂ©rents documents personnels.
from google.adk.agents.llm_agent import Agent
from google.adk.tools import VertexAiSearchTool
root_agent = Agent(
model='gemini-2.5-flash',
name='root_agent',
instruction="Answer questions using Vertex AI Search to find information from internal documents. Always cite sources when available.",
description="Enterprise document search assistant with Vertex AI Search capabilities",
tools=[VertexAiSearchTool(data_store_id=DATASTORE_ID)]
)
3. Déploiement
adk deploy agent_engine \
--project=${PROJECT_ID} \
--region=${PROJECT_REGION} \
--staging_bucket=gs://${BUCKET_NAME} \
--display_name="Personal Assistant" \
personal_assistant
Cette commande :
- construit une image container de votre agent,
- la déploie sur Vertex AI Agent Engine,
- et gĂ©nĂšre un endpoint accessible via API ou depuis dâautres agents.
Une fois dĂ©ployĂ©, votre agent peut ĂȘtre intĂ©grĂ© dans des workflows plus complexes.
đ DĂ©ployer un agent avec un autre framework grĂące au SDK Vertex AI
Si ADK intĂšgre simplement le dĂ©ploiement, Agent Engine est aussi compatible avec de nombreux autres frameworks dâagents IA comme LangChain, LlamaIndex ou CrewAI via la SDK de Vertex AI.
Cette approche permet dâintĂ©grer un agent existant (dĂ©jĂ conçu avec LangChain par exemple) dans lâĂ©cosystĂšme Vertex AI pour le monitorer, le scaler et le connecter Ă dâautres services Google Cloud.
1. Installation et initialisation du projet
Commençons par initialiser Vertex AI avec le projet, la rĂ©gion, et un âstaging bucketâ (nĂ©cessaire pour le packaging de lâagent).
mkdir deploy-with-vertex && cd deploy-with-vertex && touch agent.py
uv venv --python 3.12
source .venv/bin/activate
uv pip install google-cloud-aiplatform[agent_engines,langchain]
2. CrĂ©ation dâun agent
Dans le fichier agent.py, nous allons repartir du mĂȘme cas dâusage que lâagent prĂ©cĂ©dent, mais cette fois en utilisant LangChain.
Cet agent sera capable de répondre à des questions en interrogeant un datastore Vertex AI Search contenant différents documents personnels.
from vertexai import init, agent_engines
from langchain_retrievers.google_vertex_ai_search import VertexAISearchRetriever
from langchain.tools import Tool
# Init Vertex AI
init(
project=${PROJECT_ID},
location=${PROJECT_REGION},
staging_bucket="gs://${STAGING_BUCKET}",
)
# Create retriever
retriever = VertexAISearchRetriever(data_store_id=${DATASTORE_ID})
# Define search tool
search_tool = Tool(
name="vertex_search",
func=lambda query: retriever.get_relevant_documents(query),
description="Searches your private document store via Vertex AI Search."
)
# System prompt
system_prompt = """
You're an intelligent assistant that can answer questions using internal document search. Use the search tool when necessary.
"""
# Create Langchain Agent
agent = agent_engines.LangchainAgent(
model="gemini-2.5-flash",
system_instruction=system_prompt,
tools=[search_tool],
model_kwargs={
"temperature": 0.3,
"top_p": 0.9,
"max_output_tokens": 1000,
},
)
3. IntĂ©gration de lâagent dans Vertex AI
La ligne clĂ© suivante permet dâenvelopper lâagent LangChain dans une classe compatible avec Vertex AI Agent Engine. Câest cette abstraction qui rend possible son dĂ©ploiement dans lâinfrastructure Vertex AI.
agent = agent_engines.LangchainAgent(...)
Vertex AI fournit Ă©galement dâautres classes pour intĂ©grer diffĂ©rents frameworks comme par exemple :
agent_engines.LlamaIndexAgentpour LlamaIndex,agent_engines.CrewAIAgentpour CrewAI.
4. Déploiement
Jâajoute ensuite la mĂ©thode ci-dessous pour le dĂ©ploiement. Plusieurs options sont disponibles pour configurer le dĂ©ploiement et notamment le paramĂštre ârequirementsâ pour dĂ©finir les packages nĂ©cessaires Ă lâagent.
remote_agent = agent_engines.create(
agent_engine=agent,
requirements=[
"google-cloud-aiplatform[agent_engines,langchain]",
"langchain_community",
],
)
print(f"â
Agent deployed with success.")
Ce code va :
- âsĂ©rialiserâ lâagent
- envoyer le code vers le staging bucket,
- dĂ©ployer lâagent sur Vertex AI Agent Engine
Il ne me reste plus quâĂ exĂ©cuter mon fichier et lâagent sera dĂ©ployĂ© en quelques minutes
uv run index.py
đŹ Interagir avec lâagent dĂ©ployĂ©
Une fois lâagent dĂ©ployĂ© sur Vertex AI Agent Engine, il est possible de lâinterroger directement depuis le code Python Ă lâaide du SDK Vertex AI, quelle que soit la mĂ©thode de dĂ©ploiement (ADK ou via le SDK VertexAI).
Les agents dĂ©ployĂ©s via ADK ou via le SDK Vertex AI sont compatibles avec la mĂȘme API.
Voici un exemple minimaliste dâinteraction :
from vertexai import agent_engines
# Get the deployed agent engine
agent_engine = agent_engines.get(${RESOURCE_ID})
# Send a request to the agent
response = agent_engine.query(
input="Who won the FIFA World Cup in 2018?"
)
# Display the text response
print(response.output_text)
đĄ En rĂ©sumĂ©
Dans cet article, nous avons vu deux maniÚres de déployer un agent sur Vertex AI Agent Engine : le framework ADK, idéal pour un déploiement rapide et standardisé, et le SDK Vertex AI, plus flexible pour intégrer des frameworks comme LangChain et des outils personnalisés.
Lâexemple prĂ©sentĂ© reste volontairement simple, mais il est possible dâaller beaucoup plus loin:
- configurer le service account associé à chaque agent,
- ajuster les paramĂštres dâexĂ©cution, ou activer le monitoring.
đĄ Update 10/11/2025 â Vertex AI Agent Engine Express Mode
Quelques jours aprĂšs la sortie de cet article, Google a introduit le mode Express pour Vertex AI Agent Engine.
Ce mode permet dâutiliser Agent Engine sans crĂ©er de projet Google Cloud, simplement avec un compte Gmail et une clĂ© API depuis Vertex AI Studio.
âčïž Depuis le 1er novembre 2025, un nouveau free tier est Ă©galement disponible pour permettre aux dĂ©veloppeurs dâexpĂ©rimenter Agent Engine gratuitement.
Pour approfondir le sujet :
agent-starter-pack: Une collection de modĂšles d'agents IA prĂȘts Ă l'emploi, conçus pour Google Cloud.
Google Skills pour monter en compétence sur les produits Google




Top comments (0)