
Open Agents by Vercel : le template open source pour déployer des agents IA cloud en 2026
Un template officiel Vercel Labs pour déployer en un clic un agent de coding cloud multi-modèles : open-agents réunit Claude Code, Codex CLI, Copilot CLI, Cursor CLI, Gemini CLI et opencode dans une seule application de référence (Vercel, 2026).
Le repo a pris 970 étoiles GitHub et 117 forks en quelques jours, plaçant le projet parmi les trending Trendshift d’avril 2026. Il adresse un vrai besoin des DSI et des équipes produit : disposer d’une base éprouvée pour industrialiser les agents de code, sans repartir de zéro. Ce guide explique l’architecture, les cas d’usage, et les prérequis pour se lancer.
Temps de lecture : 14 min
À retenir
- Open Agents est le template open source officiel Vercel Labs pour exécuter des agents IA de coding en cloud sur Vercel Sandbox.
- Compatible Claude Code, Codex CLI, GitHub Copilot CLI, Cursor CLI, Gemini CLI et opencode dans la même application Next.js.
- Architecture à trois couches : app web (auth, sessions, chat), agent runtime (workflow durable Vercel), sandbox (filesystem, shell, git, dev servers).
- Déploiement en un clic avec provisionnement automatique d’une base PostgreSQL Neon et branches par preview.
Qu’est-ce qu’Open Agents et pourquoi maintenant ?
Open Agents est une application de référence open source publiée par Vercel Labs pour construire et exécuter des agents de coding en tâche de fond sur Vercel. Elle inclut l’interface web, le runtime d’agent, l’orchestration de sandbox et l’intégration GitHub nécessaires pour passer du prompt aux modifications de code sans garder son ordinateur portable allumé.
Un template à forker, pas une boîte noire
Le repo est explicitement conçu pour être forké et adapté. Vercel ne propose pas Open Agents comme un produit SaaS clé en main, mais comme une base de code à s’approprier. Cette philosophie se distingue radicalement des offres concurrentes comme Devin de Cognition ou Bolt, qui restent des plateformes fermées.
Cette logique correspond à la maturité croissante des équipes dev en 2026. Après deux ans de bricolages autour d’agents de codage, les DSI et leads tech veulent une base claire, maintenue par un acteur sérieux, que leurs équipes peuvent modifier à volonté. Pour situer cette démarche dans le paysage plus large, consultez notre analyse sur le panorama des agences d’agents IA en France.
| Caractéristique | Valeur |
|---|---|
| Éditeur | Vercel Labs |
| Étoiles GitHub (avril 2026) | 970+ |
| Forks | 117+ |
| Langage principal | TypeScript (Next.js) |
| Licence | Open source (type MIT) |
| Base de données | PostgreSQL (Neon) |
Une réponse à la fragmentation des agents de coding
En 2026, le marché des agents de code est fragmenté : Claude Code d’Anthropic, Codex CLI d’OpenAI, Copilot CLI de GitHub, Cursor CLI, Gemini CLI de Google, opencode open source. Chaque outil a ses forces et ses limites. Open Agents propose une abstraction commune qui permet de passer de l’un à l’autre selon la tâche, sans refactoriser l’infrastructure à chaque fois.
En pratique
Avant de forker, testez la version hébergée disponible sur Vercel Templates pour comprendre l’ergonomie de l’interface, la gestion des sessions, et la manière dont les tâches sont découpées. Cela évite de découvrir des limitations ergonomiques après deux jours de travail d’adaptation.
Comment fonctionne l’architecture à trois couches ?
Le projet repose sur une séparation stricte en trois couches qui correspondent aux responsabilités des agents cloud modernes. Cette discipline architecturale est la clé de la fiabilité et de la maintenabilité du template.
La couche web : auth, sessions, chat
L’application Next.js hébergée sur Vercel gère l’authentification, la persistance des sessions utilisateur, l’interface de chat et le streaming de l’UI. Elle utilise les OAuth GitHub ou Vercel pour identifier les utilisateurs, avec un chiffrement ENCRYPTION_KEY pour protéger les tokens et clés API stockés en base.
L’UI est un chat classique augmenté de commandes rapides et de vues sur les workflows en cours. Elle expose une API REST et streaming pour que chaque conversation déclenche un run de workflow plutôt qu’une exécution synchrone de l’agent.
La couche agent : workflow durable Vercel
Le cœur du système est un runtime d’agent qui tourne comme un workflow durable Vercel. Chaque tour d’agent peut s’étaler sur de nombreuses étapes persistées, ce qui permet aux tâches longues de survivre aux déconnexions réseau, aux timeouts et aux redémarrages serveur. Les runs actifs peuvent être repris en reconnectant le stream au workflow existant.
Cette durabilité est un différenciateur majeur. Contrairement à un agent qui tourne inline et perd son état à la première erreur, Open Agents stocke chaque décision dans la base. Un debug ou une reprise deviennent aussi simples qu’un replay de workflow.
La couche sandbox : exécution isolée
Le sandbox Vercel est l’environnement d’exécution : filesystem isolé, shell, git, dev servers et ports de preview. L’agent ne tourne pas dans la VM, il tourne en dehors et interagit avec elle via des outils (lecture de fichier, édition, recherche, commandes shell). Cette séparation protège le host des actions agentiques et facilite l’analyse des logs.
Le dossier packages/sandbox fournit l’abstraction qui permet de brancher d’autres environnements d’exécution que Vercel Sandbox, par exemple des sandboxes internes hébergés sur infrastructure propre. Les entreprises soucieuses de souveraineté peuvent ainsi ne pas dépendre exclusivement de Vercel. Pour approfondir ces enjeux, parcourez notre dossier sur Mistral, Scaleway et OVHcloud, le cloud souverain IA en 2026.
Quels agents IA peut-on déployer avec ce template ?
Open Agents supporte nativement six agents de coding majeurs, ce qui en fait le template le plus universel du marché open source. Cette multi-compatibilité est l’un des arguments les plus forts de la solution.
Six agents, une seule abstraction
- Claude Code (Anthropic) : l’agent agentique le plus utilisé par les équipes senior en 2026, avec support MCP natif pour connecter des outils externes via OAuth.
- Codex CLI (OpenAI) : outil de référence dans l’écosystème ChatGPT, itéré très rapidement avec plusieurs alpha releases par semaine.
- GitHub Copilot CLI : intégration naturelle pour les équipes déjà sur GitHub Enterprise.
- Cursor CLI : pont vers l’éditeur Cursor, apprécié des développeurs frontend et full-stack.
- Google Gemini CLI : agent Google avec grande fenêtre de contexte et Deep Research intégré.
- opencode : alternative open source entièrement auto-hébergeable.
Serveurs MCP natifs pour Claude Code
Le template intègre nativement un onglet « Connectors » qui permet d’ajouter des serveurs MCP (Model Context Protocol) pour étendre Claude Code avec des outils externes. L’utilisateur saisit un nom, une URL de base et des credentials OAuth optionnels. L’ENCRYPTION_KEY protège ces identifiants stockés chiffrés en base.
| Agent | Éditeur | Usage recommandé |
|---|---|---|
| Claude Code | Anthropic | Architecture, tâches complexes, MCP |
| Codex CLI | OpenAI | Scripting rapide, itérations fréquentes |
| Copilot CLI | GitHub | Équipes déjà sur GitHub Enterprise |
| Cursor CLI | Anysphere | Frontend, full-stack, éditeur intégré |
| Gemini CLI | Long contexte, Deep Research | |
| opencode | Open source | Auto-hébergement, souveraineté |
Ce tableau aide à choisir l’agent selon la nature de la tâche. Une équipe peut très bien assigner Claude Code aux refactorings d’architecture et Codex CLI aux scripts ponctuels sans changer de plateforme. Cette orchestration multi-agent est l’un des apports majeurs du template face aux approches mono-agent traditionnelles.
Génération automatique de branches par AI Gateway
Une fonctionnalité élégante du template est la génération automatique de noms de branches Git descriptifs via AI Gateway et AI SDK 5. Chaque tâche reçoit un nom comme feature/user-authentication-A1b2C3 ou fix/memory-leak-parser-X9y8Z7, avec un hash alphanumérique de 6 caractères pour éviter les conflits. En cas d’échec de génération IA, un fallback basé sur le timestamp prend le relais.
Identifiez en 5 minutes les workflows les plus rentables à automatiser dans votre équipe avec notre Diagnostic IA gratuit.
Comment déployer Open Agents en production ?
Le template est conçu pour un déploiement rapide sur Vercel, avec plusieurs options selon le niveau de personnalisation recherché. Trois parcours types se dégagent.
Déploiement en un clic sur Vercel
Le parcours le plus rapide consiste à cliquer sur le bouton « Deploy to Vercel » du template. Une base PostgreSQL Neon est automatiquement provisionnée et connectée. L’utilisateur fournit les variables d’environnement essentielles (credentials Vercel, clés de chiffrement) et configure au moins un provider OAuth (GitHub ou Vercel) pour l’authentification.
Cette voie convient aux proofs of concept et aux premières expérimentations d’équipe. Vous avez un environnement opérationnel en moins de 30 minutes, incluant le sandbox Vercel pour exécuter les commandes d’agent.
Déploiement manuel pour personnalisation
Pour les équipes qui veulent modifier l’architecture, l’auteur recommande la voie manuelle : forker le repo, créer sa propre base PostgreSQL, générer manuellement les clés de chiffrement avec openssl rand -base64 32, importer dans Vercel et configurer les variables une par une. Ce parcours est plus long mais donne la main sur chaque composant.
En pratique
Activez le branching Neon natif dans les paramètres du projet Vercel pour que chaque preview deployment récupère automatiquement sa base de données forkée de production. Cette configuration évite d’abîmer la base de prod lors de tests et simplifie les revues de pull request qui incluent des migrations de schéma.
Intégration GitHub App native
Open Agents ne demande pas une application OAuth GitHub standard, mais bien une GitHub App avec flux d’autorisation utilisateur. Cette approche permet un accès basé sur l’installation par repository, plus sécurisé et plus granulaire qu’un OAuth générique. Pour l’environnement local, l’URL de callback est http://localhost:3000/api/github/app/callback. Pour la production, il suffit de remplacer par l’URL Vercel. Configurez également le webhook GitHub pour être notifié des événements de push.
Quelles limites, coûts et risques anticiper ?
Open Agents n’est pas magique. Plusieurs points méritent une vigilance avant un déploiement à grande échelle, en particulier pour les équipes qui pilotent des centaines de tâches quotidiennes.
Dépendance à l’écosystème Vercel
Le template tire sa fluidité d’une intégration profonde avec Vercel : Sandbox, Neon, AI Gateway, workflows durables, environment variables managés. Cette dépendance est assumée mais crée un verrouillage technique qui pèse lors d’une migration éventuelle vers AWS, Azure ou un cloud souverain.
Les équipes qui anticipent une exigence de multi-cloud ou de réversibilité devront refactoriser le package sandbox pour supporter d’autres runtimes. Ce travail est possible grâce à l’abstraction prévue, mais il coûte en temps d’ingénierie non négligeable.
Coûts d’API et de sandbox à prévoir
Chaque tâche d’agent consomme des tokens API facturés par le provider IA choisi (Anthropic, OpenAI, Google) et du temps de sandbox Vercel. Les coûts varient fortement selon la complexité : une tâche d’une minute sur Claude Code avec quelques fichiers peut coûter quelques centimes, tandis qu’un refactoring de 50 fichiers sur Gemini Pro peut atteindre plusieurs dollars.
Pour une équipe qui pilote 100 tâches par jour pendant un mois, la facture cumulée peut grimper vite. Le template prévoit un AI Gateway de Vercel qui centralise la facturation et plafonne les dépenses par utilisateur, mais c’est à l’administrateur de paramétrer les quotas. Pour budgéter correctement votre adoption d’agents IA, consultez notre guide sur le déploiement d’agents IA en entreprise, budget et ROI.
Sécurité et gestion des secrets
Le template impose plusieurs clés sensibles : JWE_SECRET, ENCRYPTION_KEY, GITHUB_APP_PRIVATE_KEY, GITHUB_WEBHOOK_SECRET, clés API provider. Une rotation régulière de ces secrets est indispensable, surtout pour les déploiements en production avec plusieurs contributeurs. La compromission d’une seule clé peut exposer des repositories clients entiers.
Maturité modérée du projet
Avec moins de 1 000 étoiles GitHub, Open Agents reste un projet jeune. Les patterns se stabilisent, la documentation s’étoffe, mais quelques edge cases peuvent encore surprendre. Les équipes early adopters doivent accepter un niveau de support communautaire et s’impliquer via les issues GitHub pour contribuer à la maturation du template.
Quel impact stratégique pour les équipes dev et produit ?
Au-delà du produit technique, Open Agents incarne un virage stratégique dans le marché des agents de coding. Ses implications vont bien au-delà du simple template Next.js.
La fin des agents propriétaires monolithiques
En publiant une base de référence multi-agents et multi-modèles, Vercel envoie un message clair au marché : l’avenir n’est pas aux plateformes fermées comme Devin ou Bolt, mais aux orchestrations ouvertes que chaque entreprise peut s’approprier. Cette position bouscule les fournisseurs qui misaient sur un verrouillage technique.
Pour les DSI, cela signifie qu’il devient possible de bâtir une plateforme interne d’agents de coding sans dépendre d’un unique fournisseur. Chaque équipe peut choisir le meilleur agent pour sa tâche : Claude Code pour l’architecture, Codex CLI pour le scripting rapide, Gemini CLI pour la recherche documentaire longue.
Un tremplin pour les agents au-delà du code
L’architecture d’Open Agents (app web + runtime durable + sandbox isolé) est agnostique au métier. Elle peut servir de base à des agents de rédaction, d’analyse financière, de veille concurrentielle, de pilotage de campagnes marketing. Les primitives sont les mêmes : persistance des sessions, reprise de workflows, exécution isolée, observabilité.
Nos propres pipelines de production de contenu SEO et GEO s’inspirent de ces mêmes principes. Un agent éditorial, un runtime durable pour gérer les articles longs, un sandbox pour interroger des APIs marketing externes : le pattern est directement transposable. C’est le socle de notre offre SEO et GEO automatisé chez HDVMA.
Forkez le repo cette semaine, déployez une instance sur Vercel avec un premier provider configuré (Claude Code recommandé pour débuter), et testez sur un micro-projet GitHub interne. Cette démarche progressive est le meilleur moyen de comprendre les capacités et de jauger les coûts réels avant un engagement plus large.
Méthodologie
Cette analyse s’appuie sur le repository GitHub vercel-labs/open-agents, le fichier AGENTS.md, le template officiel Vercel, la documentation Coding Agent Platform et les données publiées par Trendshift en avril 2026. Les chiffres reflètent les données disponibles à la date de rédaction.
📞 Appelez Eric au 06 25 34 34 25
Diagnostic IA gratuit · Nous contacter · SEO & GEO automatisé
Questions fréquentes sur Open Agents by Vercel
Qu’est-ce qu’Open Agents exactement ?
Open Agents est un template open source publié par Vercel Labs pour construire et exécuter des agents de coding en cloud sur Vercel Sandbox. Il inclut l’interface web, le runtime d’agent, l’orchestration sandbox et l’intégration GitHub nécessaires pour passer du prompt aux modifications de code sans ordinateur allumé. Le repo est conçu pour être forké et adapté, pas traité comme une boîte noire. Il a franchi 970 étoiles GitHub en avril 2026.
Quels agents IA sont compatibles avec Open Agents ?
Six agents majeurs sont supportés nativement : Claude Code d’Anthropic, OpenAI Codex CLI, GitHub Copilot CLI, Cursor CLI, Google Gemini CLI et opencode. L’utilisateur choisit son agent par tâche et peut en mixer plusieurs dans un même déploiement. Cette multi-compatibilité est l’un des arguments les plus forts du template face aux plateformes fermées qui imposent un agent unique comme Devin de Cognition ou Bolt.
Combien coûte le déploiement d’Open Agents ?
Le template est gratuit et open source. Les coûts réels viennent de trois sources : l’hébergement Vercel (plan Hobby à Pro selon le trafic), la base PostgreSQL Neon (plan gratuit jusqu’à quelques Go), et surtout les tokens API consommés par l’agent IA choisi. Pour 100 tâches par jour, compter quelques dizaines à centaines de dollars mensuels selon la complexité. Un AI Gateway Vercel permet de centraliser la facturation et plafonner les dépenses.
Comment fonctionne l’architecture à trois couches ?
La couche web Next.js gère auth, sessions, chat et streaming UI. La couche agent (packages/agent) tourne comme workflow durable Vercel avec persistance de chaque étape, survie aux timeouts et reprise possible. La couche sandbox (packages/sandbox) fournit le filesystem isolé, shell, git et dev servers. L’agent ne tourne pas dans la VM mais en dehors, interagissant via des outils (lecture, édition, recherche, commandes shell).
Peut-on utiliser Open Agents sans Vercel ?
Partiellement. La couche sandbox peut être remplacée car elle est abstraite dans packages/sandbox, mais les workflows durables et l’AI Gateway sont spécifiques à Vercel. Les entreprises qui veulent éviter le verrouillage technique devront refactoriser ces couches, un travail non trivial mais faisable. Cette dépendance assumée est le principal trade-off du template face aux projets 100 % agnostiques comme LangChain ou LlamaIndex.
Quels sont les prérequis pour déployer Open Agents ?
Compte Vercel, base PostgreSQL (Neon recommandé), GitHub App configurée avec flux d’autorisation utilisateur, clés de chiffrement JWE_SECRET et ENCRYPTION_KEY générées via openssl, et au moins une clé API provider (Anthropic, OpenAI, Google). L’AI Gateway Vercel est optionnel mais recommandé pour centraliser la facturation. Compter 30 minutes pour un déploiement en un clic, plusieurs heures pour un setup manuel personnalisé.
Les serveurs MCP sont-ils supportés ?
Oui, nativement et uniquement avec l’agent Claude Code à ce jour. Un onglet Connectors permet d’ajouter des serveurs MCP (Model Context Protocol) pour étendre Claude Code avec des outils externes. L’utilisateur saisit un nom, une URL de base et des credentials OAuth optionnels. L’ENCRYPTION_KEY protège ces identifiants. Cette intégration MCP permet de connecter Jira, Slack, bases de données internes et autres ressources via l’interface standardisée Anthropic.
Comment sont générés les noms de branches Git ?
Le template utilise AI Gateway de Vercel avec AI SDK 5 pour générer automatiquement des noms de branches descriptifs comme feature/user-authentication-A1b2C3 ou fix/memory-leak-parser-X9y8Z7. Un hash alphanumérique de 6 caractères évite les conflits. La fonction after() de Next.js 15 rend la génération non bloquante. En cas d’échec de génération IA, un fallback basé sur le timestamp prend le relais automatiquement.
Le projet est-il activement maintenu ?
Oui. Vercel Labs est une équipe officielle qui publie et maintient activement plusieurs projets open source (Next.js, Vercel Sandbox, agent-skills, vercel-openclaw, agent-browser). Les commits sur open-agents sont réguliers et les issues reçoivent des réponses. L’équipe étant structurée, le risque d’abandon du projet est faible. En revanche, les API internes peuvent évoluer rapidement pendant cette phase initiale, ce qui impose de suivre les changelogs.
Open Agents convient-il pour des tâches non-code ?
L’architecture à trois couches (app web, runtime durable, sandbox isolé) est agnostique au métier. Elle peut servir de base à des agents de rédaction SEO, d’analyse financière, de veille concurrentielle ou de pilotage de campagnes marketing. Les primitives sont identiques : persistance des sessions, reprise de workflows, exécution isolée, observabilité. Un fork adapté peut devenir une plateforme d’agents multi-usage, mais requiert de retirer les spécificités coding (GitHub App, branches Git).
Diag IA gratuit
Nous contacter
Parler à Eric



