Anthropic Managed Agents : le guide complet (2026)
Anthropic Managed Agents et Conway : agents IA always-on dans le cloud. Architecture, pricing, cas d'usage et impact sur l'automatisation.
Anthropic a lancé Managed Agents le 8 avril 2026 en bêta publique. Ce service cloud permet de déployer des agents IA autonomes basés sur Claude, sans gérer l’infrastructure d’exécution. En parallèle, un agent always-on nommé Conway est en test interne, avec des capacités de webhooks, navigation Chrome et notifications persistantes.
J’ai passé la dernière semaine à décortiquer l’architecture, le pricing et les premiers retours des adoptants. Voici ce que ces deux produits changent pour l’automatisation IA en production.
Ce que sont les Managed Agents d’Anthropic
Les Managed Agents sont l’infrastructure cloud d’Anthropic pour exécuter des agents Claude. Au lieu de construire votre propre boucle agentique, sandbox et couche d’exécution d’outils, vous obtenez un environnement managé où Claude peut lire des fichiers, exécuter des commandes shell, naviguer sur le web et exécuter du code de manière sécurisée.
Le service repose sur quatre concepts clés :
| Concept | Rôle |
|---|---|
| Agent | Modèle, system prompt, outils, serveurs MCP et compétences |
| Environnement | Template de conteneur configuré (packages, accès réseau) |
| Session | Instance d’agent en cours d’exécution dans un environnement |
| Events | Messages échangés entre votre application et l’agent (SSE) |
Ce découpage est robuste : chaque composant peut échouer ou être remplacé indépendamment, sans interrompre les autres.
Architecture virtualisee des Managed Agents : 3 couches decouplees pour un TTFT reduit de 60 % au P50.
Architecture technique : découpler le cerveau des mains
L’article d’ingénierie publié par Anthropic détaille une architecture en trois composants virtualisés : la session (journal append-only de toute l’activité), le harness (boucle d’orchestration qui appelle Claude et route les appels d’outils) et la sandbox (environnement d’exécution du code).
Cette séparation a produit des gains de performance mesurables. Selon le blog d’ingénierie d’Anthropic, le Time-to-First-Token (TTFT) a été réduit de 60 % au P50 et de plus de 90 % au P95 par rapport à l’architecture monolithique précédente. C’est le chiffre qui m’a le plus surpris : l’inférence démarre immédiatement pendant que les conteneurs se provisionnent à la demande.
Sécurité par isolation structurelle
Les credentials ne touchent jamais la sandbox. Les tokens de dépôt Git clonent les repos pendant l’initialisation, puis les opérations git fonctionnent sans exposition des secrets. Les tokens OAuth sont stockés dans des vaults sécurisés, et Claude appelle les outils MCP via un proxy dédié qui récupère les credentials à la volée.
Ce modèle s’inscrit dans la continuité du Model Context Protocol (MCP) qu’Anthropic a standardisé pour connecter les agents à des outils externes de manière sécurisée.
Scalabilité horizontale
Le harness est stateless et se scale horizontalement. Chaque “main” (conteneur, navigateur, outil MCP) devient un outil avec une interface uniforme : execute(name, input) → string. Cette abstraction permet d’ajouter des types d’exécution (téléphones, outils custom, serveurs MCP) sans modifier l’architecture.
Conway : l’agent always-on en test interne
Conway est le nom de code d’un agent persistant découvert le 31 mars 2026 dans le code source de Claude Code, quand Anthropic a accidentellement publié environ 512 000 lignes de TypeScript via une mise à jour npm. Contrairement aux Managed Agents qui fonctionnent par session, Conway tourne en continu et réagit à des événements externes.
Les capacités révélées
L’interface de Conway comprend trois sections : Search (recherche d’information), Chat (conversation) et System (configuration). Les capacités techniques identifiées dans le code vont loin :
- Webhooks : des URLs publiques permettent à des services externes (GitHub, Slack, outils de monitoring, cron jobs) de réveiller l’instance Conway
- Intégration Chrome : connexion directe au navigateur pour remplir des formulaires, extraire des données et interagir avec des applications web
- Notifications : alertes proactives sans attendre une requête utilisateur
- Extensions .cnw.zip : un format de package standardisé pour installer des outils custom, des onglets d’interface et des handlers de contexte
Un écosystème de type marketplace
Le format .cnw.zip positionne Conway comme une plateforme plutôt qu’un produit autonome. Chaque extension peut ajouter des outils invocables, des panneaux d’interface et des processeurs d’information. Cette approche rappelle le marketplace de VS Code et pourrait créer un vrai effet de réseau.
Le code révèle également une couche de gestion nommée Epitaxy, qui fonctionne comme une interface d’opérateur séparée du runtime Conway. Ce pattern reproduit la séparation Docker/Kubernetes : un plan de contrôle administratif qui gère plusieurs instances d’agents.
Agents par session vs Conway always-on : de l’IA conversationnelle a l’IA operationnelle.
Ce que Conway change par rapport aux agents classiques
La différence fondamentale entre Conway et les agents existants tient en un mot : persistance. Les agents actuels, y compris les Managed Agents, fonctionnent par session. Vous les lancez, ils exécutent une tâche, puis s’arrêtent. Conway fonctionne comme un processus en arrière-plan permanent.
| Critère | Agents par session | Conway (always-on) |
|---|---|---|
| Activation | Requête utilisateur | Webhooks, cron, événements |
| Durée de vie | Minutes à heures | Continue (24/7) |
| Contexte | Par session | Persistant entre sessions |
| Navigation web | Via outils intégrés | Chrome natif intégré |
| Extensions | Serveurs MCP | Packages .cnw.zip |
| Statut | Bêta publique | Test interne |
Cette transition de l’IA conversationnelle vers l’IA opérationnelle marque un changement de paradigme. Conway ne répond pas à des questions : il surveille, agit et notifie de manière autonome. C’est le passage de l’assistant ponctuel au collaborateur permanent que décrivent les stratégies d’IA agentique en entreprise.
Tarification Managed Agents : 3 axes de couts, de 6 $/mois pour un agent leger a 58 $+ pour du 24/7.
Tarification des Managed Agents : trois dimensions
La tarification des Managed Agents repose sur un modèle à trois axes, facturé simultanément :
| Dimension | Coût | Détail |
|---|---|---|
| Runtime session | 0,08 $/heure | Facturé à la milliseconde, temps inactif gratuit |
| Tokens | Tarif API standard | Opus 4.6 : 5 $/M input, 25 $/M output |
| Recherche web | 10 $/1 000 recherches | En supplément des tokens et du runtime |
Exemples de coûts réels
Voici mes projections selon différents usages :
- Agent de recherche quotidien (30 min actives/jour) : 6 à 21 $ par mois
- Pipeline de contenu hebdomadaire (sessions de 2h) : 17 à 43 $ par mois
- Monitoring continu (4h/jour) : 15 à 25 $ par mois
- Agent 24/7 : 58 $ par mois en runtime seul (1,92 $/jour)
Le prompt caching fait baisser la facture : selon la page pricing d’Anthropic, une session d’une heure avec Claude Opus 4.6 passe de 0,705 $ à 0,525 $ avec 80 % de cache hits, soit une économie d’environ 25 %. Le coût dominant reste les tokens, pas le runtime. Une session de deux heures génère 0,16 $ de runtime mais potentiellement 20 à 50 $ en tokens selon l’intensité du travail.
Comparaison économique
Le référentiel pertinent n’est pas zéro, mais le coût du travail remplacé. Deux heures quotidiennes de travail de connaissance à 30 $/heure en coût chargé représentent 1 500 $ par mois. Un agent qui effectue le même travail pour 50 à 100 $ par mois offre une réduction de coût de 15 à 30 fois.
Cas d’usage en production
Les premiers adoptants (Notion, Asana, Rakuten, Sentry, Atlassian et Allianz) intègrent les Managed Agents dans des workflows spécifiques. Selon Anthropic, le service réduit le temps de développement d’agents par un facteur 10 et améliore le taux de réussite des tâches de 10 points par rapport à une boucle de prompting standard.
Workflows adaptés aux Managed Agents
Les Managed Agents sont pensés pour les tâches qui nécessitent :
- Exécution longue : tâches qui durent des minutes ou des heures avec de multiples appels d’outils
- Infrastructure cloud : conteneurs sécurisés avec packages préinstallés et accès réseau
- Sessions stateful : systèmes de fichiers persistants et historique de conversation entre interactions
- Coordination multi-outils : enchaînement de bash, fichiers, web et serveurs MCP dans une même session
Les cas d’usage concrets incluent le support client automatisé, le traitement de pipelines de données avec logique conditionnelle, la revue de code intégrée au CI/CD et l’automatisation de workflows internes (approbations, génération de documents, mises à jour cross-système).
Managed Agents face à la concurrence
Le lancement d’Anthropic intervient dans un marché en pleine accélération : Gartner prévoit que 40 % des applications d’entreprise intégreront des agents IA spécialisés d’ici fin 2026, contre moins de 5 % en 2025. OpenAI propose son Agents SDK, Google développe l’Agent Development Kit (ADK), et Microsoft pousse Copilot Studio. La différence clé : Anthropic fournit un runtime hébergé complet, pas seulement un framework de développement.
| Solution | Type | Hébergement | Point fort |
|---|---|---|---|
| Anthropic Managed Agents | Runtime managé | Cloud Anthropic | Infrastructure complète, OAuth natif |
| OpenAI Agents SDK | Framework | Self-hosted | Flexibilité, open-source |
| Google ADK | Framework | Cloud / self-hosted | Intégration GCP |
| Microsoft Copilot Studio | Low-code | Azure | Écosystème Microsoft |
| AWS Bedrock Agents | Runtime managé | AWS | Multi-modèle, intégration AWS |
Jason Andersen, VP et analyste principal chez Moor Insights & Strategy, note qu’AWS propose déjà des services comparables via Bedrock, interrogeant le niveau réel de friction que la solution d’Anthropic élimine. L’opportunité pourrait résider dans les plateformes SaaS qui intègrent des capacités agentiques directement dans leurs produits.
Pour les équipes qui préfèrent une approche multi-agents avec orchestration visuelle, des outils comme n8n, CrewAI ou LangGraph restent des alternatives viables, surtout quand le contrôle granulaire sur l’orchestration est prioritaire.
Les limites à connaître avant de se lancer
Avant de foncer, il y a des points de vigilance que j’ai identifiés.
Verrouillage fournisseur (vendor lock-in). Les agents construits sur Managed Agents dépendent entièrement de l’infrastructure Anthropic. Si les tarifs augmentent ou si le service est interrompu, la migration nécessite de reconstruire la couche d’exécution.
Absence de SLA publié. En bêta, Anthropic ne communique aucun engagement de temps de disponibilité. Pour des workloads critiques en production, c’est un risque opérationnel réel.
Coûts imprévisibles des boucles agentiques. Les workloads agentiques deviennent la catégorie de coût non maîtrisée qui croît le plus vite. Les boucles de retry et les appels d’inférence composés n’ont pas de plafond naturel. Un monitoring rigoureux de la consommation est indispensable.
Rate limits restrictifs. Les endpoints de création sont limités à 60 requêtes par minute et les endpoints de lecture à 600 requêtes par minute par organisation. Pour des déploiements à grande échelle, ces limites deviennent vite un goulot d’étranglement.
Comment démarrer avec les Managed Agents
Le service est accessible à tous les comptes API Anthropic en bêta. Voici les prérequis :
- Clé API Claude : disponible dans les paramètres de votre compte Anthropic (voir le tutoriel Claude Code pour la configuration initiale)
- Header bêta :
managed-agents-2026-04-01sur toutes les requêtes (le SDK le configure automatiquement) - Accès activé : par défaut pour tous les comptes API
Le workflow de base consiste à créer un agent (modèle, system prompt, outils), configurer un environnement (conteneur avec packages et accès réseau), lancer une session et envoyer des événements via Server-Sent Events (SSE).
Certaines fonctionnalités avancées - outcomes (objectifs mesurables), multi-agent et memory - sont en research preview et nécessitent un accès spécifique.
Ce qu’il faut retenir
Les Managed Agents et Conway sont les deux faces d’une même vision chez Anthropic : transférer la complexité d’exécution des agents IA du développeur vers la plateforme. Les Managed Agents sont disponibles dès maintenant en bêta publique pour les workflows par session. Conway, avec ses capacités always-on, arrivera probablement entre Q2 et Q3 2026.
Mon avis : pour les équipes qui déploient des agents en production, le calcul économique est favorable. Un coût de 50 à 100 $ par mois pour un agent qui remplace des heures de travail manuel à 1 500 $ par mois. La question n’est plus technique mais stratégique : quel workflow automatiser en premier, et quel niveau de dépendance à un fournisseur accepter. J’ai hâte de tester Conway dès sa sortie publique pour comparer avec les solutions self-hosted que j’utilise actuellement.
Questions fréquentes
Qu'est-ce que Anthropic Managed Agents ?
Anthropic Managed Agents est une infrastructure cloud lancée en bêta publique le 8 avril 2026. Elle permet de déployer des agents IA autonomes basés sur Claude sans gérer de serveurs. L'infrastructure inclut le sandboxing, l'exécution d'outils (bash, fichiers, web), la gestion d'état persistante et le support OAuth natif. Les développeurs définissent les tâches, outils et garde-fous, Anthropic gère l'exécution.
Combien coûtent les Managed Agents d'Anthropic ?
La tarification repose sur trois dimensions : le runtime à 0,08 $ par heure de session (facturé à la milliseconde, temps inactif non facturé), les tokens au tarif API standard (5 $/M input, 25 $/M output pour Opus 4.6) et la recherche web à 10 $ pour 1 000 requêtes. Une session de codage d'une heure coûte environ 0,70 $, réduit à 0,525 $ avec le prompt caching (80 % de cache hits).
Qu'est-ce que Conway, l'agent always-on d'Anthropic ?
Conway est un agent persistant en cours de test interne chez Anthropic, découvert dans le code source de Claude Code le 31 mars 2026. Contrairement aux agents par session, Conway tourne en continu, se réveille via des webhooks, navigue avec Chrome, envoie des notifications et supporte des extensions au format .cnw.zip. Sa sortie publique est estimée entre Q2 et Q3 2026.
Quelle est la différence entre Managed Agents et Conway ?
Managed Agents est une API en bêta publique pour déployer des agents par session via l'API Claude. Conway est un agent always-on en test interne qui tourne en permanence et réagit à des événements externes (webhooks, cron jobs). Managed Agents cible les développeurs qui intègrent des agents dans leurs applications. Conway cible les utilisateurs qui veulent un assistant autonome permanent.
Quels outils sont disponibles dans les Managed Agents ?
Les Managed Agents disposent d'outils intégrés : bash (commandes shell), opérations fichiers (lecture, écriture, édition, glob, grep), recherche web et récupération de contenu, et serveurs MCP pour se connecter à des outils externes. Les environnements supportent Python, Node.js et Go préinstallés, avec un accès réseau configurable.
Quelles entreprises utilisent déjà les Managed Agents ?
Les premiers adoptants incluent Notion, Asana, Rakuten, Sentry, Atlassian et Allianz. Ces entreprises intègrent les Managed Agents pour automatiser des workflows complexes : support client, traitement de données, coordination multi-outils. Selon Anthropic, le service réduit le temps de développement d'agents par un facteur 10 et améliore le taux de réussite des tâches de 10 points.
Comment fonctionne la sécurité des Managed Agents ?
Les Managed Agents utilisent une isolation structurelle en trois couches : session, harness et sandbox. Les credentials ne touchent jamais la sandbox d'exécution. Les tokens Git clonent les dépôts à l'initialisation, puis les opérations fonctionnent sans exposition de secrets. Les tokens OAuth sont stockés dans des vaults sécurisés et les outils MCP passent par un proxy dédié qui récupère les credentials à la volée.
Les Managed Agents sont-ils adaptés aux PME ou réservés aux grandes entreprises ?
Le service est accessible à tous les comptes API Anthropic, sans restriction d'entreprise. Avec un coût de 0,08 $ par heure de session et une facturation à la milliseconde, une PME qui lance un agent de recherche 30 minutes par jour paie environ 6 à 21 $ par mois. C'est nettement moins cher qu'un développement sur mesure ou un SaaS d'agents dédié.