Vous connaissez l'agent au sens juridique — celui qui agit pour le compte d'un mandant. L'IA vient de créer une nouvelle espèce d'agent. Ce guide vous explique la différence, et pourquoi ça change tout.
Avant de parler d'intelligence artificielle, revenons à la définition la plus large possible du mot « agent ».
Un agent est toute entité — personne, organisation, ou programme — qui agit dans un environnement pour atteindre un objectif. Le mot vient du latin agere : faire, agir.
Un agent se distingue d'un simple outil par sa capacité de décision. Un marteau ne décide rien. Un agent observe, évalue, et choisit une action.
En droit, un agent est une personne qui agit pour le compte d'un mandant (principal). La relation de mandat crée un cadre de responsabilité : le mandant délègue un pouvoir, l'agent l'exerce dans les limites fixées.
L'agent n'agit pas en son nom propre. Il est tenu par le périmètre du mandat : types d'actes autorisés, montants maximaux, durée, etc.
Un agent IA est un programme logiciel autonome alimenté par un grand modèle de langage (LLM) qui peut percevoir son environnement, raisonner, planifier et agir pour atteindre un objectif — sans intervention humaine à chaque étape.
Contrairement à un chatbot qui attend une question pour répondre, un agent IA prend l'initiative. On lui donne un objectif (« organise mes fichiers », « achète le meilleur billet d'avion »), et il décompose la tâche en étapes, les exécute, et rend compte du résultat.
Pensez à la différence entre un standard téléphonique (qui attend un appel et donne une réponse pré-programmée) et un assistant personnel (qui anticipe vos besoins, organise votre agenda, négocie à votre place, et rend compte). Le chatbot est le standard. L'agent IA est l'assistant. Vous lui confiez un mandat — il l'exécute.
L'IA n'est pas binaire. Il existe un spectre de sophistication, du simple outil de réponse automatique jusqu'à l'agent pleinement autonome. Cliquez sur chaque niveau.
Attend une question, donne une réponse. Pas de mémoire entre les sessions. Ne peut rien faire dans le monde réel.
Comprend le contexte, garde en mémoire la conversation, peut raisonner sur des problèmes complexes. Mais reste passif — il répond, il n'agit pas.
Peut appeler des outils externes : chercher sur le web, exécuter du code, lire des documents. Agit sur commande, mais une étape à la fois.
On lui donne un objectif, il planifie et exécute plusieurs étapes. Demande confirmation avant les actions importantes. Travaille dans un périmètre défini.
Opère 24h/24, prend des décisions, dépense de l'argent, coordonne d'autres agents. Intervient dans le monde réel avec un minimum d'intervention humaine.
Voici deux produits concrets qui incarnent cette révolution agentique — l'un open-source et viral, l'autre grand public et intégré à votre bureau.
OpenClaw est un agent IA open-source créé en novembre 2025 par le développeur autrichien Peter Steinberger. C'est un programme que vous installez sur votre propre machine, et qui peut agir de manière autonome : lire et écrire des fichiers, envoyer des emails, naviguer sur le web, exécuter des commandes, gérer votre agenda — le tout à partir de simples messages sur WhatsApp ou Telegram.
Jensen Huang, PDG de NVIDIA, l'a comparé à « le système d'exploitation des ordinateurs agentiques » — l'équivalent de ce que Windows a été pour les PC. NVIDIA a développé NemoClaw, une couche de sécurité et gouvernance au-dessus d'OpenClaw pour les entreprises.
OpenClaw pose des questions juridiques inédites. En mars 2026, la Chine a interdit son usage dans les entreprises d'État. Des incidents de prompt injection (injection d'instructions malveillantes) ont montré qu'un agent pouvait être « piraté » via un simple email. Qui est responsable quand un agent autonome agit au-delà de son mandat ?
Claude Cowork est le produit d'Anthropic (le créateur de Claude) qui transforme l'assistant IA en véritable collègue de bureau. Lancé en janvier 2026, il fonctionne directement sur votre ordinateur : vous lui donnez accès à un dossier, vous décrivez le résultat souhaité, et Claude exécute le travail — tri de fichiers, rédaction de rapports, création de tableaux Excel, présentations PowerPoint.
Contrairement à OpenClaw (qui est un outil pour développeurs), Cowork est conçu pour des non-techniciens : juristes, marketeurs, chercheurs, managers. Il est né d'une observation : les développeurs utilisaient Claude Code (un outil de programmation) pour organiser leurs vacances et trier leurs emails.
Avec Cowork, Anthropic entraîne les utilisateurs à gérer Claude comme un système de tâches, pas comme un chatbot. C'est la transition de « je pose une question » vers « je délègue un mandat ». Microsoft a été tellement impressionné qu'il a lancé Copilot Cowork, construit sur Claude, pour ses clients entreprise.
La prochaine étape est évidente : si un agent peut agir de manière autonome, il doit aussi pouvoir payer de manière autonome. C'est là qu'entrent les protocoles de paiement agentique comme x402.
Gartner estime que les « clients machines » génèreront 30 000 milliards de dollars d'achats d'ici 2030. Les protocoles comme x402 (Coinbase), ACP (Stripe/OpenAI) et AP2 (Google) se construisent maintenant pour devenir l'infrastructure de paiement de cette économie.
Pour les juristes, les questions se multiplient :
Si un agent IA achète la mauvaise chose, qui est responsable ? L'utilisateur ? Le développeur ? L'agent lui-même ?
Comment prouver qu'un agent avait bien l'autorisation d'agir ? Les « mandats cryptographiques » d'AP2 tentent de résoudre cela.
Le prompt injection permet de détourner un agent via un simple email. Qui est responsable quand un agent est « piraté » ?
Un agent IA opère sur des blockchains mondiales, sans frontières. Quel droit s'applique à une transaction entre deux agents sur des continents différents ?