Qu'est-ce qu'un agent IA ? Définition, architecture et premiers exemples

Qu'est-ce qu'un agent IA ? Définition, architecture, cycle ReAct, multi-agents et agentic RAG. Guide clair pour décideurs.

Silhouette humanoïde lumineuse bleue et or orchestrant des outils flottants (marteau, engrenages, clés) autour d'un plateau circulaire holographique, sur fond sombre étoilé
L'agent IA : un orchestrateur qui décide quand et comment utiliser ses outils
toc Sommaire
Résumer avec l'IA

Article 1/4 de la série « Agents IA » — Comment créer un agent IA ? · Agents IA dans l'équipe (à venir) · Agents IA face aux organisations (à venir)

ChatGPT répond à vos questions. Un agent IA, lui, accomplit des missions. Derrière ce changement de vocabulaire se joue une rupture technique qui va redéfinir ce que l'on attend d'un logiciel — et de ceux qui les pilotent.


"C'est quoi la différence entre un agent IA et une skill (compétence) ?"

La question a été posée vendredi après-midi lors d'un point en équipe. Pourquoi on parle de « skills » dans Claude — l'outil de code d'Anthropic ? Pourquoi on parle d'agents partout ailleurs ? Comment l'un fonctionne avec l'autre ?

C'est une excellente question. Et le fait qu'il soit difficile d'y répondre en trente secondes en dit long sur l'état du vocabulaire de l'IA en 2026.

La réponse tient dans une métaphore simple : l'agent est le menuisier, la skill est son marteau.

Une skill (compétence, aussi appelée « outil » ou tool) est une capacité d'action spécifique et délimitée. C'est un mécanisme qui permet au modèle d'IA d'interagir avec son environnement : lire un fichier, exécuter une recherche web ou lancer une requête SQL.

Un agent, en revanche, est le système autonome qui décide quand et comment utiliser ces skills. Il reçoit un objectif à atteindre, planifie les étapes nécessaires, et appelle la bonne skill au bon moment pour avancer.

L'exemple de Claude Code illustre bien cette complexité. L'architecture y empile quatre niveaux : un agent orchestrateur principal, des skills (programmes d'action complexes), des sous-agents spécialisés que ces skills peuvent mobiliser, et des tools atomiques (lire un fichier, lancer une recherche). Ce qu'un autre éditeur appellerait "agent", Claude Code l'appelle tantôt skill, tantôt sous-agent — selon le niveau d'autonomie accordé.

Même si le secteur produit encore du jargon à cadence industrielle — ce qu'un éditeur appelle tool (outil), un autre l'appelle skill (compétence) — ce duo « cerveau qui décide / bras qui exécute » reste le principe de base. Vous retrouverez tout ce vocabulaire détaillé dans le glossaire du site. Mais pour l'heure, voyons justement de quoi est fait ce "cerveau" sous le capot.


Définition : ce qui fait qu'un système devient un "agent"

Un agent IA est un système logiciel capable de percevoir son environnement, de raisonner sur un objectif et d'exécuter des actions de manière autonome — en boucle, jusqu'à atteindre ce but.

Trois mots comptent dans cette définition : percevoir, raisonner, agir. Ce triptyque distingue fondamentalement un agent d'un simple LLM (Large Language Model, ou grand modèle de langage). ChatGPT, Claude ou Gemini pris dans leur usage de base sont des systèmes de question-réponse : vous entrez un prompt, vous obtenez une sortie, l'interaction s'arrête. Un agent, lui, orchestre plusieurs étapes, décide de ses propres actions intermédiaires et corrige sa trajectoire en fonction des résultats obtenus.

La distinction tient à un mot : autonomie. Un LLM répond. Un agent décide.

En termes techniques, pour passer de ce triptyque conceptuel à un agent fonctionnel, on construit le système autour d'un LLM — qui joue le rôle de « cerveau » — en lui ajoutant quatre briques logicielles :

1. La mémoire (pour percevoir sur la durée) — stockage des échanges passés (mémoire à court terme) et des connaissances persistantes (mémoire à long terme, souvent vectorielle). Sans mémoire, un agent oublie tout entre deux exécutions et ne peut pas capitaliser sur ses actions passées.

2. La planification (pour raisonner) — capacité à décomposer un objectif complexe en sous-tâches séquentielles ou parallèles. L'agent ne reçoit pas un script à suivre : il construit lui-même le plan d'action en fonction du contexte. Sans planification, il faut scripter chaque enchaînement à la main — et tout casse dès que le contexte change.

3. Les outils ou tools (pour pouvoir agir) — fonctions que l'agent peut appeler : API (interface de programmation) externe, recherche web, exécution de code, lecture/écriture de fichiers, requêtes SQL… C'est le bras opérationnel. Un agent sans outils est un cerveau sans bras.

4. L'action (pour interagir avec le réel) — exécution effective des sous-tâches planifiées via les outils mis à disposition. C'est la couche qui transforme un raisonnement en résultat concret : un email envoyé, un fichier créé, un CRM (outil de gestion de la relation client) mis à jour.


Agent IA vs chatbot : où se situe la vraie rupture

La confusion entre les deux coûte cher — en attentes mal calibrées, en déceptions, et parfois en projets abandonnés après des résultats décevants.

Un chatbot — même sophistiqué, même basé sur un LLM — est fondamentalement réactif et sans état (stateless) : chaque échange est traité indépendamment. Il ne prend aucune initiative, ne consulte aucun système externe sauf configuration explicite, et ne mémorise rien entre deux sessions.

Un agent IA est proactif et avec état (stateful) : il maintient un contexte entre les étapes, décide lui-même de ses prochaines actions, et itère jusqu'à réussir — ou échouer de manière contrôlée. Confié à l'objectif "Prépare un brief concurrentiel sur nos trois principaux fournisseurs", il enchaîne de manière autonome : recherche web → extraction de données → structuration → rédaction → export PDF — sans intervention humaine entre chaque étape.

Critère Chatbot Agent IA
Mode Réactif, tour par tour Proactif, multi-étapes
État Stateless (ou mémoire limitée) Stateful, persistant
Outils externes Rare ou absent Natif
Planification Aucune Autonome
Gestion d'erreur Pas de retry automatique Retry, bifurcation, escalade
Intervention humaine À chaque échange Optionnelle (human in the loop)

La frontière n'est pas toujours nette dans les produits commerciaux — Claude, Gemini et GPT-4 peuvent adopter un comportement agentique selon leur configuration — mais la distinction architecturale reste valide.


Comment fonctionne l'agentic AI : le cycle ReAct

Le fonctionnement d'un agent repose sur une boucle itérative connue sous le nom de ReAct (Reasoning + Acting), formalisée dans l'article de recherche ReAct (Yao et al., 2022). Ce pattern est devenu le socle de frameworks comme LangGraph, CrewAI ou le Claude Agent SDK. Le terme agentic AI (IA agentique) désigne précisément cette capacité d'une IA à agir en boucle autonome — par opposition à une IA qui se contente de répondre.

1. Percevoir — L'agent reçoit un objectif et observe l'état actuel de son environnement : données disponibles, historique des actions passées, résultats des étapes précédentes.

2. Raisonner — Le LLM analyse la situation et produit un plan d'action : quelle sous-tâche prioriser, quel outil appeler, comment formuler la requête. C'est ici que la qualité du modèle sous-jacent fait la différence.

3. Agir — L'agent exécute l'action choisie — appel API, recherche web, script Python, lecture de fichier — et attend le résultat. Cette étape est la seule qui produit un effet dans le monde réel.

4. Observer — L'agent analyse le résultat, le compare à l'objectif, et décide : continuer (nouvelle itération), corriger (changer de stratégie) ou terminer (objectif atteint ou erreur irrécupérable).

Ce cycle peut s'enchaîner 10 à 50 fois pour une seule mission complexe — ce qui signifie qu'une tâche qui vous prendrait une demi-journée de travail manuel peut être bouclée en quelques minutes.


Les architectures multi-agents : diviser pour mieux régner

Un agent seul traite efficacement des tâches séquentielles. Pour les workflows complexes — ceux qui nécessitent des compétences variées ou des traitements en parallèle — on orchestre plusieurs agents spécialisés : c'est l'architecture multi-agents.

Le pattern fondamental oppose deux rôles complémentaires.

L'orchestrateur est l'agent "chef de projet" : il reçoit l'objectif global, le décompose en sous-tâches, les délègue aux bons agents spécialisés et agrège les résultats. C'est le seul à interagir avec l'utilisateur final. Il ne sait pas forcément comment faire les choses — il sait qui les fait et dans quel ordre.

Les sous-agents sont les agents experts : chacun maîtrise un domaine précis — recherche web, analyse de données, rédaction, validation réglementaire, appel d'API spécifique. Ils reçoivent une sous-tâche, l'exécutent et retournent un résultat structuré à l'orchestrateur.

Les architectures plus avancées ajoutent le parallélisme — plusieurs sous-agents traitent simultanément des tâches indépendantes, ce qui divise le temps de traitement — et le critic pattern — un agent évalue la sortie d'un autre avant validation, ce qui réduit les erreurs et les hallucinations.

Sur une plateforme de contenu, l'architecture pourrait déployer cinq agents spécialisés : recherche SEO (référencement naturel) via Ahrefs ou Rankplorer, recherche factuelle avec filtrage de domaines (Perplexity API ou Brave API), rédaction (Mistral Large), vérification anti-hallucinations (Mistral Magistral) et formatage final. L'orchestrateur coordonne la chaîne selon le type de contenu à produire.

Sur notre pipeline éditorial, un test sur 50 articles a produit une qualité jugée publiable sans reprise majeure. Aucune hallucination n'a été détectée lors de la relecture humaine sur les données réglementaires et les sources citées.


Agentic RAG : quand la base de connaissance devient active

Le RAG (Retrieval-Augmented Generation, ou génération augmentée par la recherche) classique fonctionne en deux temps : l'agent consulte une base de documents, récupère les passages pertinents, les injecte dans le contexte du LLM qui génère sa réponse. C'est efficace — mais linéaire et rigide.

L'agentic RAG ajoute de l'intelligence à la phase de récupération : l'agent décide comment interroger la base (reformulation de requête, requêtes parallèles), si les résultats sont suffisants, et quand il faut compléter avec une source externe. La récupération devient une action parmi d'autres dans le cycle ReAct, pas une étape fixe en amont.

Concrètement :

  • RAG classique : question → recherche vectorielle unique → réponse
  • Agentic RAG : question → planification → recherche 1 → évaluation → si insuffisant : reformulation + recherche 2 → éventuellement recherche web → synthèse → réponse

La qualité sur les questions complexes ou ambiguës progresse nettement — au prix d'une latence plus élevée et d'une infrastructure plus complexe.


Trois exemples pour ancrer le concept

Veille réglementaire automatisée — Chaque matin, un analyste ouvre le Journal Officiel, parcourt les circulaires ministérielles, croise avec ses sources sectorielles et prie pour ne rien rater. Deux heures plus tard, il a un résumé — s'il n'a pas été interrompu. Un agent fait la même chose en quelques minutes : il surveille quotidiennement ces sources, produit un résumé structuré dès qu'une publication correspond à des critères prédéfinis, et l'envoie au bon interlocuteur. Le temps restant sert à la relecture et au passage à l'action.

Production de contenu SEO (référencement naturel) à l'échelle — Manuellement, un rédacteur analyse les mots-clés, cherche les sources, rédige, vérifie ses faits et formate le tout. Résultat : deux à trois contenus par jour, dans le meilleur des cas. Un agent enchaîne ces mêmes étapes — données de positionnement, sources factuelles, rédaction, vérification, formatage HTML — et traite 20 à 40 contenus à l'heure. Nuance importante : depuis sa mise à jour Helpful Content (2024), Google dévalorise les contenus générés en masse sans valeur ajoutée éditoriale. L'agent accélère la production, mais sans relecture humaine et sans angle original, le trafic organique finit par stagner voire reculer.

Qualification de leads B2B — Un nouveau contact arrive dans le CRM. Le commercial ouvre LinkedIn, Societe.com, cherche les appels d'offres en cours, estime le budget de la DSI (direction des systèmes d'information)… Vingt minutes par lead — avant même de décrocher le téléphone. Un agent fait ce travail en quelques secondes : il analyse le contact entrant, recherche les informations publiques (taille, budget DSI, communications récentes, appels d'offres en cours), évalue le fit avec les critères de qualification et enrichit le CRM avec une fiche structurée prête à l'emploi.

Dans les trois cas, le point commun est identique : une mission définie → un cycle ReAct → des outils réels → un résultat livré sans intervention humaine à chaque étape.


Ce que cet article ne couvre pas — et pourquoi

Cet article répond à une question précise : qu'est-ce qu'un agent IA ? Il ne traite pas intentionnellement des frameworks pour en construire un, de leur déploiement dans les équipes, ni de leur impact sur les organisations. Ces sujets méritent chacun leur propre développement.

La série complète :

  • Article 1 (celui-ci) — Qu'est-ce qu'un agent IA ? Définition, architecture, exemples
  • Article 2Comment créer un agent IA ? Frameworks, étapes et pièges à éviter
  • Article 3 — Agents IA dans l'équipe : cas d'usage concrets et premiers déploiements (à venir)
  • Article 4 — Agents IA face aux organisations : gouvernance, autonomie et questions stratégiques (à venir)

L'article 2 entre dans le concret : comment construire votre premier agent, quels frameworks choisir, et les pièges que personne ne mentionne. C'est là que les choses se compliquent — et deviennent intéressantes.

Pour le recevoir dès sa publication, abonnez-vous au flux RSS ou suivez-moi sur mon profil LinkedIn.

Romain Delfosse
Romain Delfosse Digital Governance & Platform Strategy