Mirakl, Doctolib, Capgemini Invent, Dust : les leçons de terrain de l'IA agentique à grande échelle

Par
Pollen logo Pollen
Publié le
09/04/2026
Temps de lecture
7min

Seulement 2 % des organisations ont déployé des agents IA à grande échelle. Mais pour celles qui y sont arrivées, les enseignements sont sans appel : le vrai défi n'a jamais été technologique.

Il arrive que les chiffres résument mieux que les discours l'état d'une transformation. Lors de notre dernière Pollen Master Session consacrée à l'IA agentique, Anne-Claire Baschet, Chief Data & AI Officer chez Mirakl, en livre un qui pose immédiatement le décor : l'agent de customer support de Mirakl a généré +37 % d'efficacité sur les équipes concernées, avec plus de 250 000 conversations dont le niveau de satisfaction est équivalent à celui d'une conversation humaine.

Des résultats qui ne sont pas le fruit d'une technologie supérieure. Mais d'une stratégie d'adoption construite dès le départ, avec méthode et patience.

C'est autour de ce type de retours terrain que Julie Ranty, CEO de Pollen, a réuni quatre leaders au front de la transformation agentique : Anne-Claire Baschet (Mirakl), Nicolas Fiorini, Director AI & Data Science chez Doctolib, Etienne Grass, Chief AI Officer chez Capgemini Invent, et Gabriel Hubert, co-fondateur de Dust. Voici ce qu'il faut retenir de leurs échanges.

Pour retrouver le replay complet de la session : Master Session : IA agentique, 31 mars

La technologie n'est pas le facteur limitant. Le risque, si.

C'est Gabriel Hubert qui pose la thèse dès le début de la session :

"La technologie aujourd'hui n'est pas le facteur limitant au déploiement de cas très puissants. C'est plutôt la gestion du risque, et parfois l'anticipation irrationnelle que les entreprises en ont." (Gabriel Hubert, co-fondateur de Dust)

Ce constat recoupe les observations d'Anne-Claire Baschet chez Mirakl. L'entreprise a déployé plusieurs agents à grande échelle (dont un agent customer support utilisé par les 750 collaborateurs), non parce qu'elle disposait des meilleurs modèles, mais parce qu'elle a construit dès le départ une culture de l'adoption : formations continues, espaces de test, objectifs mesurés, itérations rapides.

La distinction est cruciale. Beaucoup d'organisations restent bloquées non pas faute d'outils, mais faute de cadre pour accueillir l'incertitude inhérente à tout déploiement agentique. Les agents font des erreurs. Ils déraillent sur certaines tâches. Ce n'est pas un problème technologique, c'est un problème de gouvernance, de tolérance au risque et de culture organisationnelle.

Observabilité et gouvernance : les deux vrais chantiers

Si la technologie ne suffit pas, que faut-il construire ? Gabriel Hubert identifie deux chantiers prioritaires, souvent sous-estimés dans les feuilles de route IA des entreprises.

Le premier est l'observabilité : la capacité, pour les équipes, de comprendre ce qui se passe réellement à l'intérieur d'un workflow multi-agents. Quand plusieurs agents interagissent en chaîne, la traçabilité des décisions devient vite un angle mort. Sans elle, impossible de détecter les dérives, de corriger les erreurs ou d'améliorer la performance.

Le second est la gouvernance, que Gabriel Hubert formule simplement comme la question de savoir

"La gouvernance, c'est à quel agent on donne quelle permission pour faire quoi."

Une question qui oblige les organisations à définir des niveaux d'autonomie, des seuils d'escalade, des périmètres d'action. Et à répondre à une interrogation fondamentale : quel niveau de risque sommes-nous prêts à accepter, et dans quels contextes ? Ces questions conditionnent le passage à l'échelle bien plus que les choix technologiques. Et elles ne peuvent être tranchées que par des personnes qui connaissent intimement les métiers concernés.

Les RH : pas un accompagnateur de la transformation, un acteur central

C'est l'un des points sur lesquels la convergence entre les quatre intervenants est la plus forte : les transformations agentiques qui réussissent ont toutes associé les RH dès le départ, non comme relais de communication, mais comme co-constructeurs.

"Ne pas oublier l'humain, savoir donner une perspective et accompagner sur les compétences qui ne sont pas que techniques." (Anne-Claire Baschet)

Chez Mirakl, cela s'est traduit concrètement : les RH ont été impliqués dans la définition des cas d'usage, dans la redéfinition de certains rôles, dans la construction des plans de montée en compétences. Pas en aval, une fois les agents déployés, mais en amont, quand les arbitrages stratégiques se font encore.

Nicolas Fiorini, chez Doctolib, insiste sur le rôle du management par l'exemple : "L'adoption de l'IA, ce n'est pas dire à tout le monde qu'il faut consommer tant de tokens. C'est comment moi, en tant que manager, j'accompagne mon équipe. Ça commence par ce que je fais moi pour être plus productif." Sans ce portage managérial, les transformations restent superficielles.

Former les juniors sans IA pour préserver l'expertise de demain

C'est le point le plus contre-intuitif de la session, porté avec conviction par Etienne Grass. Son postulat : les LLMs ont une frontière irrégulière. Ils sont étonnamment bons sur certaines tâches, et étonnamment mauvais sur d'autres, souvent de façon imprévisible. Seul un vrai expert métier peut identifier ces zones de défaillance et corriger les agents en conséquence.

Or, si toute une génération de collaborateurs forme ses réflexes professionnels en s'appuyant en permanence sur l'IA, qui sera capable dans dix ans de détecter que l'agent déraille sur une décision médicale, juridique, ou financière ?

Etienne Grass pousse la réflexion plus loin : si l'expertise de domaine est la condition sine qua non pour détecter les défaillances des agents, alors il faut préserver les conditions dans lesquelles cette expertise se construit. Pour lui, cela implique de réfléchir à comment former les profils juniors sans les rendre dépendants des outils IA dès le début de leur apprentissage.

Etienne Grass illustre cette idée par l'analogie des échecs : les meilleures équipes humain-IA ne sont ni les meilleurs modèles, ni les meilleurs joueurs. Ce sont des équipes avec un excellent protocole de collaboration. Et ce protocole ne s'improvise pas : il se construit sur une expertise humaine solide, qui préexiste à l'IA. Les organisations les plus avancées maintiennent déjà un track de formation sans IA pour certains profils, afin de préserver les expertises indispensables à l'évaluation, à la calibration et à la correction des agents.

Les compétences de demain : product management, expertise métier et soft skills

La dernière partie de la session s'est concentrée sur une question souvent abordée de façon abstraite : quelles compétences deviennent critiques dans un monde agentique ?

"La compétence qui apparaît le plus chez nous, c'est savoir concevoir des produits. Créer un agent, c'est créer un produit : ça répond à des problèmes, ça a des utilisateurs." (Anne-Claire Baschet)

Le product management (cadrer un besoin, prioriser des cas d'usage, mesurer l'impact, itérer rapidement) devient une compétence clé pour piloter les déploiements agentiques, bien au-delà des équipes tech.

Gabriel Hubert complète ce tableau en identifiant trois soft skills déterminants pour les profils qui travailleront avec et autour des agents :

  • La créativité : imaginer des scénarios d'usage qui n'existent pas encore, anticiper ce que les agents permettent de faire que l'on ne pouvait pas faire avant
  • La pensée transversale : raisonner en dehors des silos, connecter des enjeux métiers avec des capacités techniques, prendre des décisions de synthèse
  • La capacité à itérer : expérimenter sans chercher la perfection, apprendre vite, ajuster en continu
  • Ces compétences ne sont pas nouvelles. Ce qui change, c'est leur importance relative. Dans un monde où les agents prennent en charge une part croissante de l'exécution, la valeur humaine se concentre sur la direction, le jugement et l'adaptation.

Ce dont on a aussi débattu : à retrouver dans le replay

Le replay de l'événement, à voir ici

  • "LLM as a judge" : Comment évaluer la qualité d'un agent quand les sorties sont trop volumineuses pour être relues manuellement ? Nicolas Fiorini présente les pratiques de Doctolib pour automatiser une partie de l'évaluation. (~00:35:00)
  • Déploiements collaboratifs vs. adversariaux : Gabriel Hubert distingue deux catégories de déploiements agentiques aux niveaux de risque très différents : les environnements internes collaboratifs, où la confiance est établie, et les déploiements face à des utilisateurs externes potentiellement mal intentionnés. Une distinction cruciale pour calibrer sa prise de risque. (~00:40:00)
  • Deux lectures recommandées par les intervenants : Leadership is Language de David Marquet (recommandé par Nicolas Fiorini) et AI Engineering de Chip Huyen (recommandé par Anne-Claire Baschet)
  • Pour aller plus loin :

Le meilleur de la formation, version Pollen

Experts à découvrir, méthodes de terrain et actus fortes, retrouvez le meilleur de Pollen dans votre inbox.