Charles Gorintin, Alan & Mistral AI : l’adoption de l’IA, d’abord une question de culture
- Par
Pollen
- Publié le
- 28/01/2026
- Temps de lecture
- 9min

Il arrive qu’une transformation naisse d’une phrase. Non parce qu’elle serait simpliste, mais parce qu’elle tranche net avec une habitude. Pour Charles Gorintin, cofondateur d’Alan et de Mistral AI, celle-ci trouve peut-être racine au cœur de la Silicon Valley, à l’époque où il travaille chez encore Facebook, Instagram et Twitter.
Derrière la formule, un déclic culturel. Celui qui distingue les organisations où l’on attend une validation, de celles où l’on s’autorise à tenter, à itérer, à corriger. Cette capacité d’initiative et d’action, Charles Gorintin la soulignera à plusieurs reprises lors de son intervention donnée chez Pollen.
Face à une salle composée de DRH, de responsables Data & IA et de dirigeants, le cofondateur d’Alan revient sur sa vision de l’organisation. Son témoignage montre comment une culture d’entreprise, lorsqu’elle est pensée comme une véritable infrastructure, peut rendre l’adoption de l’IA presque évidente. Et comment, en retour, l’IA peut être mise au service de l’humain et du collectif.
Car avant d’être une “success story” de l’assurance santé, Alan est d’abord cela : une entreprise conçue pour agir vite sans perdre le sens. Un fil que Charles Gorintin déroule en partant de son propre basculement, puis en revenant à ce que nombre d’entreprises sous-estiment encore : les innovations les plus robustes commencent rarement par une idée séduisante. Voici ce qu’il faut retenir de son intervention.
À l’origine d’Alan : une contrainte structurelle convertie en avantage stratégique
La genèse d’Alan est souvent racontée comme une réussite produit. Elle est d’abord une décision stratégique lucide. À l’origine, Charles Gorintin et Jean-Charles Samuelian, son camarade de promotion, ambitionnent de créer des services de santé fondés sur la donnée. Très vite, ils se heurtent à une réalité simple : sans modèle économique solide, l’innovation en santé ne tient pas.
Plutôt que de contourner le système, ils décident d’en attaquer le cœur. L’assurance santé, réputée ultra-régulée, lente et technologiquement en retard, devient la “brique de base” à construire. Le pari est contre-intuitif. Il est aussi pleinement assumé. Charles Gorintin le formule sans détour : il préfère les projets qui ressemblent à de mauvaises idées, parce qu’ils érigent des barrières à l’entrée durables.
Ce choix structure les premières années d’Alan : construire l’assureur avant les services, accepter la lourdeur réglementaire pour créer un avantage défensif, et avancer là où les acteurs établis peinent à accélérer.
Dans stratégie découle une décision fondatrice : la simplicité comme promesse non négociable. Là où le secteur de l’assurance empile les frictions, Alan fait le choix inverse. Onboarding en quelques minutes, suppression de l’inutile, design traité comme un pilier à part entière. La complexité est absorbée en interne pour libérer l’expérience utilisateur. Et sans la formuler ainsi à l’époque, l’entreprise pose déjà les bases d’une organisation capable d’innover à l’ère de l’IA.
La culture Alan comme infrastructure : transparence, écrit, autonomie
Chez Alan, la transparence de l’information est radicale. Elle n’est pas là pour “faire confiance”, mais pour résoudre un problème très concret : comprendre pourquoi une décision a été prise, dans quel contexte, avec quelles contraintes. Pour illustrer cette idée, Charles Gorintin mobilise un concept clé de la sociologie des organisations : la barrière de Chesterton. Avant de modifier un processus ou une règle, encore faut-il en comprendre la raison d’être. Sans cela, les organisations s’enferment dans le “on a toujours fait comme ça” ou, à l’inverse, détruisent des mécanismes encore pertinents.
Alan s’efforce donc de documenter chaque décision structurante. Les arbitrages ne sont jamais simplement pris en réunion puis oubliés, mais consignés, accessibles, réinterrogeables. Cette mémoire organisationnelle permet aux équipes d’arbitrer en permanence entre continuité et remise en question.
Deuxième pilier : le travail asynchrone. Alan fait le choix d’une organisation compatible avec des rythmes cognitifs différents. Charles Gorintin reconnaît lui-même avoir “un esprit en escalier” : “les bonnes idées me viennent souvent à la fin de la réunion”, confie-t-il. Dans ce modèle, le raisonnement se construit dans le temps, se relit, se critique. Il peut être challengé sans dépendre de la présence immédiate ou du statut de celui qui s’exprime.
Enfin, l’entreprise valorise fortement l’autonomie et l’initiative - un point que son cofondateur reconnaît comme l’un des plus difficiles à faire adopter. Beaucoup de collaborateurs arrivent avec un réflexe profondément ancré : attendre la validation. Or, chez Alan, l’autonomie est une responsabilité collective. Les bonnes idées ne sont pas censées venir “d’en haut”, et la capacité à questionner l’existant est perçue comme un signal de maturité organisationnelle.
L’IA chez Alan : “90 % d’humain, 10 % de technique”
C’est sur cette base culturelle que l’adoption de l’IA devient possible. Et c’est là que Charles Gorintin porte une thèse qui structure tout le reste de son propos : la transformation IA est un sujet humain à 90 %.
L’erreur la plus fréquente, selon lui, consiste à traiter l’IA comme un projet d’outillage. Or, sans un environnement qui valorise l’initiative, la responsabilité et le discernement, l’IA reste marginale. Les équipes font semblant de ne pas utiliser l’IA, tout en y ayant recours en dehors des cadres officiels. Résultat : perte de contrôle, fuite de données, et surtout absence de transformation réelle.
Pour éviter cet écueil, Alan formalise S.U.N, un framework basés sur trois principes clés : simple, utile, noble :
- Une IA simple, d’abord, en centralisant les sujets complexes comme la sécurité et la confidentialité, afin d’éviter que chacun ne bricole ses propres solutions.
- Utile, ensuite, en garantissant l’accès aux meilleurs modèles et en évitant les outils figés qui deviennent obsolètes en quelques mois.
- Noble, enfin, en assumant politiquement l’usage de l’IA : l’utiliser n’est ni tricher ni se déresponsabiliser. Il s’agit au contraire d’un outil susceptible d’accompagner les équipes, de répondre à une exigence accrue de qualité.
Ce dernier point est décisif. Chez Alan, l’IA n’est pas un prétexte pour baisser les standards, bien au contraire. Dans les équipes commerciales par exemple, l’adoption s’est ainsi accompagnée d’une augmentation explicite des attentes, avec des objectifs revus à la hausse de 30%. Pour les atteindre, les équipes ont eu accès à des outils capables d’augmenter leurs gains de productivité, et de se concentrer sur la qualité de leur approche commerciale.
Cette position explique aussi le niveau d’adoption inédit constaté par l’entreprise. L’IA est aujourd’hui utilisée chaque semaine par 100% des collaborateurs d’Alan (700 personnes). Non par injonction, ni par suivi obsessionnel des usages, mais parce qu’elle s’est installée dans les moments où le travail se joue réellement : préparation des décisions, structuration des analyses, revues de performance.
Mistral AI, une alternative stratégique européenne
Si Charles Gorintin s’est investi dans Mistral AI, ce n’est ni par opportunisme technologique ni par fascination pour la course aux modèles. La décision naît d’une suite logique, un problème rencontré chez Alan : l’organisation profondément engagée dans l’IA, est alors dépendante d’un fournisseur unique, américain. En cas de choc géopolitique ou de rupture d’accès, l’ensemble de la transformation pourrait se retrouver fragilisé.
Mistral s’inscrit d’abord dans cette logique : créer une alternative européenne crédible, fondée notamment sur l’open source, capable d’offrir une solution de repli et de garantir une forme d’autonomie stratégique. L’enjeu n’est pas uniquement la performance brute des modèles, mais la capacité, pour des entreprises sensibles - défense, industrie, secteurs régulés - de maîtriser leurs données et, parfois, de posséder leurs propres modèles.
Pour autant, Charles Gorintin ne réduit pas la question de l’IA à une bataille industrielle entre laboratoires. À ses yeux, la souveraineté se joue aussi dans l’adoption réelle. Une technologie que les organisations n’utilisent pas - ou qu’elles utilisent mal - ne crée ni autonomie ni avantage compétitif. À l’inverse, plus les entreprises créent les conditions culturelles pour s’approprier l’IA, plus elles deviennent capables de changer d’outil, de fournisseur ou de modèle si nécessaire.
Compétences et évolution du travail : ce que l’IA change vraiment dans nos organisations
C’est dans cette perspective qu’Alan aborde la question des compétences à l’ère de l’IA, que Charles Gorintin décrit à travers le prisme du triangle d’efficacité.
Selon lui, l’efficacité professionnelle repose sur trois piliers : la capacité technique, l’agentivité (la capacité à prendre des initiatives) et le discernement. Pendant longtemps, ces trois dimensions formaient un équilibre relativement stable. Avec l’essor de l’IA, la capacité technique cesse progressivement d’être un facteur différenciant. Le triangle se déforme faisant ainsi de l’agentivité et du discernement les compétences véritables compétences critiques.
Cette évolution redessine la question du recrutement, en particulier chez les plus jeunes. Contrairement aux inquiétudes fréquemment exprimées, Charles Gorintin estime que les profils juniors ne seront pas pénalisés par l’IA. Au contraire, ceux qui s’en emparent développent plus rapidement leur capacité d’initiative et leur jugement. “Ils testent dix approches pendant qu’on en débat une, et ils échouent sans coût émotionnel”, observe-t-il. Mais cette accélération n’est pas automatique. Elle suppose un investissement préalable de l’organisation : documenter ses choix, expliciter ses arbitrages, transmettre ses pratiques et former à un usage exigeant de l’IA. Sans ce contexte, l’intelligence artificielle reste un outil générique, incapable de produire un avantage durable.
La conclusion esquissée par notre invité est moins technologique que managériale. L’IA ne remplacera ni la stratégie ni le jugement. Elle redistribue les cartes, compresse les délais et rend visibles les faiblesses organisationnelles. Les entreprises qui sauront en tirer parti ne seront pas nécessairement celles qui disposeront des modèles les plus avancés, mais celles qui auront su former des équipes capables d’initiative et de discernement, et faire de l’IA un véritable levier d’innovation.
Ce dont on a aussi débattu : à retrouver dans le replay
- L’IA comme accélérateur de l’« archéologie décisionnelle »
Grâce aux grands modèles de langage, une organisation peut retrouver en quelques secondes pourquoi une décision a été prise plusieurs années auparavant, là où cela nécessitait auparavant des heures de recherche documentaire. (00:19:30 – 00:20:30)
- “Auditer plutôt que monitorer”
La transparence rend inutile une surveillance permanente. Elle permet de comprendre a posteriori ce qui n’a pas fonctionné, plutôt que de contrôler en continu. (00:21:00 – 00:21:40)
- “Paradoxe de Jevons et productivité
Lorsqu’une ressource devient plus efficace, on ne l’utilise pas moins, mais davantage. Chez Alan, les gains de productivité ont conduit à renforcer l’ambition plutôt qu’à réduire les équipes. (00:46:00 – 00:47:20)
- IA : révolution technologique, pas épistémologique
Les craintes cognitives actuelles font écho à celles formulées lors de l’apparition de l’écriture (Platon, Phèdre), ou analysées par Marshall McLuhan (Narcissus Narcose). Pour Charles Gorintin, l’IA déplace les capacités humaines plus qu’elle ne les détruit. (00:38:30 – 00:41:00)
- Effondrement de la “pile de talents” (collapse of the talent stack)
Avec l’IA, les frontières entre les rôles deviennent plus poreuses. Les profils généralistes dotés de discernement pourraient jouer un rôle central. (01:11:00 – 01:12:30)
- IA et prise de décision : éviter les “yes people”
L’IA peut être configurée pour challenger une idée plutôt que la valider. Une discipline rigoureuse de prompting permet de préserver l’esprit critique. (01:16:00 – 01:18:00)