Publié le 22 décembre 2025 par Laurent PAITA.
Temps de
lecture : 9 minutes.
Comment intégrer de l'IA dans son produit ?
Un an après, promesses vs réalité !
Le 16 décembre 2025, Digital League 2 Savoie clôturait son année chez Sage, à Annecy, avec un format original : revenir, un an après, sur un sujet déjà exploré en 2024 : « Comment intégrer de l’IA dans mon produit ? »
L’ambition n’était pas de refaire un énième talk sur l’intelligence artificielle, mais de confronter les convictions de 2024 à la réalité de 2025, dans une logique assumée : 2024 vs 2025, promesses vs réalité.
Autour de la table :
- Jean-Luc Marini, directeur du laboratoire IA chez OpenStudio
- Marie-Josée Miquel, Senior Product Manager chez Sage
- Guillaume Boisson, Product Engineering Director X3 chez Sage
- Guillaume Leclerc, Product Engineering Directors SDMO chez Sage
- Fabrice Alonso, Senior Director chez Sage,
- Laurent PAITA, Responsable de projet chez Digital League pour l’animation.
L’édito d’ouverture rappelait le décor : fin 2024, l’IA était partout – dans les médias, les slides, les appels d’offres, mais pas toujours réellement dans les produits. Les fameuses “features IA” ressemblaient parfois à un simple sticker « nouveau » sur un paquet de céréales. On parlait déjà d’IA washing, de la nécessité de partir du besoin réel avant de parler techno, et on tentait de projeter ce que tout cela donnerait “d’ici fin 2025”.
Un an plus tard, il s’agissait de reprendre ces affirmations, de les passer au crash-test, et d’en tirer des enseignements pour la suite.
Le besoin avant la techno : mieux compris, mais de nouveaux angles morts
En 2024, une idée forte s’imposait : la vraie question n’est pas « quelle IA ? » mais « pourquoi faire ? ». Plus de 80 % des demandes estampillées “IA” auraient pu être traitées par de l’algorithmique classique.
En 2025, les intervenants constatent une montée en maturité. Les demandes “magiques” se raréfient. Les entreprises arrivent avec des cas d’usage identifiés, des objectifs business, parfois des feuilles de route IA. La direction générale et l’encadrement sont davantage acculturés, et l’on parle moins de “mettre de l’IA parce qu’il en faut” que de résoudre un problème concret.
Mais le problème se déplace. Les principales difficultés ne sont plus tant dans le choix du modèle que dans :
- la qualité et la structuration des données,
- la gestion de l’après-déploiement : comment superviser, maintenir et faire évoluer les modèles dans la durée une fois le POC transformé en vraie fonctionnalité.
Chez Sage, cela se traduit aussi par un double registre dans les échanges avec les clients. Côté DSI, on parle architecture, modèles, infrastructure. Côté directions financières et opérationnelles, les questions sont beaucoup plus directes :
« Qu’est-ce que cela change demain matin pour moi ? Qu’est-ce que j’y gagne vraiment ? »
En interne, l’adoption des copilots et outils IA reste très hétérogène. Certains développeurs s’en emparent spontanément, d’autres restent en retrait. Plus que l’ancienneté ou le titre, ce sont la curiosité et le sens critique qui apparaissent comme les vrais marqueurs de maturité.
Le principe “besoin avant technologie” est donc mieux intégré… mais la bataille se joue désormais sur la donnée et sur la capacité à tenir l’IA dans le temps, beaucoup plus que sur la seule question du “bon” modèle.
De l’IA vitrine à l’IA contextuelle, incrustée dans le produit
Deuxième axe de la soirée : la façon dont l’IA s’insère, ou non, dans le produit.
En 2024, Sage testait un copilot généraliste, assistant auquel l’utilisateur pouvait poser “toutes ses questions”. Sur le papier, l’idée était séduisante. Dans la pratique, l’usage est resté limité. Beaucoup d’utilisateurs se retrouveraient face à une page de chat sans savoir quoi demander, ni comment formuler leurs requêtes.
Un an plus tard, le verdict est clair : ce copilot “qui sait tout faire” a été largement recentré. Sage privilégie désormais des agents spécialisés, déclenchés dans un contexte précis : depuis une fiche client, une commande, une facture, un écran de clôture, etc…
L’IA devient une fonction cachée, intégrée au cœur des écrans métiers plutôt qu’un bouton externe à aller chercher. Elle détecte des anomalies, propose des vérifications, suggère des actions. On ne lui parle plus “de tout”, on la laisse intervenir là où elle a du sens.
Le cas de la dématérialisation des factures d’achat est emblématique :
- l’utilisateur envoie un PDF,
- la brique IA se charge de l’interprétation, du rapprochement, de la cohérence des montants.
L’adoption est forte, car la valeur est évidente, et l’effort demandé à l’utilisateur très faible.
Les intervenants rappellent au passage une nuance importante : tout n’est pas IA. Une part significative des gains observés vient d’une meilleure automatisation et d’une refonte des workflows, dans lesquels l’IA n’est qu’un bloc parmi d’autres.
On voit ainsi émerger des architectures multi-agents : certains agents sont purement algorithmiques (règles métiers, calcul, orchestration), d’autres s’appuient sur des modèles IA (LLM, vision, etc…).
L’intelligence globale réside dans la manière de les faire collaborer, parfois au prix d’une refonte profonde du produit plutôt que d’un simple “plugin IA” ajouté à la marge.
On passe ainsi, très clairement, d’un imaginaire centré sur “le super copilote universel” à un paysage composé de micro-fonctions IA, très ciblées, incrustées au bon endroit et au bon moment.
Data, réglementation, frugalité : la confiance devient un critère de choix
En 2024, la discussion abordait déjà la régulation, la frugalité et la souveraineté : IA Act, référentiels d’IA frugale, exigences croissantes des grands comptes sur la localisation des données et les modalités d’entraînement des modèles.
En 2025, le paysage s’est complexifié. Les taux d’adoption de l’IA restent modestes dans les TPE/PME, malgré les dispositifs publics. Dans le même temps, le débat autour de l’AI Act a évolué : après une phase très normative, le discours politique cherche désormais à éviter d’handicaper l’innovation européenne, quitte à assouplir certains points pour permettre l’usage de modèles non européens.
Plusieurs études viennent aussi tempérer les promesses initiales : une large proportion de projets IA orientés “gains de productivité” n’atteignent pas leurs objectifs. L’IA augmente la capacité de traitement, mais la présence incontournable de l’humain dans la boucle (contrôle, validation, supervision) réduit les gains espérés, voire introduit de nouveaux coûts.
Chez Sage, ces évolutions ont conduit à une gouvernance IA structurée : implication systématique du juridique et de la sécurité, cadre mondial pour tout projet IA, capacité à répondre précisément aux questions des clients sur le traitement de leurs données.
Au-delà de la performance brute, l’IA doit désormais être fiable, maîtrisée, explicable et soutenable dans le temps. C’est ce que résument des notions comme “Trusted” ou “Authentic Intelligence” : on ne vend plus seulement ce que l’IA peut faire, mais aussi la façon dont elle est conçue, auditée et maintenue.
Méthodes, métiers, compétences : une transformation par couches
Le talk visait aussi à mesurer l’impact réel de l’IA sur les équipes : méthodes, métiers, compétences.
Dès 2024, l’idée était posée : intégrer de l’IA dans un produit ne se résume pas à “ajouter une feature”. Il faut apprendre à concevoir, entraîner, superviser et maintenir des modèles, gérer les biais, articuler l’IA avec la donnée, et prévenir l’émergence d’un “shadow AI” non maîtrisé.
En 2025, cette transformation est bien engagée, même si elle reste inégale. Chez Sage, l’IA s’invite à toutes les étapes : exploration des besoins, rédaction de spécifications, génération de code, rédaction et traduction de documentation, tests, support.
Pour autant, toutes les équipes n’avancent pas au même rythme. Là encore, ce qui distingue les profils, ce ne sont pas seulement les années d’expérience, mais la capacité à :
- explorer de nouveaux outils,
- garder un regard critique sur leurs sorties,
- comprendre quand l’IA aide vraiment… et quand elle complique les choses.
Jean-Luc Marini pointe, en parallèle, un angle mort : la structuration des compétences sur des sujets critiques comme la sécurisation des systèmes d’IA, l’IA appliquée à la cyber-malveillance, ou le maintien en condition opérationnelle de briques IA critiques. Les formations existent, mais restent rares, alors même que les attaquants, eux, exploitent déjà pleinement ces technologies.
Au final, la transformation semble se faire par couches successives :
- d’abord les outils et les usages du quotidien,
- ensuite les méthodes,
- plus lentement les organisations et les fiches de poste.
- “Si c’était à refaire…” : leçons 2025 et analogie avec l’automobile
Comme en 2024, la soirée se termine par une question simple : « Si c’était à refaire, que changerait-on ? »
Plusieurs lignes de force se dégagent.
La première, c’est la nécessité de ne pas graver ses certitudes dans le marbre. Le rythme d’évolution est tel que des choix paraissant solides au printemps peuvent être remis en cause quelques mois plus tard. La veille et la capacité à reposer les questions font désormais partie intégrante du métier.
La seconde, c’est le besoin d’expérimenter davantage. Les intervenants reconnaissent qu’ils auraient gagné à multiplier les hackathons, les bacs à sable, les temps d’exploration pour permettre aux équipes d’apprivoiser l’IA par la pratique plutôt que de la subir.
Troisième leçon : l’IA ne sauve pas un produit faible. Si l’offre de départ est confuse, si la proposition de valeur n’est pas claire, si les fondamentaux métiers ne sont pas là, l’IA ne fera qu’ajouter une couche de complexité. Elle est un levier, pas une rustine magique.
C’est à ce moment qu’est mobilisée une analogie parlante, celle de l’automobile. L’écosystème IA ressemble de plus en plus à celui de la voiture :
- D’un côté, les constructeurs : ceux qui conçoivent et produisent les moteurs les plus sophistiqués. Dans l’IA, ce sont les grands fournisseurs de modèles fondamentaux, capables de déployer une puissance de calcul et de recherche considérable.
- Ensuite, les équipementiers et intégrateurs : ceux qui prennent des briques technologiques, les adaptent, les combinent, les intègrent dans des solutions complètes pour un type de conducteur ou d’usage. C’est le rôle de nombreux éditeurs et ESN, qui transforment des modèles génériques en fonctionnalités métiers concrètes.
- Puis les mandataires et concessionnaires : ceux qui vendent la voiture au client final, qui l’aident à choisir le bon modèle, la bonne configuration. Dans l’IA, ce sont les acteurs qui portent le discours auprès des métiers, qui sélectionnent les briques et construisent l’offre packagée.
- Enfin, les garagistes : ceux qui maintiennent la voiture, gèrent les pannes, remplacent les pièces, suivent le véhicule sur la durée. Côté IA, ce sont les structures capables d’assurer le MCO (maintien en condition opérationnelle) : surveiller les modèles, les réentraîner, gérer les dérives, intégrer les évolutions réglementaires, traiter les incidents.
Tout le monde ne peut pas être constructeur, mandataire et garagiste à la fois. De la même manière, tout le monde ne peut pas :
- développer ses propres modèles fondamentaux,
- les intégrer dans un produit métier,
- et assurer seul leur maintenance complète dans le temps.
Cette analogie rappelle une chose : ce qui est en jeu, ce n’est pas seulement la capacité à “brancher une IA” mais la capacité à tenir, sur la durée, un système qui reste fiable, performant, conforme et utile.
Boule de cristal : à quoi pourrait ressembler l’IA fin 2026 ?
Parce qu’il est difficile de parler d’IA sans regarder un peu devant soi, la discussion s’est conclue par un exercice de prospective.
Premier constat : la seule certitude, c’est l’incertitude. Le rythme des ruptures oblige à accepter qu’une part de “boule de cristal” restera toujours floue. Ceux qui prétendent savoir précisément ce que sera l’IA en 2026 sont sans doute dans l’illusion.
Pour autant, plusieurs tendances se dégagent :
- sur le plan produit, une automatisation encore plus poussée des tâches techniques (tests, refactoring, intégration), mais aussi des tâches métiers (préparation de dossiers, pré-analyse, suggestions d’actions) ;
- sur le plan des interfaces, une montée en puissance des interactions agentiques : moins d’écrans figés, davantage de systèmes qui orchestrent en arrière-plan plusieurs agents spécialisés pour proposer à l’utilisateur non pas des réponses brutes, mais des options d’action.
Sur le plan économique, la question d’une éventuelle “bulle IA” fait débat. Les intervenants n’excluent pas une forme de “retour à la réalité” d’ici 2026–2027, avec un tri plus sévère entre :
- les modèles économiques viables,
- et ceux qui reposent essentiellement sur une valorisation spéculative.
Enfin, une conviction partagée : quel que soit ce futur proche, il n’y aura pas de retour en arrière. Même en cas de correction brutale, l’empreinte de l’IA sur les organisations, les métiers et les attentes des utilisateurs est durable. La vraie question n’est plus “IA ou pas IA ?”, mais “quelle IA, pour quoi faire, et à quel niveau d’engagement dans le temps ?”.
Face au tumulte technologique : quelle trajectoire stratégique adopter ?
Au-delà du constat, la soirée a également esquissé ce que pourrait être une trajectoire stratégique raisonnable pour les entreprises, face à ce tumulte.
D’abord, s’ancrer sur des cas d’usage ciblés. Les projets qui tiennent sont ceux qui partent d’un problème métier bien identifié, avec une valeur claire et mesurable. Les grandes ambitions d’assistants omniscients laissent progressivement place à une approche par petits blocs : une fonctionnalité IA bien pensée, bien exécutée, bien maintenue, plutôt qu’un grand écosystème théorique jamais véritablement adopté.
Ensuite, structurer la démarche à l’échelle de l’organisation. Les initiatives locales et opportunistes sont utiles, mais insuffisantes. La différence se fait lorsque l’entreprise :
- articule une feuille de route IA avec sa stratégie produit,
- définit une gouvernance claire (juridique, sécurité, conformité, data),
- mutualise certains outils,
- accompagne les métiers dans l’acculturation.
Cette trajectoire passe aussi par la constitution de “crews IA” internes, rassemblant produit, technique, data, sécurité, juridique et business. Ces équipes transverses deviennent des chefs d’orchestre, capables de dialoguer avec les « constructeurs » de modèles, de choisir les bonnes “voitures”, de travailler avec les “garagistes” pour assurer la maintenance, et d’accompagner les utilisateurs finaux.
Enfin, la stratégie IA ne peut plus se penser sans une logique de coopétition. Comme en cybersécurité, les projets les plus robustes sont ceux qui assument la spécialisation des rôles : fournisseurs de briques, intégrateurs, éditeurs, experts de gouvernance, organismes de formation. Vouloir tout faire seul revient souvent, métaphoriquement, à vouloir être en même temps constructeur, concessionnaire et garagiste… avec les limites que cela implique.
Rendez-vous en décembre 2026 : les affirmations 2025 que nous challengerons demain
Fidèle au principe du “un an après”, le talk 2025 s’est terminé en posant quelques affirmations conscientes, destinées à servir de repères lorsque l’exercice sera reconduit en 2026.
Parmi ces affirmations :
- L’IA utile est avant tout contextuelle. Les solutions qui survivront et se diffuseront le plus largement sont celles où l’IA est incrustée dans des usages précis, portée par des agents spécialisés, et non celles qui promettent un copilote universel.
- La gouvernance et la confiance deviendront des différenciateurs majeurs. Pour un grand compte comme pour une PME, la capacité à répondre clairement aux questions “où sont mes données ?”, “comment sont-elles utilisées ?”, “comment l’IA est-elle maintenue ?” pèsera de plus en plus dans les décisions.
- Les métiers tech et produit vont continuer de se transformer. L’IA deviendra un compagnon de travail omniprésent ; la valeur se déplacera vers l’orchestration, la conception d’agents, la capacité à tester, expliquer, détecter les biais, plutôt que vers la seule écriture de code.
- L’écosystème IA va se rationaliser. Un tri naturel s’opérera entre les acteurs qui maîtrisent la chaîne complète (construction, intégration, maintenance) et ceux qui resteront sur des promesses difficilement tenables.
- Les rôles et les organisations vont se spécialiser. On verra émerger des fonctions de type Chief AI Officer ou équivalents, chargées de piloter ces enjeux au plus haut niveau et de coordonner l’écosystème de partenaires, à la manière d’un constructeur qui travaille avec ses équipementiers, ses réseaux de concessionnaires et ses garages agréés.
Ce sont ces points qui serviront de miroir, en décembre 2026, lorsqu’il s’agira de revenir, une nouvelle fois, sur ce qui aura été dit.
Ce retour “un an après” confirme finalement deux choses.
D’une part, l’IA dans les produits progresse moins par grands discours que par une succession de décisions structurantes, souvent discrètes : mieux qualifier les besoins, mieux travailler la donnée, intégrer l’IA dans des usages ciblés, renforcer la gouvernance, accepter de revisiter ses choix.
D’autre part, la question n’est plus de savoir s’il faut ou non faire de l’IA, mais où, comment, avec qui et à quelles conditions de confiance et de soutenabilité.
Autant de chantiers qui continueront d’animer la communauté Digital League, et qui donneront sans doute matière à un futur “2025 vs 2026 : promesses vs réalité”.