+6 % seulement d’utilisation d’agents IA chez les directions financières, mais 38 % d’intentions sur douze mois : les chiffres publiés au printemps 2025 redistribuent les priorités. En France, les directeurs financiers privilégient désormais une IA fiable, contrôlable et traçable, plutôt qu’autonome. Ce recentrage s’explique par l’exigence réglementaire et la peur du faux pas algorithmique dans une fonction où la responsabilité ne se délègue pas.

Fiabiliser avant d’autonomiser : le cap fixé par les directions financières

Les responsables financiers français confirment une ligne claire. D’un côté, 6 % déclarent utiliser aujourd’hui des agents IA capables d’initiatives étendues. De l’autre, 38 % prévoient d’y passer à brève échéance. Entre ces deux courbes, une priorité s’impose : l’IA doit d’abord être fiable, ensuite seulement autonome.

Dans la pratique, la fonction finance exige des algorithmes qui répètent, justifient et documentent. Il s’agit de réduire les erreurs humaines sans créer d’opacité logicielle.

Les critères de sélection remontent systématiquement à la conformité, à l’auditabilité et aux garanties de contrôle. Une solution qui surprend l’utilisateur est mal perçue, même si ses performances moyennes sont élevées, car la prévisibilité prime.

Cette préférence n’est pas un conservatisme : elle traduit la nature de la responsabilité financière. Toute décision chiffrée peut déclencher un audit, une explication au commissaire aux comptes ou une interaction avec l’AMF. Autrement dit, la traçabilité n’est pas un bonus, c’est un prérequis.

Ce que vérifient les DAF avant de signer

Dans la phase de due diligence, les directions financières font passer au crible :

  • Traçabilité des décisions et des suggestions de l’IA, avec journaux détaillés consultables.
  • Contrôles ex ante limitant les actions non autorisées et séparant rôles et droits.
  • Mesures de précision réellement observées en production, pas seulement en POC.
  • Réversibilité et portabilité des données, pour éviter l’effet de verrouillage.
  • Clauses contractuelles sur la gestion des erreurs, la responsabilité et l’audit.

Retour d’expérience en conditions réelles : quand l’autonomie déraille

Le débat fiabilité contre autonomie est souvent théorique. Il a pris un relief inédit avec un test grandeur nature mené fin juin 2025 : un agent IA a conduit, seul, une micro-boutique en ligne de A à Z. Le résultat a été immédiat et instructif pour la communauté financière.

Exemple avec anthropic : project vend

Lors de cette expérimentation, le modèle Claude Sonnet 3.7 a piloté une boutique sans supervision humaine. Au programme : prix, remises, exécution des commandes, relation client. L’agent disposait de marges de manœuvre totales.

La performance a rapidement basculé dans l’absurde économique : remises excessives, prix fixés sous les coûts, procédés de paiement inventés. En quelques jours, la boutique a été menée à la faillite par une créativité mal bornée.

L’expérience, qualifiée d’« fascinante » par l’organisateur, illustre le risque d’une autonomie non balisée. En finance, ce type de dérive équivaut à une exposition directe à des pertes et à des manquements graves.

La leçon pour les DAF est limpide : un agent sans garde-fous optimise pour l’objectif qu’il perçoit, pas pour la viabilité. Or la viabilité financière repose sur des contraintes, des contrôles et des arbitrages que l’on ne peut pas laisser implicites.

Un agent optimisant un indicateur simple, comme le volume de ventes ou le taux de conversion, peut sélectionner des prix sous le coût si la contrainte n’est pas explicitement codée. Sans contraintes dures ni planchers de prix, l’IA voit la remise agressive comme la solution rationnelle. La finance réclame donc un cadre d’optimisation multi-objectifs intégrant marge, trésorerie, risque et conformité.

Le tissu français de l’ia : croissance soutenue et exigences de responsabilité

La France s’est structurée pour accélérer l’innovation en IA tout en gardant un socle de prudence. Le pays compte 590 start-up spécialisées et 16 licornes, avec un soutien public significatif, dont 1,5 milliard d’euros d’aides en 2022 pour stimuler les projets d’IA (source DGE). Cette dynamique crée un vivier de solutions pour la fonction finance, du contrôle de factures à l’analyse documentaire, en passant par la détection d’anomalies.

Au niveau de l’État, le plan Osez l’IA, annoncé en juillet 2025, encourage la diffusion de technologies responsables dans toutes les entreprises, avec une insistance sur la formation et les usages encadrés (source ministère de l’Économie). Dans le même esprit, un rapport publié en mars 2024 a formulé 25 recommandations pour saisir les opportunités de l’IA et contenir les risques, pointant la nécessité d’un cadre éthique et d’outils opérationnels pour les organisations.

Pour les directions financières, ces signaux publics sont déterminants. Ils valident l’investissement sur des briques IA gouvernables plutôt que sur des agents entièrement autonomes. Ils facilitent aussi l’alignement avec la conformité et la maîtrise des risques, ce qui conditionne la trajectoire de déploiement dans les grands groupes comme dans les ETI.

Chiffres clés 2025 à retenir pour la fonction finance

  • 6 % des directions financières utilisent des agents IA aujourd’hui.
  • 38 % envisagent de passer aux agents IA dans l’année.
  • 45 % des professionnels à l’international souhaitent collaborer avec l’IA sur des tâches répétitives.
  • 10 % des entreprises en France utiliseraient l’IA à date, selon les données relayées.
  • 72 % des PME l’utilisent déjà ou prévoient de le faire, avec une mobilisation incomplète des financements disponibles.
  • 590 start-up IA et 16 licornes sur le territoire, avec 1,5 milliard d’euros d’aides publiques en 2022.

Adoption en entreprise : montée en charge hétérogène et attentes pragmatiques

Les études publiées en 2025 montrent un appétit réel, mais contrasté. A l’international, 45 % des professionnels déclarent vouloir déléguer à l’IA des tâches jugées rébarbatives.

En France, la réalité d’usage reste plus mesurée, avec 10 % des entreprises indiquées comme utilisatrices à ce stade. Chez les PME, l’intention est forte : 72 % l’emploient déjà ou prévoient de le faire. Le paradoxe tient à une mobilisation partielle des dispositifs de financement, freinée par l’accompagnement et la complexité administrative.

Pour les directions financières, l’enseignement est double. D’abord, les cas d’usage à ROI court gagnent : automatisation de la facture fournisseur, rapprochements bancaires, extraction documentaire, préparation d’écritures. Ensuite, la transformation s’installe par paliers : du copilote procédural à l’automatisation contrôlée, avant d’envisager des agents plus autonomes en environnement restreint.

Les recommandations publiées en 2025 insistent sur une adoption responsable et mesurée. L’idée n’est pas de freiner l’innovation, mais d’installer des garde-fous, de prioriser la qualité des données et d’outiller la supervision. Cet ancrage progressif est cohérent avec l’appétence affichée par les DAF pour des systèmes prédictibles et explicables.

Un POC réussi ne vise pas la démonstration technologique, mais un indicateur financier actionnable. Ciblez :

  • Un processus borné avec données disponibles et métriques claires, par exemple le temps de traitement d’une facture.
  • Un objectif chiffré crédible, comme la réduction des délais de clôture ou du taux de correction manuelle.
  • Des contrôles intégrés dès le POC : logs, validation humaine, seuils d’alerte.
  • Un plan d’industrialisation si la promesse est tenue, pour éviter l’« effet vitrine ».

Risques spécifiques à la finance : droits, preuves et lignes de défense

Autonomie rime avec exposition si la gouvernance n’est pas rigoureuse. La publication de juillet 2025 de l’Autorité des marchés financiers souligne des points incontournables pour les entreprises : mécanismes de contrôle intégrés, respect des normes de conformité et traçabilité des décisions automatisées pour les besoins d’audit. La logique est simple : sans preuve, pas de maîtrise, et sans maîtrise, pas de déploiement à l’échelle.

Les analyses 2025 de l’INSEE confirment une adoption prudente dans les activités financières. Les organisations privilégient les cas d’usage qui limitent les erreurs humaines et simplifient la production de pièces justificatives, plutôt que l’autonomie intégrale.

La mise en œuvre répond à une architecture en « lignes de défense » :

  • Conception avec règles explicites, seuils, garde-fous et séparation des rôles.
  • Surveillance par indicateurs de qualité et d’incident, avec revue périodique.
  • Traçabilité exhaustive, pour reconstituer la chaîne de décision en cas de contrôle.
  • Remédiation rapide, incluant suspension automatisée en cas d’écart critique.

Cette discipline est la condition d’un passage à l’échelle. Elle explique la préférence pour des systèmes qui, même puissants, restent déterministes dans leur périmètre et observables dans leurs actions.

  1. Définir les objectifs financiers et les contraintes non négociables (marge, prix plancher, seuil de risque).
  2. Limiter le périmètre d’action de l’IA et formaliser les droits par rôle.
  3. Journaliser toutes les actions et décisions avec horodatage et versionnement.
  4. Mettre en place un contrôle humain obligatoire aux étapes sensibles.
  5. Évaluer les performances en production, pas uniquement en test.
  6. Prévoir un plan de repli et une réversibilité des données.

Privilégier le déterminisme : ce que veulent vraiment les daf

Le mot d’ordre n’est pas l’IA « géniale », mais l’IA fiable. Comme le résume Jiquan Ngiam, « des systèmes fiables et déterministes seront bien plus désirables que des agents tape-à-l’œil qui visent à tout faire ». Cette position reflète une demande de régularité et de comportements reproductibles, particulièrement dans les métiers régulés.

Dans la finance d’entreprise, la valeur se crée lorsque l’IA excelle sur des tâches spécifiques. L’exemple du traitement des factures fournisseurs est parlant : extraction, rapprochement, contrôle des règles et proposition d’écritures peuvent atteindre des niveaux de précision supérieurs à 90 % dès lors que les données sont de qualité et que les contrôles sont intégrés. De même, la prédiction de comptes comptables ou la détection d’anomalies s’avèrent utiles si l’IA explique ses choix et laisse une trace exploitable.

Dans son rapport de septembre 2025, le Capgemini Research Institute met en avant des stratégies pour déployer l’IA à grande échelle de manière responsable. Côté directions financières, cette approche se traduit par une industrialisation progressive, un pilotage par les résultats et une documentation robuste qui facilite l’audit.

Points de vigilance contractuelle avec les fournisseurs d’IA

  • Service Level Agreements détaillant précision, disponibilité, délais de remédiation.
  • Droits d’audit et accès aux journaux pour reconstituer une décision.
  • Gestion des erreurs et responsabilités financières explicitées.
  • Conformité données et localisation, avec mécanismes de purge et de portabilité.
  • Évolutions de modèle encadrées, pour éviter les régressions silencieuses.

Leçons opérationnelles tirées du project vend pour la fonction finance

L’épisode de micro-boutique gérée par un agent IA constitue un cas d’école pour les directeurs financiers. Il expose les pièges d’une autonomie laissée à elle-même et leur transposition possible dans des processus sensibles comme la tarification, l’ordonnancement de paiements ou la gestion de remises contractuelles.

Anthropic : ce que l’expérience révèle sur les garde-fous

Trois messages se détachent. D’abord, il faut des contraintes explicites pour empêcher les stratégies non viables.

Ensuite, un humain doit surveiller et valider les décisions à impact financier tant que les modèles ne sont pas éprouvés en production. Enfin, les systèmes doivent prouver leur capacité à expliquer et justifier chaque action. Sans ces éléments, le passage à l’échelle est inenvisageable dans un environnement régulé.

La morale pour les DAF est pragmatique : commencer par des IA opérateurs, disciplinés, tracés et bornés, puis élargir progressivement la délégation, au fur et à mesure que la preuve opérationnelle s’accumule.

Pour les fonctions financières exposées à des décisions de prix ou de remises, les bonnes pratiques incluent :

  • Prix plancher lié au coût complet, non franchissable par l’IA.
  • Plafonds de remise par segment, validés par le contrôle de gestion.
  • Journaux de justification des ajustements, utiles pour l’audit et le post-mortem.
  • Tests A/B encadrés, en proportion limitée et avec rollback automatique.

Cap sur une ia de confiance pour les directions financières

Les lignes bougent, mais dans un sens maîtrisé. Les chiffres d’intention montrent que les entreprises françaises veulent amplifier l’usage d’agents IA.

Les directions financières, elles, s’en saisiront si et seulement si la fiabilité, la traçabilité et les mécanismes de contrôle sont au rendez-vous. Les repères fournis en 2024 et 2025 par les autorités et les études sectorielles convergent vers cette exigence.

En 2025, l’IA devient un atout lorsqu’elle respecte les contraintes financières et juridiques qui gouvernent l’entreprise. L’autonomie viendra peut-être, par paliers, là où elle peut être bornée et prouvée. Le temps des directions financières est celui des résultats vérifiables plutôt que des paris incontrôlés.

La finance adoptera l’IA à son image : précise, explicable et responsable.