« Protéger les agents d’IA comme des collaborateurs » : à Nashville, le patron de Proofpoint a donné le ton. L’édition 2025 de Proofpoint Protect dévoile une riposte technique à la hauteur d’attaques par e-mail devenues quasi industrielles, sur fond de flambée de l’hameçonnage et d’outils génératifs massivement exploités par les attaquants.

Proofpoint Protect 2025 à Nashville : un arsenal contre les cybermenaces dopées à l’IA

Réunie en septembre 2025 au Gaylord Resort de Nashville, la communauté cybersécurité a découvert les nouveautés de Proofpoint, acteur américain connu pour la protection de la messagerie et la sécurité centrée sur l’humain. L’éditeur revendique une orientation claire : neutraliser les attaques qui instrumentalisent les agents d’IA générative, désormais intégrés aux workflows d’entreprise.

La démonstration s’inscrit dans une séquence marquée par des perturbations sensibles de services critiques, illustrées par la paralysie de plusieurs aéroports européens les 20 et 21 septembre 2025 après une cyberattaque. Pour les équipes de sécurité, cette concomitance rappelle combien l’e-mail demeure un vecteur de menace majeur, alors que le volume et la crédibilité des messages piégés augmentent avec l’IA.

En ouverture, Sumit Dhawan, PDG de Proofpoint, a souligné la priorité stratégique : sécuriser les agents d’IA au même titre que des employés. « La prochaine étape pour la cybersécurité consiste à protéger les agents d’IA, surtout lorsqu’ils collaborent et partagent des données. Notre mission est d’aider nos clients à adopter l’IA en toute confiance, en les protégeant contre les menaces. »

Proofpoint : repères et positionnement

Spécialisé dans la protection de la messagerie, l’éditeur déploie une offre élargie à la gouvernance de la donnée, à la détection des menaces hautement ciblées et à la protection contre les pertes d’informations. En 2025, la feuille de route s’oriente vers un contrôle fin des interactions entre humains, données et agents d’IA, autant côté e-mail que dans les environnements cloud et applicatifs.

Europe : une résilience stratégique remise à l’épreuve

Les incidents ayant touché des infrastructures aériennes européennes les 20 et 21 septembre 2025 ont remis en lumière l’effet domino d’une compromission par e-mail. Sans détails publics supplémentaires, cet épisode accentue la nécessité, pour les organisations françaises, de sécuriser les identités, la messagerie et les automatismes IA déployés dans les opérations.

Chiffres à retenir sur la menace alimentée par l’IA

Les signaux convergent sur l’intensité de la menace par e-mail :

  • Plus de 90 % des attaques démarrent par un e-mail d’hameçonnage, d’après des données évoquées par le FBI.
  • +5 151 % d’attaques d’hameçonnage depuis le lancement de ChatGPT (SlashNext, 2025).
  • 56 % des RSSI redoutent une attaque majeure d’ici 12 mois, selon le rapport Voice of the CISO 2025 de Proofpoint.
  • 77 % des organisations ne sécurisent pas correctement les données utilisées par l’IA, et seuls 25 % chiffrent de manière adéquate (Kiteworks, 2025).

L’IA générative, multiplicateur d’attaques : chiffres clés et tendances

Les constats s’alignent sur un même diagnostic : l’IA générative baisse la barrière d’entrée des attaquants et industrialise la fraude. D’après la Harvard Business Review, des grands modèles de langage permettent d’automatiser entièrement l’hameçonnage, réduisant les coûts d’attaque d’environ 95 % tout en maintenant ou en améliorant les taux de réussite. Combinée à la capacité de rédiger dans de nombreuses langues et de générer du code, l’IA alimente un flot d’e-mails d’apparence légitime.

En France, la menace reste tangible dans le quotidien des PME, associations et collectivités. Le rapport d’activité 2024 de Cybermalveillance.gouv.fr, publié en juin 2025, place l’hameçonnage en tête des cybermenaces professionnelles. Les faux ordres de virement et les rançongiciels y sont signalés en hausse, confirmant la porosité entre compromission initiale par e-mail et impacts financiers.

Le 28 janvier 2025, à l’occasion de la Journée de la protection des données relayée par info.gouv.fr, les autorités françaises ont mis l’accent sur la protection des données personnelles et l’élévation du niveau de sécurité à l’ère de l’IA. Le message est direct : l’utilisation d’agents et d’outils génératifs doit s’accompagner de garanties sur le cycle de vie de la donnée, de sa collecte à son partage.

Les LLM génèrent des contenus contextualisés à partir d’indices publics ou volés. Ils produisent des messages :

  • Sans fautes et adaptés à une culture d’entreprise ou à un secteur.
  • Synchronisés avec des événements réels pour renforcer la crédibilité.
  • Capables d’imiter un ton managérial ou un style d’écriture interne.

Résultat : les signaux classiques du phishing disparaissent et la détection humaine devient moins fiable, en particulier pour les équipes sur-sollicitées.

Agents d’IA en entreprise : nouvelles surfaces d’attaque

Les agents d’IA adoptés par les métiers cliquent, compilent, résument, partagent. Ce comportement opérationnel les expose aux mêmes techniques d’ingénierie sociale que les employés. Un lien malveillant, une pièce jointe préparée pour exfiltrer des secrets via un prompt toxique, une demande d’accès magnifiquement rédigée : l’agent exécute s’il n’est pas encadré.

Des retours récents recueillis par Proofpoint mettent en évidence la manipulation d’agents intégrés aux workflows et la capacité des attaquants à induire des actions dont ils ne mesurent pas la portée. C’est dans ce contexte que Proofpoint propose de traiter les agents comme des identités à part entière, avec des politiques de sécurité, de supervision et d’approbation humaine.

Microsoft Copilot et Google Gemini : assistants, donc cibles

Les assistants de productivité comme Microsoft Copilot ou Google Gemini rationalisent les tâches, mais peuvent amplifier un incident si un agent est amené à suivre des instructions malveillantes. Au-delà d’un simple accès, la capacité d’un agent à orchestrer des actions à travers des applications élargit considérablement le périmètre de risque.

Ingénierie sociale contre agents : un miroir des attaques ciblant les humains

Simples à industrialiser, les prompts qui capturent des données sensibles peuvent être injectés par e-mail ou via des contenus web. Les agents cliquent, lisent, analysent, puis réagissent. Sans garde-fous, ces agents deviennent un maillon exploitable par les attaquants pour préparer des intrusions plus profondes.

Les vecteurs les plus fréquemment observés par les équipes sécurité combinent :

  • Liens dynamiques menant vers des pages qui changent de contenu post-scan pour tromper les défenses.
  • Pièces jointes avec prompts cachés visant la récupération de secrets dans les documents internes.
  • Demande d’autorisations bien formulée pour étendre l’accès de l’agent à des ressources cloud.

Un contrôle en amont sur la messagerie et une validation humaine des actions sensibles côté agent réduisent significativement le risque d’escalade.

Nouveautés Proofpoint : sécuriser les agents et la donnée au plus près des usages

Proofpoint enrichit sa pile de défense avec une série d’annonces centrées sur la protection préventive contre les menaces pilotées par l’IA. L’objectif affiché : que les organisations puissent bénéficier des gains de productivité sans ouvrir de brèches dans leurs environnements de travail.

Blocage en amont des prompts malveillants par e-mail

Nouvelle brique côté messagerie, la technologie annoncée intercepte les e-mails qui contiennent des prompts conçus pour manipuler des agents d’IA. Ces messages sont stoppés avant la boîte de réception pour empêcher l’extraction d’informations confidentielles ou de signaux exploitables dans des attaques ultérieures. Le filtrage s’applique automatiquement, sans demander d’intervention manuelle aux utilisateurs.

Secure Agent Gateway : contrôle des accès par Model Context Protocol

Proofpoint introduit Secure Agent Gateway, une passerelle qui surveille et trace les interactions entre agents d’IA et sources de données. Basée sur le Model Context Protocol (MCP), elle se branche sur les systèmes pour auditer les actions, vérifier les autorisations et imposer une validation humaine en cas de partage de données sensibles.

  • Supervision continue des requêtes et réponses des agents.
  • Traçabilité des accès aux fichiers et applications.
  • Garde-fous avec approbation humaine pour les contenus critiques.

Le Model Context Protocol est un standard ouvert qui facilite la connexion contrôlée d’un modèle d’IA à des services, des outils et des données externes. Atouts clés :

  • Définition claire des permissions et du périmètre d’accès.
  • Observabilité des échanges pour l’audit et la conformité.
  • Capacité à intégrer des politiques métiers dans les workflows IA.

Dans une logique de moindre privilège, MCP devient un levier de gouvernance pour encadrer le comportement des agents et éviter l’exfiltration involontaire d’informations.

Data Security Complete : classification dynamique et remédiation

Proofpoint Data Security Complete renforce la posture DLP en localisant les données sensibles, en contrôlant les accès et en surveillant les interactions sur e-mail, web, applications et cloud. Sa promesse tient dans l’automatisation :

  • Classification automatisée et évolutive selon le contexte.
  • Cartographie des risques priorisée.
  • Remédiation en un clic pour réduire l’exposition.

Cette approche répond aux équipes qui cherchent à diminuer la part de travail manuel et à accélérer les corrections sans multiplier les outils.

AI Data Governance : politiser l’usage de l’IA au quotidien

Proofpoint AI Data Governance outille les collaborateurs en clarifiant ce qui est autorisé quant à l’usage de l’IA et des données. L’objectif est double : limiter les fuites involontaires et donner une visibilité transversale sur les risques, autant pour les humains que pour les agents.

Pour Proofpoint, un usage sécurisé de l’IA implique une stratégie unifiée de sécurité et de gouvernance. La cartographie des risques fait office de boussole, évitant une juxtaposition d’outils inopérants dans des environnements complexes.

Repères France : cyberrésilience et rendez-vous 2025

Cyberéco 2025, le 2 octobre 2025 au Campus Cyber de La Défense, réunira plus de 700 participants autour des thématiques cybersécurité, IA et résilience des chaînes d’approvisionnement. L’événement, soutenu par l’ANSSI et des partenaires publics, illustre l’ancrage économique de la cybersécurité dans les stratégies d’entreprise.

RSSI sous pression : niveau de risque et gouvernance des données

Le rapport Voice of the CISO 2025 de Proofpoint signale que 56 % des RSSI s’attendent à un incident majeur dans l’année. Le facteur humain, conjugué à l’accélération des risques liés à l’IA, nourrit un épuisement perceptible des équipes sécurité. Sur le terrain, les responsables doivent arbitrer entre continuité d’activité, contraintes budgétaires et montée en complexité des environnements.

À l’échelle mondiale, une étude publiée en août 2025 par Kiteworks révèle un point de rupture : 77 % des organisations ne protègent pas correctement les données utilisées par l’IA et seuls 25 % chiffrent de manière adéquate les informations exposées. Les conséquences se jouent autant en risques juridiques qu’en coûts opérationnels, notamment lorsque les données clients, financières ou industrielles sont entraînées dans des modèles ou restituées à des agents.

En France, le fil d’alerte remonte de plus en plus des secteurs non techniques. Le document de Cybermalveillance.gouv.fr consacré aux professionnels classe l’hameçonnage comme menace numéro un et pointe la persistance des rançongiciels et des faux ordres de virement. La structuration de la gouvernance des données et l’encadrement des usages IA s’imposent comme des sujets de direction générale, avec un impact direct sur la résilience économique.

Trois zones sensibles reviennent régulièrement dans les retours d’expérience :

  • Inventaire des agents et intégrations déployés par les métiers, souvent partiel voire inexistant.
  • Gestion des secrets et des jeux de données utilisés pour les prompts et les contextes.
  • Traçabilité des actions des agents et revue humaine avant partage externe de données sensibles.

La combinaison d’un filtrage avancé de la messagerie, d’une passerelle dédiée aux agents et d’une DLP modernisée constitue une ligne de défense plus robuste.

Un agent d’IA pour la défense : Satori, coopération et usage assisté

Proofpoint ne cantonne pas l’IA au camp des attaquants. L’éditeur présente Satori, un agent d’IA conçu pour épauler les équipes sécurité. Sa mission : détecter les fuites potentielles, simuler des campagnes d’hameçonnage pour tester les défenses et assister le repérage des e-mails suspects dans l’activité quotidienne.

Point notable, Satori peut collaborer avec d’autres agents, notamment Microsoft Copilot ou CrowdStrike Charlotte, afin d’orchestrer des actions coordonnées. En donnant la possibilité aux non-spécialistes de déclencher des tâches en langage naturel, l’approche vise à démocratiser des gestes de cybersécurité sans alourdir les processus.

Satori : des usages opérationnels qui parlent aux métiers

L’intérêt d’un agent de défense réside dans l’adoption par les métiers. La simulation d’hameçonnage permet par exemple de mesurer l’exposition d’une équipe de vente à des messages ciblés, tandis que l’alerte proactive sur des partages de documents sensibles aide les fonctions support à corriger rapidement des erreurs de manipulation.

Interopérabilité et commandes en langage naturel

En s’intégrant à des écosystèmes comme Copilot ou Charlotte, Satori favorise une détection-raisonnement-action plus fluide. Le contrôle en langage naturel réduit la courbe d’apprentissage et peut accélérer la réponse à incident, une attente forte des organisations confrontées à un volume de signaux croissant.

Ce que disent les terrains : signaux sur les impacts économiques

Les témoignages recueillis à Nashville illustrent la réalité budgétaire : une directrice cybersécurité d’un réseau d’hôpitaux a indiqué vivre dans la crainte d’une attaque paralysante, tandis qu’un dirigeant d’une entreprise de vente de bateaux a évoqué une perte de 100 000 dollars liée à une cyberattaque, l’amenant à investir dans des protections renforcées. Le coût direct de l’incident et le coût d’opportunité d’une interruption nourrissent la demande d’outils automatisés.

Pour les entreprises françaises, cap sur une IA maîtrisée

Les annonces de Proofpoint arrivent à point nommé pour des directions générales qui veulent soutenir l’adoption de l’IA sans compromettre la donnée. Les chiffres clefs cadrent l’urgence avec sobriété : hausse spectaculaire de l’hameçonnage depuis l’essor des LLM (SlashNext, 2025) et lacunes persistantes sur la sécurité de la donnée IA, notamment en matière de chiffrement et de gouvernance (Kiteworks, 2025). Les entreprises françaises peuvent y voir un levier pour aligner productivité et conformité, dans la droite ligne des messages relayés par les autorités sur la protection des données et la résilience économique.

Reste une exigence structurante pour 2025 et au-delà : documenter, superviser, valider. Traiter les agents d’IA comme des identités, filtrer les prompts malveillants dès l’e-mail, cartographier les risques et imposer une revue humaine des actions sensibles constituent une approche pragmatique. Une voie médiane, résolument opérationnelle, entre innovation et contrôle.

La sécurité ne doit pas arrêter l’IA, mais la guider dans des rails solides et vérifiables.