Dans un contexte où la santé mentale des Français est de plus en plus préoccupante, l'intelligence artificielle (IA) se positionne comme une solution potentielle. Cependant, le collectif MentalTech met en garde contre les dangers d'une utilisation non régulée de ces technologies. Leur rapport, publié récemment, souligne les opportunités et les risques associés à l'IA dans ce domaine sensible.

Qui est MentalTech ?

MentalTech, fondé en mars 2022, est le premier collectif français dédié aux solutions numériques en santé mentale. Créé par sept membres pionniers, dont hypnoVR, Kwit, et PetitBamBou, il compte aujourd'hui plus de vingt adhérents. Sa mission : déployer des outils numériques éthiques pour la prévention et la prise en charge de la santé psychique, en collaboration avec les professionnels de santé.

L'association, initialement présidée par le Dr Fanny Jacq, puis par Yannick Trescos, est actuellement dirigée par David Labrosse, CEO de Tricky. Sous sa présidence, MentalTech développe des approches innovantes, notamment des escape games physiques et digitaux, pour sensibiliser entreprises et écoles aux troubles psychiques.

MentalTech répond à l'urgence croissante en santé mentale en alliant technologie et expertise médicale. Le collectif vise à rendre les soins plus accessibles et personnalisés, tout en soutenant les professionnels de santé. Cette initiative marque une avancée significative dans la transformation numérique de la santé mentale en France, offrant des solutions adaptées aux défis contemporains.

Les promesses de l'IA en santé mentale

Face à une demande croissante de soins en santé mentale, l'IA propose des outils innovants tels que les chatbots psychothérapeutes et les systèmes de détection des troubles mentaux. Ces technologies pourraient combler les lacunes du système de santé actuel, surtout lorsque plus d'un tiers des Français souffrent de problèmes psychologiques, selon une étude d'Axa Prévention.

Un chatbot psychothérapeute est un programme informatique conçu pour simuler une conversation avec un utilisateur, en fournissant des conseils et un soutien psychologique. Ces outils utilisent des algorithmes pour analyser les réponses et proposer des solutions adaptées.

Les mises en garde de MentalTech

Le collectif MentalTech alerte sur les risques d'une utilisation non encadrée de l'IA en santé mentale. Leur rapport recommande la création d'une « numéricovigilance », similaire à la pharmacovigilance, pour surveiller l'usage de ces technologies. Cela inclurait la possibilité pour les patients de signaler des effets indésirables et la mise en place d'une autorité de santé dédiée.

Le Dr David Labrosse, en sa qualité de président de MentalTech, insiste sur la nécessité d'une approche prudente dans l'adoption des technologies en santé mentale. Il souligne l'importance cruciale de veiller à ce que ces outils numériques soient déployés de manière sécurisée et efficace. Le Dr Labrosse met l'accent sur le fait que ces innovations doivent venir en complément, et non en remplacement, de l'indispensable interaction humaine dans le traitement des troubles psychiques. 

Un marché en pleine expansion mais peu régulé

Le marché de l'IA dans la santé mentale est en pleine croissance. En 2022, il était évalué à environ 832 millions d'euros et pourrait atteindre 10,393 millions d'euros d'ici à 2030, avec un taux de croissance annuel moyen de 37,2%, selon Cognitive Market Research. Cependant, en France et en Europe, ces thérapies digitales restent largement non régulées.

Bon à savoir : Le marché allemand

En Allemagne, 90 services combinant technologie et santé mentale ont obtenu une certification pour être remboursés. Cependant, ils sont rarement prescrits en raison d'une méfiance persistante envers ces technologies.

L'usage des chatbots : entre opportunités et risques

Les chatbots, tels que ChatGPT, sont de plus en plus utilisés comme outils de soutien psychologique. Ils servent de journaux intimes interactifs et de confidents virtuels. Cependant, leur utilisation soulève des questions sur la dépendance émotionnelle et le risque de réduire les interactions humaines.

OpenAI, dans son évaluation du modèle GPT-4, reconnaît que ces outils peuvent encourager une anthropomorphisation, où les utilisateurs attribuent des caractéristiques humaines aux chatbots, ce qui pourrait affecter les relations interpersonnelles.

Les incohérences et les dangers potentiels

Les chatbots ne sont pas infaillibles. Des incidents, comme celui rapporté par la chercheuse Estelle Smith avec l'application Woebot, montrent que ces outils peuvent parfois donner des réponses inappropriées, soulignant la nécessité d'une supervision humaine.

Au-delà des chatbots, l'IA est également utilisée pour aider les thérapeutes dans leurs diagnostics. Cependant, une dépendance excessive à ces outils pourrait réduire la responsabilité des thérapeutes et uniformiser les traitements, au détriment de l'individualisation nécessaire pour chaque patient.

L'IA peut prédire les rechutes en analysant des données passées et en temps réel. Bien que cela puisse être utile, les faux positifs peuvent induire un stress inutile et des traitements inappropriés.

Les recommandations de MentalTech

Pour minimiser les risques, MentalTech propose dix recommandations. Parmi les dix préconisations formulées, trois se démarquent particulièrement :

  • La transparence sur le fonctionnement des dispositifs ;
  • La formation des professionnels de santé à l'IA
  • La limitation de la collecte de données aux informations essentielles.

Le collectif souligne aussi l'importance de l'IA Act, la réglementation européenne à venir, qui jouera un rôle indispensable dans l'encadrement de ces technologies. Cependant, cela n'empêchera pas l'utilisation de l'IA à des fins thérapeutiques, même si ce n'est pas leur fonction première.

Vers un avenir encadré pour l'IA en santé mentale

Alors que l'IA continue de se développer dans le domaine de la santé mentale, il est essentiel de trouver un équilibre entre innovation et sécurité. Les recommandations de MentalTech et l'IA Act pourraient fournir le cadre nécessaire pour assurer que ces technologies bénéficient réellement aux patients sans compromettre leur bien-être.

En fin de compte, l'IA en santé mentale doit être un complément, et non un substitut, à l'interaction humaine, garantissant ainsi un soutien psychologique efficace et empathique.