IA et santé mentale : Mind ouvre une enquête inédite

Mind lance une enquête mondiale sur l’impact et les risques de l’intelligence artificielle en santé mentale, après des révélations du Guardian sur Google.

21 février 2026

Enquêteur face à humanoïde translucide versant données en papier bateau

Contexte : Mind enquête sur l’IA et la santé mentale après le Guardian

Mind, l’association britannique de santé mentale pour l’Angleterre et le Pays de Galles, a lancé une commission d’un an pour examiner les risques liés à l’usage de l’intelligence artificielle (IA) dans la santé mentale. Cette initiative fait suite à une investigation du Guardian révélant que les AI Overviews de Google diffusaient des conseils médicaux erronés et parfois dangereux, notamment sur les troubles psychiques et certaines maladies graves.

Les tests du quotidien britannique ont montré des conseils d’IA contredisant les bonnes pratiques, comme suggérer des comportements risqués pour des patients atteints de psychose ou de troubles alimentaires. Stephen Buckley, responsable de l’information chez Mind, a évoqué des propos « incorrects, nuisibles » et susceptibles de dissuader les personnes concernées de consulter un professionnel. D’autres domaines, comme les cancers ou les maladies hépatiques, ont également été mal traités par ces résumés automatisés, selon les experts consultés.

En réponse, Mind a mis en place une commission mondiale inédite pour évaluer comment les outils d’IA influencent l’accès à l’information et au soutien psychologique. Sa mission : identifier les dérives et proposer des garde-fous pour éviter que ces technologies ne remplacent le contact humain, essentiel dans le soin psychique.

Pourquoi c’est important : fiabilité et responsabilité à l’ère de l’IA

La question touche au cœur de la gouvernance des technologies de santé. L’essor de l’IA générative, capable de produire des réponses immédiates à des requêtes médicales, transforme l’accès à l’information, mais brouille la frontière entre assistance et diagnostic. Selon les données d’Ahrefs, 44 % des recherches santé déclencheraient un résumé d’IA, doublant ainsi le risque d’exposition à des erreurs potentielles.

Les réactions du secteur ont été vives. Outre Mind, la British Psychological Society a rappelé que le soutien humain reste fondamental, tandis que des organisations comme Pancreatic Cancer UK ou le British Liver Trust ont parlé de conseils « complètement incorrects ». Le Patient Information Forum a averti que placer de telles réponses en haut des résultats de recherche augmentait les risques pour le public.

Du côté de Google, la société a défendu la fiabilité de ses outils, dénonçant des « captures d’écran incomplètes ». Elle assure toutefois travailler à une amélioration continue, sans préciser quelles mesures concrètes seront déployées pour corriger les failles identifiées.

Ce que cela change : vers une régulation et une vigilance accrues

Cette initiative illustre une inflexion majeure : les organisations de santé mentale s’emparent du débat sur l’IA. Mind n’est plus seulement un acteur associatif, mais devient un interlocuteur clé dans la définition de normes éthiques et de sécurité. En parallèle, la Medicines and Healthcare products Regulatory Agency (MHRA) britannique a publié de nouvelles directives pour guider les usagers dans l’évaluation des outils numériques de santé mentale. Ces conseils pratiques invitent à vérifier la fiabilité scientifique, la pertinence pour le public visé et la transparence des données utilisées.

L’objectif n’est pas d’interdire les innovations, mais de structurer un cadre d’usage responsable. Les experts interrogés soulignent qu’une IA peut être utile dans la détection précoce de troubles ou le suivi de l’humeur, à condition que les informations délivrées soient validées par des sources reconnues comme le NHS (Service national de santé britannique) ou des associations spécialisées.

Cette vigilance accrue rejoint une préoccupation plus large : comment encadrer l’usage d’outils puissants mais faillibles, dont les erreurs peuvent avoir des conséquences graves sur des personnes vulnérables ?

À surveiller : transparence, éthique et inclusion des acteurs humains

La commission de Mind devra répondre à plusieurs questions cruciales. D’abord, celle de la responsabilité en cas de préjudice causé par un conseil erroné d’IA. Ensuite, les mécanismes de certification des applications et chatbots de santé mentale, afin d’équilibrer innovation et sécurité. Enfin, l’intégration des associations, patients et psychologues dans le développement de ces outils, pour garantir des contenus fondés sur des pratiques cliniques éprouvées.

Les technologies de santé mentale fondées sur l’IA sont en plein essor, notamment chez les jeunes utilisateurs. Les experts mettent néanmoins en garde contre un usage isolé de ces outils sans accompagnement professionnel. La MHRA le rappelle : ils ne sauraient se substituer au diagnostic ou à la relation thérapeutique. La clé réside donc dans la complémentarité : utiliser l’IA comme un soutien, non comme un substitut.

En lançant cette enquête, Mind ouvre un débat mondial sur la responsabilité algorithmique et la gouvernance éthique de l’intelligence artificielle en santé mentale. Ses conclusions, attendues dans un an, pourraient influencer la régulation britannique et internationale des technologies de soins assistés par IA. Un chantier déterminant pour concilier innovation et protection des usagers.

Dans la même catégorie

7 avril 2026

Le Royaume-Uni mise sur le refus d’Anthropic d’armer l’IA pour attirer l’entreprise à Londres, un choix à forte portée éthique et géopolitique.

31 mars 2026

Mozilla et le Mila s’unissent pour créer une IA open source souveraine, alternative transparente et éthique face à la domination des géants technologiques.

24 mars 2026

Spotify teste un outil de gouvernance qui permet aux artistes d’approuver les morceaux associés à leur nom, pour limiter la fraude et clarifier l’usage de l’IA.

24 mars 2026

La France prépare une loi obligeant les fournisseurs d’IA à prouver qu’ils n’utilisent pas d’œuvres protégées, une mesure saluée par les créateurs mais controversée.

21 mars 2026

Le Québec explore la gouvernance de l’intelligence artificielle sans projet constitutionnel concret, misant sur transparence, encadrement et élections 2026.

13 mars 2026

Chez Accenture, l’usage de l’intelligence artificielle devient obligatoire pour espérer une promotion, signe d’une gouvernance désormais centrée sur l’IA.

12 mars 2026

Le Pentagone teste des chatbots d’IA pour recommander des cibles sous supervision humaine, soulevant enjeux éthiques et juridiques dans la guerre moderne.

5 mars 2026

Sept géants technologiques signent un pacte avec Donald Trump pour financer l’énergie de leurs data centers IA et éviter une hausse des tarifs d’électricité.

3 mars 2026

OpenAI a révisé son accord avec le Pentagone pour limiter les usages militaires de son IA. Une étape cruciale pour la gouvernance et les libertés civiles.

Les dernières news

Tous les contenus en illimité
pour 9,99€ 1 € le premier mois

Déja abonné ?