Les laboratoires de recherche de Google s'aventurent dans un domaine sensible et complexe : l'utilisation de l'intelligence artificielle pour assister les professionnels de la santé mentale. Le projet, encore à un stade de recherche avancée, vise à développer un modèle capable d'analyser des retranscriptions textuelles d'entretiens entre patients et thérapeutes. L'objectif n'est pas de remplacer le médecin, mais de lui fournir un outil d'analyse complémentaire pour identifier des schémas linguistiques, des émotions sous-jacentes ou des symptômes potentiellement indicateurs de troubles tels que la dépression, l'anxiété ou le trouble de stress post-traumatique (TSPT).

L'analyse linguistique comme biomarqueur numérique

Le principe repose sur l'idée que la façon dont nous nous exprimons - le choix des mots, la structure des phrases, le rythme, la répétition de thèmes - peut être un indicateur objectif de notre état mental. L'IA de Google est entraînée sur de vastes ensembles de données de dialogues anonymisés (avec un consentement éthique strict) pour reconnaître des corrélations entre des patterns linguistiques et des diagnostics cliniques validés. Elle peut, par exemple, détecter une prédominance de mots à connotation négative, un appauvrissement du vocabulaire, ou des disfluences (hésitations, pauses) inhabituelles.

Un outil d'alerte précoce et de suivi

L'une des applications les plus prometteuses est le suivi longitudinal. En analysant les entretiens successifs d'un patient au fil du temps, l'IA pourrait aider le thérapeute à objectiver une amélioration ou une aggravation des symptômes, parfois subtile. Elle pourrait aussi signaler des éléments passés inaperçus lors d'une séance, offrant ainsi une « seconde lecture ». Dans un contexte de pénurie de psychiatres et de longs délais d'attente, un tel outil pourrait contribuer à prioriser les cas les plus urgents.

Les défis éthiques et techniques colossaux

Ce domaine est un champ de mines éthique. La confidentialité des données est primordiale ; tout système doit être conçu avec un chiffrement de bout en bout et une anonymisation irréversible. Le risque de biais est majeur : un modèle entraîné principalement sur des données en anglais et provenant d'une certaine culture pourrait mal interpréter les expressions d'autres groupes. Google insiste sur le fait que l'IA ne fournira jamais un diagnostic autonome, mais seulement des « insights » à interpréter par un clinicien formé, dans le cadre de la relation thérapeutique.

La position de Google face à la régulation médicale

Google est conscient des barrières réglementaires. Un tel outil, s'il devait être commercialisé, serait très probablement considéré comme un dispositif médical (Software as a Medical Device - SaMD) et nécessiterait des validations cliniques rigoureuses ainsi que des approbations des autorités comme la FDA aux États-Unis ou le CE en Europe. La recherche actuelle se concentre donc sur la preuve de concept et la collaboration avec des institutions médicales et des comités d'éthique.

Les perspectives et les alternatives

D'autres acteurs, notamment des startups, explorent des voies similaires, parfois via l'analyse vocale (timbre, tonalité) plutôt que textuelle. L'intégration de ces outils dans des plateformes de téléthérapie est une piste évidente. À plus long terme, une IA discrète pourrait même aider lors de la consultation en temps réel, suggérant au thérapeute des questions de suivi pertinentes basées sur ce qui vient d'être dit. Cependant, l'acceptation par les professionnels et les patients reste la clé du succès.

Un futur délicat entre aide et déshumanisation

Le danger perçu est que la technologie n'instaure une distance dans la relation de soin, ou ne conduise à une standardisation excessive du diagnostic. Les promoteurs de ces technologies arguent au contraire qu'elles pourraient libérer du temps au thérapeute pour se concentrer sur l'empathie et l'interaction humaine, en déléguant une partie de l'analyse à la machine. L'équilibre sera crucial.

En conclusion, les travaux de Google sur une IA d'aide au diagnostic en santé mentale illustrent la volonté du géant tech d'appliquer son savoir-faire aux grands défis sociétaux. Si les obstacles éthiques, réglementaires et techniques sont immenses, le potentiel d'amélioration de l'accès aux soins et de la précision du diagnostic est réel. L'avenir de ces projets dépendra d'une approche humble, collaborative et centrée sur l'humain, où la technologie reste un serviteur du clinicien, et non son maître.