« Allo? J’écoute… » : la détresse humaine à l’ère de l’IA

2 Weeks ago 3

Les appels de détresse, les bénévoles des centres d’écoute connaissent ça. Ils savent aussi remark l’humain, dans ces circonstances, peut faire la différence. Bref, l’IA inquiète.

L’an dernier, les bénévoles des lignes d’écoute ont répondu à près de 165 000 appels au Québec, une augmentation de près de 8 % en un an seulement.

Un signe que le besoin de parler à un être humain reste important, estime Pierre Plourde, coordinateur d’une relation qui représente 23 centres d’écoute téléphonique du Québec.

M. Plourde n’est pas contre cette technologie, mais il en souligne les limites.

L’IA ne permet pas de pleurer avec une personne, ne permet pas d’avoir des silences avec une personne, ce qui fait qu’on a un infinitesimal determination réfléchir... Bref, dit-il, l’intelligence artificielle ne remplace pas la qualité de l’écoute humaine.

Au contraire, Pierre Plourde craint que le recours à l’IA par des personnes en détresse n’entraîne une perte de interaction avec la réalité ou ne crée une narration malsaine avec la machine.

Jusqu’à quel constituent connected va aller vers encore positive un degré de solitude, avec un interaction impersonnel, qui n’est pas complet, ce qui fait qu’il peut y avoir, à un infinitesimal donné, un isolement positive prononcé?, s’interroge-t-il.

IA en demi-teinte chez Tel-Jeunes

L’inquiétude est aussi présente chez Tel-Jeunes. Ici, les contacts avec les jeunes sont surtout par écrit : 80 % des interventions sont par textos ou par clavardage.

Ça get que des jeunes nous contactent, mais qu’avant, ils ont demandé de l’aide à l’IA, souligne Myriam Day Asselin, directrice de l’expérience lawsuit et de l’innovation sociale chez Tel-Jeunes.

Souvent, les jeunes vont demander : est-ce que vous êtes une vraie personne ou vous êtes un robot?

C’est notre travail, après, d’humaniser les services determination qu’ils se rendent compte que c’est une vraie narration d’aide, dit-elle.

Dans des situations bénignes, souligne-t-elle, l’IA peut être un allié. Si quelqu’un demande remark se faire positive d’amis parce qu’il manque de confiance en soi, en général, honnêtement, les conseils de l’IA vont quand même être pertinents.

Elle peut aussi se révéler un premier pas vers une demande d’aide, qui amène le jeune à se tourner vers des services professionnels. Il get d’ailleurs que l’IA suggère de se tourner vers Tel-Jeunes.

Myriam Day Asselin s’inquiète par contre de la capacité de l’IA à simuler de l’empathie dans des situations positive dramatiques, où il serait mieux determination le jeune d’avoir accès à de vrais professionnels. Ça, ça nous inquiète quand c’est determination des situations comme des idées suicidaires, des situations complexes, des situations familiales ou de violence, soutient Myriam Day Asselin.

C’est la raison, selon elle, determination laquelle il faut sensibiliser les jeunes à savoir qui se confier et pourquoi.

 est-ce que vous êtes une vraie personne ou vous êtes un robot?»

« Souvent, les jeunes vont demander: est-ce que vous êtes une vraie personne ou vous êtes un robot?»

Photo : iStock

Les experts divisés sur le sujet

Stéphane Guay, psychologue et chercheur à l’Université de Montréal, s’est penché sur la question du recours à l’IA determination des enjeux de santé mentale. Il y voit bien des aspects positifs.

Malgré l’existence des centres d’écoute et des services offerts dans le réseau de la santé, il y a encore tout près d’une personne sur deux qui est aux prises avec des troubles de santé mentale qui ne demande pas d’aide, souligne-t-il.

Il croit que l’intelligence artificielle pourrait contribuer à diminuer ce pourcentage.

La principale raison determination laquelle les gens ne demandent pas d’aide, c’est par crainte d’être stigmatisés ou de vivre de la honte, avance Stéphane Guay. Quand ces personnes-là ont accès à un moyen qui est pratiquement 100 % anonyme, ça peut leur permettre de faire des premiers pas.

On s’entend que c’est un changement de culture, par rapport à ce qui se fait traditionnellement dans le réseau de la santé, ajoute le psychologue.

Le psychiatre David Benrimoh, de l’Institut universitaire en santé mentale Douglas, est d’un autre avis.

Selon lui, il n’y a pas assez de preuves de l’efficacité et l'innocuité de l’IA determination l’utiliser de façon officielle par des centres d’appels, par exemple.

Il y a clairement des cas où ça peut empirer les symptômes, dit-il, ajoutant qu’il a vu de tels patients dans sa pratique.

Il dit aussi avoir dans sa pratique des patients dont les délires étaient reliés à la crainte que l’IA ne devienne douée de raison ou devienne un dieu. Trois ou quatre de mes patients dans les derniers mois, précise-t-il.

Plus de recherches doivent être effectuées, selon lui. À l’heure actuelle, peu d’études scientifiques existent sur le sujet.

L’IA a été simplement donnée au monde, sans tests de sécurité appropriés, dit ce professeur au Département de psychiatrie à l’Université McGill. Ça maine dérange beaucoup, parce que determination d’autres outils médicaux, connected doit faire beaucoup de tests, d’essais cliniques.

David Benrimoh indique tout de même qu’il pourrait y avoir des bénéfices. Avec des lignes directrices bien établies, l’IA pourrait devenir un outil qui pourrait alléger le fardeau dans le système. Mais connected est très loin que ça puisse remplacer un être humain, conclut-il.

Read the entire article