2 min de lecture Santé

Michel Cymes met en garde contre les algorithmes de prévention du suicide

Le "machine laerning" permettait d'identifier les tendances suicidaires, et même l'imminence d'un passage à l'acte chez certains sujets. Un outil qui ne manque pas de poser une multitude de problèmes éthiques, prévient le médecin Michel Cymes.

CYMES_245300 Ça va Beaucoup Mieux Michel Cymes
>
Michel Cymes met en garde contre les algorithmes de prévention du suicide Crédit Image : Elodie Grégoire | Crédit Média : RTLNet | Date :
La page de l'émission
CYMES_245300
Michel Cymes et Loïc Farge

Pour rappel, le "machine learning" est une méthode qui repose sur l'intelligence artificielle. On dispose d'algorithmes suffisamment performants pour interpréter ce qu'un patient a en tête.

Ces algorithmes sont capables de décrypter le discours du patient. Ils peuvent ainsi servir à repérer celui qui a des ides suicidaires pour mieux le prendre en charge. On sait qu'il est très difficile d'identifier les personnes en danger.

Souvent, les proches ne voient rien venir. Les psys, non plus. Dans la grande majorité des cas, quand ils apprennent que leur client est passé à l'acte, ils vous disent : "Pourtant lors de sa dernière consultation, il m'a dit que tout allait bien !"

À lire aussi
Des toilettes publiques (illustration). sciences
Hygiène : les sèche-mains, bonne ou mauvaise idée ?

Les algorithmes peuvent être utiles, mais il faut faire attention. Leur utilisation pose une multitude de problèmes éthiques.

Des débats sur l'utilisation du "machine learning"

Première question : l'algorithme porte-t-il atteinte à la liberté de chacun de décider de sa propre mort ? Rappelons que la tentative de suicide n'est plus réprimée en France depuis 1810. Au pire on peut vous placer d'office dans un hôpital. 

Deuxième question : peut-on accepter qu'un algorithme s'introduise dans nos pensées les plus intimes ? Troisième question : que se passera-t-il si l'algorithme pense à tort qu'une personne est en danger ?

Va-t-on alors accuser l'algorithme de provocation au suicide ? Pour le coup c'est un délit, mais personne n'a jamais mis un algorithme en prison ! Si pour une raison X ou Y les événements tournent mal, on peut s'attendre à des procès qui ne seront pas que d'intention.

Alors on ne va pas laisser tomber le "machine learning". Mais on ne fera pas l'économie de quelques débats sur son utilisation. Il faudra toujours veiller à ce que la machine ne se substitue pas à l'Homme.

Je n'imagine pas un médecin ayant la conviction que son patient est en danger arrêter de le suivre parce que les algorithmes lui ont dit qu'il n'y avait rien à craindre.

Facebook veut éviter les suicides

On va avoir droit à ces débats très bientôt grâce à Facebook. Son fondateur, Mark Zuckerberg, investit des pelletées de dollars dans la santé. Le réseau social bosse même sur l'immortalité, c'est vous dire.

Tout récemment, Zuckerberg a expliqué qu'il voulait mettre en place son propre logiciel de détection des tendances suicidaires. Cet outil serait capable de décrypter ce que vous publiez sur le réseau social et de sonner l'alerte s'il repère vos intentions.

Pour l'instant ce projet ne concerne pas les pays européens, mais cela viendra tôt ou tard. Avec toujours la même question : a-t-on le droit de mettre son nez dans mon intimité pour me protéger contre moi-même ?

La rédaction vous recommande
Lire la suite
Santé Intelligence artificielle Société
Restez informé
Commentaires

Afin d'assurer la sécurité et la qualité de ce site, nous vous demandons de vous identifier pour laisser vos commentaires. Cette inscription sera valable sur le site RTL.fr.

Connectez-vous Inscrivez-vous

500 caractères restants

fermer
Signaler un abus
Signaler le commentaire suivant comme abusif
500 caractères restants
article
7792242063
Michel Cymes met en garde contre les algorithmes de prévention du suicide
Michel Cymes met en garde contre les algorithmes de prévention du suicide
Le "machine laerning" permettait d'identifier les tendances suicidaires, et même l'imminence d'un passage à l'acte chez certains sujets. Un outil qui ne manque pas de poser une multitude de problèmes éthiques, prévient le médecin Michel Cymes.
https://www.rtl.fr/actu/futur/michel-cymes-met-en-garde-contre-les-algorithmes-de-prevention-du-suicide-7792242063
2018-02-13 10:51:00
https://cdn-media.rtl.fr/cache/lUSXBCmEPxKbNq_VyKFryQ/330v220-2/online/image/2017/1017/7790562043_michel-cymes.jpg