Deuil et intelligence artificielle : faut-il avoir peur des «deadbots» ?

Enquête, en lien avec le Pr Grégoire Moutel, Université Caen Normandie, Equipe Anticipe Inserm 1086 Chef du Service de médecine légale et droit de santé, Directeur de l’Espace Régional de Réflexion Ethique & En échos à la table ronde du forum européen de bioéthique de Strasbourg.
Partager sur email
Email
Partager sur print
Imprimer
l'article
Partager sur linkedin
Partager sur facebook
Partager sur twitter

Enquête, en lien avec le Pr Grégoire Moutel, Université Caen Normandie, Equipe Anticipe Inserm 1086 Chef du Service de médecine légale et droit de santé, Directeur de l’Espace Régional de Réflexion Ethique & En échos à la table ronde du forum européen de bioéthique de Strasbourg.

SMS, courriels, vocaux WhatsApp, conversations Messenger, vidéos… une fois repue, l’IA parlera (presque) comme le disparu. (Antonio Arcos/Getty Images)

Et si les morts nous répondaient enfin ? Et si nous pouvions papoter, rire et pleurer avec eux ? Dans l’actuelle avalanche de promesses formulées par les petits génies hyperactifs de l’IA, il en est certaines plus costaudes que d’autres… Ainsi de ces très suspects mais non moins intrigants deadbots : des agents conversationnels numériques (chatbots) dont les promoteurs prédisent qu’ils nous permettront de renouer, par la parole, avec nos disparus.

Le concept : créer l’avatar numérique d’une personne morte (ou son propre avatar, en prévision de son prochain départ) afin de rendre possible une communication post-mortem avec les vivants. Et, surtout, nourrir cet alter ego artificiel de données personnelles : elles seules crédibiliseront sa future prestation. SMS, courriels, vocaux WhatsApp, conversations Messenger, vidéos… une fois repue, l’IA parlera (presque) comme le disparu. Ou comment, après s’être coltiné le chatbot de la SNCF et de l’Assurance maladie, pouvoir cette fois blaguer avec cet ami parti trop tôt ou – pour peu qu’elle ait laissé une empreinte numérique suffisamment solide – jaser avec feue votre mamie préférée.

Utile adjuvant de deuil ou gadget mortifère ? «L’apparition de ces deadbots s’inscrit dans un phénomène plus large, qui est l’évolution du rapport de nos contemporains aux traces mémorielles», contextualise le professeur Grégoire Moutel, directeur d’un Espace régional de réflexion éthique (l’Erer de Normandie) et chef du service de médecine légale au CHU de Caen, où il est responsable des chambres mortuaires. «A l’hôpital, témoigne-t-il, nous recevons de nouvelles demandes, issues de personnes en fin de vie qui désirent enregistrer des messages vocaux ou vidéo afin de laisser à leurs proches une trace.»

Premier cas connu en 2016

Ainsi, les deadbots ne seraient autres qu’un support mémoriel de plus. «Et pourquoi pas ? lance Grégoire Moutel. Les rites funéraires ont toujours été fluctuants, évolutifs. Si de nouveaux outils y apportent du sens, je n’ai pas d’opposition de principe.» Pour le médecin et éthicien, les deadbots pourraient même, qui sait, resserrer les liens avec nos défunts : «D’un point de vue anthropologique, l’oubli des morts est ce qui peut arriver de pire à une société. Les deadbots ne seraient-ils pas un moyen de leur redonner une voix ? De ne pas les abandonner ? Cela mérite d’y réfléchir.» Une réflexion qui ne devra pas trop tarder, car on s’en approche bel et bien…

Depuis plusieurs années, les deadbots (aussi nommés griefbot, comme «robot de deuil») tracent en effet leur route, mus par des expérimentations personnelles et des start-up avides de préempter une nouvelle niche lucrative sur le marché de la mort. Le premier cas documenté a près de dix ans : en 2016, la programmeuse russe Eugenia Kuyda mobilise les proches de Roman Mazurenko, un ami tué dans un accident à Moscou, pour façonner son avatar numérique. Alimentée par 30 millions de lignes de texte, l’IA se met bientôt à parler comme le jeune homme, imitant sa verve et son humour. L’avatar est encore disponible pour tout un chacun sur l’Apple Store… C’est aussi, en 2020, le canadien Joshua Barbeau qui, grâce aux archives de leurs échanges et à l’outil GPT-3 d’OpenAI, a conçu le chatbot de Jessica, sa fiancée disparue huit ans plus tôt.

Flairant une bonne affaire, le marché a suivi : sur le site Project December (sous-titre : «Simulate the Dead»), le programmeur américain Jason Rohrer propose, «grâce à une technologie en instance de brevet et à une deep IA”», de «simuler une conversation textuelle avec n’importe qui. Y compris quelqu’un qui n’est plus en vie». Contre deniers, évidemment. Dernière offre en date, celle de l’appli Hereafter.ai. Ici, c’est au futur défunt d’alimenter en souvenirs audio et vidéo le chatbot qui, après sa mort, portera sa voix. Inabouti, l’outil est massacré dans les commentaires des utilisateurs…

Des deadbots performants finiront pourtant par arriver tôt ou tard. Le sujet est d’ailleurs pris au sérieux par les éthiciens, comme en témoigne un avis du Comité consultatif national d’éthique, qui mentionne les deadbots dès novembre 2021 : «Qu’ils soient purement conversationnels ou dotés de la fonction d’imitation visuelle, relevait le CCNE, certains de ces systèmes peuvent avoir un dialogue très vraisemblable, favorisé éventuellement par la capacité de simulation d’émotions du chatbot.»

Questions de consentement et de dignité

De fait, les interrogations éthiques pleuvent. La première d’entre elles : le consentement. Car si l’on demande aux vivants le droit de manipuler leurs données personnelles, quid des morts ? «Le consentement du défunt est peut-être le premier des prérequis», estime Grégoire Moutel. L’idée serait, à l’image des directives anticipées, de laisser ses instructions avant de partir. Reste la question de l’accès au chatbot… Doit-il être restreint, et si oui à qui, ou universel ?

Autre enjeu, celui des atteintes morales et psychologiques. Pour l’usager comme pour le défunt : «Les concepteurs de deadbots, préconise le CCNE, doivent respecter la dignité de la personne humaine, qui ne s’éteint pas avec la mort, tout en veillant à préserver la santé mentale des utilisateurs.» Côté dignité, on pourrait en effet imaginer un deadbot qui trahirait la personnalité du disparu, raconterait des sornettes, dévoilerait des éléments intimes ou défendrait des opinions politiques contraires. D’où la deuxième grande et vertigineuse question éthique : la responsabilité. «C’est un vrai débat, note notre éthicien normand. Pour l’instant, la position défendue par l’UE dit que l’humain qui a créé la machine reste in fine responsable de ce que celle-ci génère.»

Côté usagers, le risque est avant tout psychologique. «Je ne sais pas si les deadbots peuvent produire à eux seuls une pathologie du deuil, mais renforcer et augmenter un trouble existant, sans doute», souligne Grégoire Moutel. Conditionner l’usage d’un deadbot à un rendez-vous psy ? «Il faudra en tout cas informer et accompagner les usagers. Leur rappeler, en particulier, que la mort est aussi un business et que ceux qui promeuvent ces outils ont un intérêt commercial.»

Et si, pour éviter cet attachement pathologique, on dotait le deadbot d’une durée de vie limitée ? En 2018 au Japon, un programme de deadbots limitait à 49 jours leur usage, soit la durée d’un deuil dans la culture traditionnelle japonaise. Au risque de créer un second traumatisme, et de raviver le deuil ? Telles sont les joies des débats éthiques, conclut Grégoire Moutel : «Sur les deadbots, nous ne trouverons peut-être pas toutes les réponses, mais l’essentiel est de continuer à poser des questions.»

Article “Deuil et intelligence artificielle : faut-il avoir peur des «deadbots» ?” pour Libération, 23 janvier 2024, par Benjamin Leclercq