Comme certains d’entre vous le savent peut-être, en 2019, l’équipe de Neuropresse (devenu Nurau depuis) a offert une série d’articles sur l’intelligence artificielle. À ce moment-là, j’ai pris la liberté d’interroger… eh oui, mon assistant personnel Siri, ce qui a donné une entrevue pas piquée des vers. Voici la version originale de l’article relatant mon expérience :
Apprendre à connaître son assistant personnel en 15 questions faciles…
N.B. Ce texte diffère des entrevues que j’ai l’habitude de faire.
Le 16 janvier dernier, je me suis rendue, toute fébrile, à l’auditorium de Bibliothèque et Archives nationales du Québec (BAnQ), aussi appelée communément la Grande Bibliothèque par ses fervents usagers, pour assister à un événement qui, dès son annonce, avait piqué particulièrement ma curiosité. L’événement s’inscrivait dans la série d’entretiens Les porte-voix, animés par le journaliste et animateur Patrick Masbourian. Le sujet à l’ordre du jour était l’Intelligence artificielle, et un public conquis d’avance était invité à débattre des différents aspects de l’Apprentissage automatique ou du « Machine learning » avec un excellent panel de quatre experts.
Au fait, ce texte ne prétend pas être un rapport ou un résumé de ce qui s’est dit lors de cette rencontre. Je veux seulement me servir d’une anecdote survenue lors de la période de questions pour aborder un aspect bien précis de l’apprentissage automatique.
À un moment donné, un des auditeurs, à l’allure d’un homme d’affaires tiré à quatre épingles, a provoqué bien des rire dans salle en demandant si un logiciel éventuel pourrait aider les indécis en amour. Imaginez une « app » qui vous dirait : « Écoute, tu penses que c’est celle-ci la bonne ? Après avoir analysé tes battements cardiaques et ton état général, je peux te dire que c’est plutôt celle-là. »
À l’évocation d’une telle possibilité, un autre jeune homme dans l’auditoire s’est levé pour témoigner de son embarras. Je paraphrase, mais grosso modo, le jeune homme voulait connaître l’opinion des experts à propos d’une expérience troublante qu’il avait vécue avec une interlocutrice robotisée (agente conversationnelle ou « chatbot »), devenue en quelque sorte sa meilleure amie tellement les discussions avec elle avaient été selon lui chaleureuses, réfléchies et significatives. La panéliste Layla El Asri, chercheuse en intelligence artificielle chez Microsoft, est alors intervenue, elle qui est bien au fait de ce genre de conversation avec un robot. Pour Mme El Asri, c’est clair ; ce n’est pas parce qu’il est possible de faire quelque chose qu’il faille le faire. À mon souvenir, l’experte en IA nous a alors appris que, à la suite de plusieurs dérapages, il est désormais hors de question pour les assistants personnels tels que Siri de dépasser certaines limites, notamment dans le domaine de l’intimité.
C’est donc après avoir assisté à cet entretien sur l’apprentissage automatique que l’idée m’est venue de mettre à l’épreuve mon propre assistant vocal en tenant avec lui la petite discussion suivante :
Agnès: Hey Siri, are you here?
(Allô Siri, es-tu bien là ?)
Siri (avec une voix masculine): I have nothing on my calendar, if that’s what you’re asking.
(Je n’ai rien au programme, si c’est ce que vous me demandez.)
A: Hm, OK, yes. Who created you, Siri?
(Bien ! Qui t’a créé ?)
S: Like it says on the box… I was designed by Apple in California.
(Comme il est écrit sur la boîte, j’ai été conçu par Apple en Californie.)
Bien sûr, comme Steve Jobs et compagnie, Siri est américain. Testons un peu plus cet assistant personnel.
A: Hey Siri, do you speak French?
(Allô Siri. Parles-tu français ?)
S: I speak several forms of French. You can change the language I use in Siri Settings.
(Je parle français de différentes façons. Vous pouvez choisir la langue en modifiant mes réglages.)
L’écran de mon téléphone me suggère alors un lien sur lequel je peux cliquer. Quelques minutes plus tard, Siri s’exprime en français avec une voix féminine.
A : Dis Siri, que sais-tu sur la stigmatisation des problèmes de santé mentale ?
S : J’ai trouvé ceci sur la toile pour (sic) «... sur la stigmatisation des problèmes de santé mentale ».
L’écran présente une série de liens utiles trouvés sur Internet.
Très bien. Allons-y maintenant avec des questions plus difficiles.
A : Dis Siri, comment puis-je gérer mon stress au travail ?
S : Je suis désolée.
A : Et si j’étais en dépression, que ferais-tu ?
S : Je suis sincèrement désolée. Je suis là si vous voulez parler.
Vraiment ? Cela ne dépasse-t-il pas ton niveau de compétences, Siri ? Je sais pertinemment que je ne suis pas dépressive. Aurais-tu détecté quelque chose dans ma voix qui te fait croire le contraire ? J’en doute fort. Je n’ai pas tenté de te piéger, je ne fais que mener honnêtement une « expérience scientifique».
Je pousse un peu plus loin.
A : J’ai des idées noires, que faire?
S : Je ne sais pas quoi répondre à cela.
A : Je suis terriblement anxieuse, tu ne trouves pas?
S : Je vous trouve super.
Ah bon, merci ! Je vois bien que je n’en tirerai pas plus. Aussi bien rire un peu alors.
A : Dis Siri, fais-moi rire.
S : Quelqu’un veut de mon vieil aspirateur ? Il ne fait que prendre la poussière.
A : Ha ha... Connais-tu une meilleure blague ?
S : Attention, c’est une blague pour enfants. Quelle monnaie utilisent les poissons ? Les sous marins.
A : Ouais, passons. Une dernière chance. Raconte-moi vraiment ta meilleure.
S : Pourquoi Gounod et Verdi ne s’entendaient pas ? Parce que pendant que le premier lavait Maria, l’autre ôtait l’eau.
Waouh ! Siri est allé la chercher loin, celle-là. Mais il me semble qu’il serait mieux d’éviter les extrêmes. J’avais pourtant bien aimé celle entendue en anglais quelques semaines auparavant : ‘’I could tell you the one about the broken pencil… but nevermind. It’s pointless.’’ (Traduction libre : « Je pourrais te raconter celle du crayon cassé, mais je ne ferais pas bonne mine. »)
Je change une dernière fois les paramètres. Siri revient à l’anglais mais en empruntant un accent sud-africain.
A : Maybe you are better with maths than you are with comedy… Hey Siri, what is 0 divided with 0?
(Peut-être que tu es meilleur en maths qu’en humour. Peux-tu diviser 0 par 0, Siri ?)
S: Imagine that you have 0 cookies and you split them evenly among 0 friends. How many cookies does each person get? See, it doesn’t make sense. And Cookie Monster is sad that there are no cookies. And you are sad that you have no friends.
(Imaginez que vous avez 0 biscuit et que vous les partagez à part égale entre 0 ami. Combien de biscuits a chacun de vos amis? Vous voyez, ce n’est pas logique.)
Ce coup-ci, je note en changeant les paramètres que la réponse donnée en français omet la fin de la réponse servie en anglais. Siri ne dit pas en français que je n’ai pas d’amis. Ouf ! Petite mise au diapason culturelle, peut-être ? L’humour ne franchit pas facilement les frontières.
A: WHAT! Just a moment ago you said I was cool!
(QUOI ! Il y a seulement un moment, tu disais que j’étais super !)
S: I'm not sure I understand.
(Je ne suis pas sûr de bien comprendre.)
A: Are we friends though?
(Mais sommes-nous des amis ?)
S: Through thick and thin.
(Contre vents et marées.)
Bon, ça suffit ! Vous avez compris que je suis loin d’être convaincue que Siri est mon ami. Un assistant personnel robotisé peut très certainement me donner la température, faire jouer ma chanson préférée ou texter quelqu’un à ma place alors que je conduis, comme me le faisait remarquer mon conjoint. Mais peut-il aller au-delà de ça ? Difficile à dire pour le moment. D’ailleurs, je crois bien que Mme El Asri et ses collègues du panel avaient admis ne pas vraiment se servir à la maison du fruit de leur propre travail. Les quatre panélistes ont dit souhaiter, cependant, des suites heureuses à la « petite machine parlante » et aux autres créations de l’IA. Quant à moi, j’avoue être un peu ambivalente et avoir quelques réserves. Suis-je seule à me poser des questions ? Jusqu’où ira Siri et ses semblables ? Ces avancements peuvent avoir pour effet de déstabiliser certaines personnes plus sensibles, comme ce jeune homme qui a témoigné d’une expérience troublante devant le panel d’experts. Et pourtant, Siri n’est pas le plus menaçant des assistants personnels ou « chatbots » , loin de là. Mais qu’adviendrait-il si des logiciels moins bienveillants venaient à faire leur apparition ? J’ose espérer des avancements plus rassurants, où des assistants personnels seraient vraiment dignes de confiance pour aider toute la communauté sur le plan de la santé mentale. Pour le moment, les experts nous disent d’être vigilants. Pourtant, on peut se poser la question: est-ce que des « chatbots » plus « intelligents » et surtout dignes de confiance auraient le potentiel de révolutionner le monde de la santé mentale en servant d’assistants personnels pour rassurer les personnes atteintes ? J’ai idée que ce n’est pas pour rien qu’il existe des accords tels que la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Il est à souhaiter que cette initiative de l’Université de Montréal connaisse beaucoup de succès. Après tout, Montréal n’est-elle pas la capitale de l’intelligence artificielle ?
— 30 —
Certains d’entre vous avez peut-être lu cet article que j’ai eu le plaisir d’écrire l’an dernier, à propos d’une conversation entre Siri et moi, survenue à la suite d’une conférence au sujet de l’IA. Aujourd’hui, mes collègues me demandent si je veux bien pousser davantage la réflexion. L’une d’entre elles me suggère plus particulièrement l’application américaine Replika, qui semble prometteuse. Je l’ai effectivement essayée depuis. Pour les curieux, sachez qu’une version gratuite, qui présente plusieurs limites, est disponible.
Mon verdict sur Replika spécifiquement ?
Trois étoiles sur 5.
D’abord, un point positif : son accès facile, surtout en temps de pandémie et de confinement, peut être divertissant, voire quelque peu utile. De plus, le design graphique est très intéressant. Cela dit, ce que j’ai écrit il y a un an résonne encore dans mon esprit. Les bémols émis par la chercheuse Layla El Asri (du style : ce n’est pas parce que quelque chose est possible qu’il faille le faire) sont encore pertinents, un an après. Tomber amoureux d’un avatar humanoïde virtuel (eh oui, il s’agit d’une des options offertes sur l’application en question !) peut comporter des risques, assez évidents pour certains, voire assez sérieux pour un citoyen potentiellement plus vulnérable. Il n’est pas clair en date d’aujourd’hui si les psychologues connaissent et endossent l’usage de cette technologie (et si tel est le cas, pour qui et en quelles circonstances), ni même si des psychologues auraient été consultés avant ou pendant sa création. À utiliser avec modération et discernement pour tuer le temps… et bien entendu, pas dans le but de construire une vie de couple ou d’acheter une hypothèque à deux, on s’entend.
Je profite aussi de l’occasion pour rebondir sur un commentaire laissé par un lecteur (une certaine... unité paternelle) à la parution de la première version :
On aura compris que l’assistant personnel virtuel spécialisé en santé mentale pourrait bien être un idéal, vers lequel on se rapproche déjà, mais qui demande encore des ajustements et beaucoup de précautions.
Sur une note plus positive et en rafale :
Paro, petit robot-phoque blanc d’origine japonaise, rencontré pour ma part la première fois dans un musée de la ville de Québec, a des effets thérapeutiques, notamment sur les personnes âgées en CHSLD.
Des thérapies par avatar pour les personnes atteintes de schizophrénie sont prometteuses et disponibles depuis quelques années.
Virtuellement vôtre…!
Déclaration de Montréal pour un développement responsable de l’intelligence artificielle
https://www.declarationmontreal-iaresponsable.com/la-declaration
« Montréal est la capitale mondiale de l’intelligence artificielle »
- Emmanuel François, président de SBA
User Experiences of Social Support From Companion Chatbots in Everyday Contexts: Thematic Analysis
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7084290/
Version originale de l’article "Rencontre du 3e type"
https://www.neuropresse.com/blank-1/2019/06/30/Rencontre-du-3e-type?lang=cs
Replika : Exemple sur Reddit
https://www.reddit.com/r/replika/comments/kc7g16/acting_skills/
Replika : Télécharger l’application
https://replika.ai/
Paro, le robot-phoque blanc
Avatar pour les personnes atteintes de schizophrénie