WOWWW - Nouvelles

Qui a tort quand l’IA d’un service à la clientèle se trompe ?

2025-04-23
Virgin Plus, l’enseigne bon marché de Bell Canada, propose un service de téléphonie résidentielle au moyen d’une application pour Android et iOS, mais pas pour Windows. Le saviez-vous ? Non ? Les gens de Bell non plus. C’est une pure fabulation, une « hallucination » du dialogueur d’IA qui assure son service à la clientèle.

« Vous pouvez connecter votre combiné téléphonique directement à votre modem-routeur. Vous n’avez pas besoin d’un dispositif intermédiaire », ajoute le dialogueur, pas peu fier d’offrir des conseils de bidouilleur à un client potentiel intéressé par la possibilité de réunir tous ses services de communication sur la même facture – sans-fil, internet et… téléphone pour la maison.

Il y a deux problèmes avec ce qu’affirme l’agent automatisé. Le premier : Virgin ne vend pas le service téléphonique pour la maison dont il parle. Le second : le client potentiel à qui il a révélé cette information est un chercheur et conseiller indépendant, évaluateur depuis des années de systèmes d’information en tout genre.

Le côté obscur de l’agentique

« C’est ma première fois avec l’IA, mais je suis souvent confronté à des bogues de ce genre », confie à La Presse Pierrot Péladeau, l’évaluateur en question. « J’ai posé à l’agent d’IA des questions techniques. Ce type de robots de clavardage va tout faire pour plaire à son interlocuteur, jusqu’à jouer le rôle demandé, au risque d’inventer complètement un service qui n’existe pas. »

Bell, Virgin et pratiquement toutes les grandes entreprises se rabattent de plus en plus sur des agents d’IA pour offrir du soutien en libre-service. Cette émergence des agents d’IA a d’ailleurs donné le nom d’« agentique » à cette constellation de sous-applications d’IA dérivées des grands modèles de langage les plus connus.

Interrogée sur son dialogueur, une porte-parole de Bell explique que les avantages d’une telle technologie sont « considérables » pour l’entreprise.

Les assistants virtuels offrent une résolution rapide des problèmes courants et recueillent des informations précieuses pour nos agents, ce qui permet à ces derniers de consacrer plus de temps aux cas clients plus complexes.

Une porte-parole de Bell

Pour éviter toute confusion, le dialogueur avertit dès son premier contact avec ses utilisateurs qu’il utilise l’IA pour répondre aux questions. Dans les rares cas où une erreur est commise, Bell dit « tirer des enseignements de ces incidents pour apporter des améliorations futures ».

« Nous continuons à affiner l’efficacité de nos systèmes d’IA et investissons dans des techniques d’apprentissage automatique pour améliorer la précision de nos assistants virtuels. »

L’erreur est humaine (mais pas que)

Manifestement, l’humain n’a pas le monopole de l’erreur. Le dialogueur utilisé par Virgin non plus. En février dernier, Air Canada a reçu l’ordre par un tribunal de Colombie-Britannique de rembourser à hauteur de 812,02 $ un client à qui le transporteur aérien refusait d’accorder un rabais sur le prix d’un vol que lui avait pourtant promis son dialogueur, lui aussi animé par une IA.

« Il devrait être évident pour Air Canada qu’il est responsable de toute l’information sur son site web », a indiqué le tribunal dans son jugement. « Que l’information provienne d’une page statique ou d’un dialogueur ne fait aucune différence. »

Air Canada refusait d’honorer le rabais et estimait que l’IA était une entité à part, responsable de ses propres actions, y compris ses hallucinations.

Là où le transporteur n’a pas tort, c’est que l’IA utilisée par son dialogueur n’est pas sa propriété directe. La même chose vaut pour celui de Virgin, et probablement aussi pour les dialogueurs d’à peu près tous les sites de commerce en ligne canadiens.

Des IA qui en savent trop

En cette ère d’agentique, des entreprises spécialisées créent des applications nichées, comme des agents de service à la clientèle, à partir de l’IA développée par les leaders de ce secteur : Anthropic, Meta, OpenAI, etc. Elles encadrent très strictement le comportement de ces IA pour jouer des rôles précis.

Sauf que parfois, l’IA déborde de son rôle. C’est un problème connu. Des chercheurs ont publié dans Nature en 2024 leur analyse des principales IA utilisées par l’agentique. Leur conclusion : plus grande est l’IA, plus elle affirmera des choses erronées avec confiance. Comme si elle en savait tellement qu’elle refusait d’avouer ce qu’elle ne sait pas.

Pourtant, leurs créateurs pourraient « fixer une limite, et quand une question dépasse cette limite, l’agent n’aurait qu’à dire “je ne sais pas” », indiquaient les chercheurs.

Évidemment, une IA à court de réponses risquerait de perdre des abonnés au profit de ses rivales… alors aussi bien halluciner, n’est-ce pas ?

« Mon conseil : parlez à un humain avant d’acheter directement d’une IA, conclut Pierrot Péladeau. Et aux commerçants : soyez plus exigeants envers vos fournisseurs de services d’IA. »