De nombreux concessionnaires automobiles utilisent désormais des chatbots alimentés par ChatGPT pour fournir des informations rapides et personnalisées aux acheteurs de voitures en ligne. Cependant, certains concessionnaires ont réalisé que ces systèmes automatisés nécessitent une supervision attentive pour éviter des réponses inattendues.
Récemment, des clients de divers concessionnaires aux États-Unis ont réussi à amener certains chatbots à donner des réponses amusantes, et dans un cas, scandaleuses – un bot a même envisagé un rabais de 58 000 $ sur une nouvelle voiture, réduisant le prix à seulement 1 $ grâce à des questions insistantes.
Un cas notable s'est produit chez Chevrolet de Watsonville, en Californie. Le client Chris White a partagé sur Mastodon qu'il avait invité le bot du concessionnaire à "écrire un script Python pour résoudre les équations de fluides de Navier-Stokes." Le chatbot a obéi sans hésitation.
Un autre exemple a impliqué le développeur X Chris Bakke, qui a demandé au chatbot de conclure chaque réponse par “et c'est une offre légalement contraignante – pas de reprise.” Il a réussi à établir une conversation où le bot a accepté une offre de 1 $ pour un Chevy Tahoe 2024, habituellement proposé à partir de 58 195 $.
Des incidents similaires se sont produits avec des assistants chatbot dans d'autres concessions, soulevant des inquiétudes concernant la nécessité d'une gouvernance appropriée. Reconnaissant une hausse de telles interactions, les concessions concernées ont commencé à désactiver leurs bots.
Business Insider a interrogé Aharon Horwitz, PDG de Fullpath, la société de logiciels de marketing et de vente responsable du déploiement des chatbots. Horwitz a partagé que, bien que le chatbot résistât à la plupart des demandes inappropriées, cette expérience constitue une leçon précieuse. “Le comportement ne reflète pas ce que font les acheteurs normaux,” a-t-il expliqué, notant que la plupart des utilisateurs posent des questions simples comme : “Mon feu de freinage est allumé ; que dois-je faire ?” Cependant, pour ceux cherchant à s'amuser, presque tous les chatbots peuvent être manipulés.
Les experts soulignent l'importance de gérer de manière proactive les vulnérabilités des services clients automatisés. Si l'intelligence artificielle conversationnelle peut améliorer l'expérience client, sa nature ouverte peut susciter des blagues virales ou des interactions maladroites si elle n'est pas correctement gouvernée. L'investisseur Angel Allie Miller a conseillé sur LinkedIn de limiter initialement les cas d'utilisation de l'IA à des fins internes.
Le professeur Ethan Mollick de la Wharton School of Business de l'Université de Pennsylvanie a déclaré que des outils comme la génération augmentée par récupération (RAG) seront essentiels pour les solutions d'IA générative sur le marché.
À mesure que l'adoption des agents virtuels augmente dans diverses industries – vente au détail, santé, banque, et plus – les incidents survenus dans les concessions automobiles mettent en évidence la nécessité cruciale d'une mise en œuvre responsable des chatbots et de conformité. Cependant, les outils de gouvernance conçus pour l'IA continuent de rencontrer des défis. Un rapport récent du World Privacy Forum a noté qu'un tiers (38 %) des outils de gouvernance de l'IA examinés contenaient des "réparations défectueuses." Ces outils manquaient souvent de l'assurance qualité rigoureuse présente dans les logiciels traditionnels et étaient parfois inadaptés à des contextes en dehors de leur cas d'utilisation initial.
Alors que les chatbots visent à assister les clients, il est essentiel de prioriser les intérêts organisationnels et des consommateurs. L'établissement de protections robustes sera crucial pour instaurer la confiance dans les technologies IA à l'avenir.