Platform SSO pour macOS avec Microsoft Intune : tour d’horizon
Microsoft a annoncé le 6 mai 2024 la sortie en public preview de la fonctionnalité « Platform SSO for macOS » intégré...
Pour la génération de nos aînés, échanger de manière naturelle avec un robot était de la pure science-fiction. Ce n’était possible qu’au cinéma ou dans des récits imaginaires…
Pourtant, pour la plupart des entreprises, le chatbot appartient désormais au présent de la relation client !
Pourquoi un tel engouement pour les bots ?
La réponse ne réside pas uniquement dans l’amélioration constante de la technologie et de l’intelligence artificielle.
Le succès des chatbots vient surtout du fait qu’ils répondent en même temps aux besoins des consommateurs et aux enjeux des services clients.
Mais qu’attendent véritablement les clients de leur relation avec une entreprise ? Ils souhaitent majoritairement une expérience client sans couture, à savoir des réponses immédiates à leurs questions, idéalement sans passer par le service client. Les chatbots et, plus largement, les outils de selfcare répondent à ces nouvelles exigences.
De leur côté, les entreprises, dont la priorité est la satisfaction client bien sûr, doivent redoubler d’efforts pour satisfaire les besoins d’immédiateté et d’autonomie. Quant au ROI, comment maintenir un niveau de satisfaction client élevé tout en contrôlant les coûts ?
Les chatbots répondent aussi à ces questions en agissant sur le taux de réponse aux clients et donc, en réduisant les coûts du service client.
Justement, sur le thème du coût et du ROI, l’éditeur ELOQUANT, leader sur le marché du CCaaS (Contact Center as a service – le centre de contacts dans le Cloud), nous propose cette analyse financière très fine concernant le bien-fondé de l’implémentation d’un chatbot.
Alors ! convaincus ?
Mais comment ça fonctionne un chatbot ?
On associe souvent « chatbot » à « intelligence artificielle ».
D’ailleurs, quand une personne s’adresse à un chatbot, elle croit souvent qu’elle va pouvoir dialoguer comme elle le ferait avec un humain. Et pourquoi pas prendre le thé !
Soyons très clair d’emblée : au départ, le bot est une machine dépourvue d’intelligence.
Un chatbot peut très bien fonctionner sans intelligence artificielle et même sans reconnaissance du langage naturel. C’est le cas de tous les bots qui proposent des conversations ne comportant que des questions fermées ou à choix multiples.
Ainsi, l’intelligence artificielle n’est pas constitutive des chatbots. C’est une composante additionnelle. Cependant, pour simuler une conversation humaine et amplifier les performances des chatbots, il est nécessaire de les équiper en intelligence artificielle.
La compréhension du langage naturel, clé de voûte du chatbot intelligent
Avant de simuler une conversation humaine, la compréhension du langage naturel est le premier pas vers le chatbot intelligent.
L’un des grands enjeux de l’intelligence artificielle, c’est justement de comprendre et d’interpréter le langage humain.
Mais comment les machines fonctionnent-elles pour décrypter le langage humain ?
En quelques décennies à peine, la compréhension du langage naturel a fait des progrès fulgurants. Elle s’appuie aujourd’hui sur 4 éléments essentiels.
Le contexte
Un même mot peut avoir des significations différentes en fonction du contexte dans lequel il est employé.
Par exemple, le terme « avocat » n’aura pas la même signification si on se prépare à un procès ou si on prépare un guacamole. Sans même parler des cas où l’utilisateur ferait preuve d’ironie ! « C’est mortel » peut aussi bien signifier que c’est époustouflant ou qu’on n’y survit pas.
Si l’intelligence artificielle ne perçoit pas ces subtilités, on risque des contresens fréquents. Pour éviter des dialogues surréalistes, les IA de nouvelle génération recourent à des associations de mots ou « vecteurs » pour déterminer l’interprétation la plus probablement correcte.
Le mimétisme
Pour comprendre et interpréter le langage humain, l’intelligence artificielle fonctionne souvent sur le modèle de l’apprentissage supervisé.
On nourrit l’IA avec une myriade d’exemples. Dans le cas qui nous intéresse, ce seront des extraits de conversation. Et, par mimétisme, l’intelligence artificielle va fournir la réponse la plus probable à une demande donnée.
Les exemples et les expériences humaines permettent à la machine d’acquérir des automatismes et de s’entraîner à tenir une conversation aussi naturelle que possible.
La richesse lexicale
« Combien coûtent vos prestations ? », « Quels sont les tarifs de vos prestations ? », « Pourriez-vous svp m’indiquer le montant de vos offres ? », « Quelle est votre politique tarifaire ? »
Toutes ces formulations correspondent en réalité à une requête unique.
L’un des enjeux des bots, c’est de les comprendre et de les interpréter comme telles.
Pour décrire une même chose, il existe différents termes, différentes formulations possibles. Il faut aussi tenir compte :
– des variations de conjugaison,
– des fautes d’orthographe de l’utilisateur,
– et de son style personnel.
Il faut donc optimiser la structure de l’IA pour qu’elle prenne en compte cette richesse lexicale.
Le « Smart data »
Pour mieux comprendre les requêtes d’un client, l’intelligence artificielle peut aussi s’appuyer sur les données déjà collectées à son sujet lors de précédentes interactions, par exemple.
Il ne s’agit pas seulement de générer des données en masse pour enrichir les profils clients. Bien sûr, le big data apporte indéniablement de la matière à l’intelligence artificielle.
Mais il faut surtout aller plus loin dans l’utilisation intelligente des données. On parlera donc plutôt de « smart data ».
L’idée ici, c’est d’aller chercher la bonne information pour mieux contextualiser la requête, l’interpréter plus finement et apporter une réponse personnalisée.
Les 2 grands types de chatbots :
Comme évoqué plus haut, tous les chatbots ne sont pas dotés d’intelligence artificielle.
En pratique, on distingue 2 grandes catégories de bots.
Les chatbots simples ou scriptés :
Ces robots conversationnels ne comportent pas d’IA. Ils suivent des schémas de conversation préétablis appelés « arbres de décision », scénarios ou workflows.
Quand on conçoit ce type de chatbots, il est indispensable d’anticiper et de tester un maximum de scénarios.
La difficulté réside évidemment dans la multiplicité des scénarios à envisager si on veut répondre à des cas d’usage complexes ou à des requêtes très variées. Mais les chatbots scriptés peuvent très bien fonctionner dans des cas d’usage bien délimités.
Les chatbots complexes ou apprenants :
Pour aller plus loin dans la simulation d’une conversation humaine, les chatbots complexes sont dotés d’une intelligence artificielle. Ainsi, ils sont en mesure de réaliser des opérations contextualisées.
L’IA leur permet de comprendre et d’interpréter le langage naturel mais aussi de personnaliser leurs réponses en fonction de l’interlocuteur.
Les chatbots apprenants utilisent le machine learning pour mémoriser des situations de conversation. Ainsi, le chatbot se nourrit de ses expériences successives pour tirer des enseignements et affiner ses réponses.
Plus le bot va multiplier les interactions, plus il va être capable de répondre à des demandes complexes et variées.
Bien, et maintenant quelle sera la prochaine révolution avec tout ça ? Le SEO vocal… ou comment prendre en compte non plus des mots clés ou des tournures de phrases simplifiées, mais des séquences vocales que l’on aura dictées en utilisant toutes les subtilités que la langue de Molière nous permet !
Articles similaires
Microsoft a annoncé le 6 mai 2024 la sortie en public preview de la fonctionnalité « Platform SSO for macOS » intégré...
La vidéo s’installe de plus en plus comme un canal incontournable dans le quotidien de la relation client. Elle permet de...
La mise en place d’un environnement de gestion des effectifs d’un centre de contacts est un projet conditionné à la...