Pourquoi un chatbot ne pourra-t-il jamais jouer le role d’un data-assistant ?

Pourquoi un data-assistant plutôt qu’un chatbot ?

Les technologies conversationnelles sont devenues monnaies courantes. On peut maintenant interagir, sur le mode de la conversation orale ou écrite, avec son téléphone, sa voiture, un service client automatisé… Pourtant, si le terme de “chatbot” est le plus souvent utilisé pour désigner des interactions hommes/machines se rapprochant de vrais échanges humains, ce terme recouvre plusieurs technologies. Siri, par exemple, n’a pas grand chose à voir avec un chatbot du support client !

(C’est un sujet que nous avons déjà abordé dans cet article sur les chatbots 1ere et deuxième generation )

Agents conversationnels : différents degrés de complexité

On utilise souvent le terme de chatbot pour désigner les agents conversationnels de type “support client” : trouver un billet de train, obtenir son code PUK…Mais la plupart de ces chatbots n’ont en réalité pas de réelle compréhension de la demande de leurs interlocuteurs. Ils repèrent des mots clefs déclencheurs, afin de fournir une réponse pré-programmée, ce qui est une forme très basique de détection d’intention.

On parle dans ce cas d’arbre de décisions : le chatbot a un nombre de scénarii limités déclenchés par des expressions ou des mots clefs prévus à l’avance. Ce sont des projets nécessitant de grosses bases de connaissance des mots clefs si on veut un peu de finesse dans la detection d’intention. Pour mettre en place un projet avec une technologie de chatbot, il faut donc définir en amont l’ensemble des intentions possibles des utilisateurs. On peut obtenir des résultats relativement satisfaisants, à condition que les intentions possibles des utilisateurs soient bien anticipées…mais surtout très restreintes.

La complexité d’une infrastructure chatbot capable de répondre à un nombre de questions exponentiel, une question en amenant deux, voir trois autres, tend à décevoir les utilisateurs. La lourdeur, ou l’absence de réactivité du bot finissent par épuiser les porteurs de projet et lasser les utilisateurs finaux.

Data-assistant : cas spécifique de l’interrogation d’une base de données

Pour permettre à des utilisateurs d’interroger un grand nombre de données, stockées dans une base importante, une technologie de chatbot de type “arbre de décision” ne suffit pas. Un assistant sur les données comme askR.ai repose sur un autre type de technologie, structurée pour interroger de très grosses bases de données où le nombre de combinaisons de requêtes possibles est infinie.

Contrairement à un chatbot, un data-assistant est fait pour comprendre le langage naturel grâce au NLP. Il va analyser la structure grammaticale de la question, identifier et classifier les éléments discriminants par rapport aux données. Ce “databot" va ainsi générer à la volée la requête ad hoc, et restituer la réponse documentée à l’utilisateur sous la forme d’un chiffre, d’une dataviz ou d’un tableau. Grâce à cette capacité de génération de réponse en direct, et non basée sur des réponses préstockées dans une base de connaissance, un data-assistant a assez de mémoire pour gérer la notion de conversation et gagner en crédibilité. L’utilisateur peut interagir plus facilement, en précisant une question, en suivant un fil de discussion sur une même thématique, en demandant de l’aide ou des suggestions…

A titre d’exemple, Orange Espagne a essayé de paramétrer un chatbot sur les données financières. Au bout d’un an de travail acharné, ils se sont rendu compte que les potentielles combinaisons d'intentions des utilisateurs en interrogation de données étaient trop complexes et trop spécifiques. Impossible de tout prévoir et stocker en amont, via une simple plateforme chatbot. Ils se sont alors tournés vers le data-assistant de référence en Europe, askR.ai.

 

Pour mémoire, askR.ai est le premier "augmented data assistant », connecté aux données de l’entreprise et doté d’une intelligence artificielle, qui répond instantanément à vos questions.