
Jean-Jérôme Danton, et KiXiT Consulting, a décidé d'arrêter son chatbot IA - Crédit photo : Depositphotos @optinik
Vous pouvez acheter cet article à l'unité pour le prix de 3,99 € en cliquant ICI ou vous abonner pour 83€ TTC par an.
L'intelligence artificielle n'est pas une rupture technologique nouvelle.
Déjà au milieu des années 2010, de nombreuses start-up naissaient avec l'ambition de révolutionner le marketing et la vente, grâce à la prédiction des comportements des internautes et à une connaissance approfondie des voyageurs.
Puis la bulle a éclaté, les chatbots ont été remisés, avant de revenir à la faveur de chatGPT. En novembre 2022, OpenAI met en ligne une IA générative d'un nouveau genre et particulièrement avancée. Le raz de marée est total, depuis tout le secteur du tourisme s'est converti.
"Mon spectre d'intervention est ce que j'appelle la transition numérique des destinations touristiques. Je cherche à comprendre les technologies, puis à les adapter au mieux aux problématiques des territoires.
Je parlais donc de l'IA depuis un moment déjà, puis OpenAI a enfoncé la porte et je me suis dit que c'était le bon moment de saisir l'occasion pour créer quelque chose d'intéressant. En mars 2023, je lance Anatole.ai," recontextualise Jean-Jérôme Danton, le PDG de KiXiT Consulting.
Deux ans plus tard, il met fin à l’expérience. Voici les raisons de cette décision, en plein AI Washing.
IA : que proposait Anatole ?

Certains exhortent à l’adopter, d’autres la commercialisent, tandis qu’une minorité s’en inquiète... L'intelligence artificielle est servie à toutes les sauces.
"L'idée de fond était de faire ce que l'IA généraliste ne sait pas faire. Nous l'avons connectée aux bases de données d'Apidae ou Lumiplan, pour lui fournir de l'information de qualité.
Forte de ces contenus très spécifiques, elle était en mesure de répondre correctement à des questions liées au tourisme," détaille le consultant.
Puis l'outil a été entrainé pour fournir la meilleure qualité de réponse possible.
Surentrainé, Anatole a été conçu pour répondre à plusieurs cas d'usage, en partenariat avec l'office de tourisme de Praz de Lys Sommand.
La première étape était de faire du bot un soutien au travail des conseillers de l'agence. Ils pouvaient l’interroger sur la destination et obtenir divers contenus, comme des posts sur les réseaux sociaux et des communiqués de presse.
"Puis l'autre cas était de permettre aux agents des OT de répondre avec cohérence et courtoisie à des socioprofessionnels parfois peu avenants.
L'outil fonctionnait plutôt très bien.
Malgré tout, nous avons décidé d'abandonner nos développements. Ils ont été facilement balayés par plusieurs évolutions, notamment de chatGPT. Il est devenu très simple pour un office de tourisme de créer un outil similaire par ses propres moyens," poursuit Jean-Jérôme Danton.
IA : "l'erreur banale pour l'IA peut mettre en danger une vie humaine"
Ne souhaitant pas remiser dans les cartons Anatole, les équipes de KiXiT Consulting poursuivent l'aventure sur un autre marché, en créant une interface grand public.
Le chatbot dialoguait avec le touriste pour lui apporter des informations et conseils dans le cadre d'un séjour dans le territoire concerné.
"Nous avons passé beaucoup de temps et mis beaucoup d'énergie à développer des solutions afin qu’Anatole se comporte correctement et ne diffuse pas d’informations erronées.
Les grands modèles de langage (LLM, de type ChatGPT) ont une tendance à l'erreur, pas systématique, mais récurrente. Pour remédier à cela, nous avons créé nos propres systèmes de vérification de contenus, en amont de leur affichage.
A lire : Intelligence artificielle : une révolution, mais à quel prix ?
Nous avions réussi à obtenir un très bon taux de réponse, des résultats qualitatifs, selon nos tests. Une fois mis entre les mains des utilisateurs, nous nous sommes rendu compte, que le taux d’erreur n’était pas nul, et que ça pouvait être problématique," partage le consultant.
Avant la mise en place de systèmes de réduction des hallucinations, le taux de mauvaise réponse avoisinait 15 à 20%, puis il est descendu à moins de 1%. Un résultat plus que correct, mais insuffisant pour exclure des problèmes d'ordre juridique.
Des dizaines de milliers de tests ont été effectués pour perfectionner Anatole.
"Nous nous sommes retrouvés face à plusieurs cas épineux. L'IA est programmée pour, statistiquement, toujours apporter une réponse, même si elle n'est pas juste. Nous avions essayé de l'entrainer à ne pas répondre sur le sujet du ski de randonnée, quand le risque d'avalanche était supérieur à 3 sur une échelle de 5.
Sauf que de temps en temps, elle ignorait la consigne et avait tendance à répondre. Sauf que l'erreur banale pour une intelligence artificielle, peut poser un problème de mise en danger de la vie humaine."
Le chatbot dialoguait avec le touriste pour lui apporter des informations et conseils dans le cadre d'un séjour dans le territoire concerné.
"Nous avons passé beaucoup de temps et mis beaucoup d'énergie à développer des solutions afin qu’Anatole se comporte correctement et ne diffuse pas d’informations erronées.
Les grands modèles de langage (LLM, de type ChatGPT) ont une tendance à l'erreur, pas systématique, mais récurrente. Pour remédier à cela, nous avons créé nos propres systèmes de vérification de contenus, en amont de leur affichage.
A lire : Intelligence artificielle : une révolution, mais à quel prix ?
Nous avions réussi à obtenir un très bon taux de réponse, des résultats qualitatifs, selon nos tests. Une fois mis entre les mains des utilisateurs, nous nous sommes rendu compte, que le taux d’erreur n’était pas nul, et que ça pouvait être problématique," partage le consultant.
Avant la mise en place de systèmes de réduction des hallucinations, le taux de mauvaise réponse avoisinait 15 à 20%, puis il est descendu à moins de 1%. Un résultat plus que correct, mais insuffisant pour exclure des problèmes d'ordre juridique.
Des dizaines de milliers de tests ont été effectués pour perfectionner Anatole.
"Nous nous sommes retrouvés face à plusieurs cas épineux. L'IA est programmée pour, statistiquement, toujours apporter une réponse, même si elle n'est pas juste. Nous avions essayé de l'entrainer à ne pas répondre sur le sujet du ski de randonnée, quand le risque d'avalanche était supérieur à 3 sur une échelle de 5.
Sauf que de temps en temps, elle ignorait la consigne et avait tendance à répondre. Sauf que l'erreur banale pour une intelligence artificielle, peut poser un problème de mise en danger de la vie humaine."
IA : "rien n'est clair juridiquement face aux erreurs de la machine"
En travaillant pour des stations de ski, les conseils et les renseignements doivent tous être justes, sous peine de faire courir de graves dangers aux visiteurs, notamment pour les pratiquants de ski de randonnée, car le bot signalait parfois l'absence de danger alors qu'une alerte avalanche était en cours.
Autre exemple : il pouvait donner de mauvaises instructions aux randonneurs, tourner à gauche au bout d'un chemin au lieu de tourner à droite, ce qui aurait entrainé les personnes dans... le vide...
"Tout ça parce qu'entre gauche et droite, la réponse repose juste sur une probabilité statistique. Et si l'instruction est souvent de tourner à gauche dans les fiches de randonnées de la destination, l’outil peut parfois se tromper" résume le spécialiste digital concernant le fonctionnement de l'intelligence artificielle.
Nous en sommes, d'une certaine manière, au même stade que celui de la voiture autonome.
Annoncée depuis des années et poussé par Tesla, cette autre révolution peine encore à devenir réalité, malgré les milliards d’euros investis dans la R&D, à cause d'une marge d'erreur qui ne parvient pas à tendre vers zéro.
Par ailleurs, dans l’usage réel, il existait un autre problème pour obtenir une réponse bien personnalisée.
Les utilisateurs se comportaient sur Anatole de la même manière qu'ils le faisaient sur Google. Les requêtes comptaient en moyenne 5 mots, n'ayant que peu de détails sur le voyageur, l'IA lui retournait des réponses très simples et génériques, donc faisant augmenter le taux d'erreur.
"L'IA, lorsqu’elle est bien promptée, ne commet pas forcément plus d’erreurs qu’un humain.
Autant nous sommes très armés juridiquement pour faire face à l'erreur humaine, autant pour l'erreur de la machine, rien n'est clair. Qui est le fautif ? Après discussion, la responsabilité nous était systématiquement attribuée.
Notre assureur nous proposait des tarifs si élevés à cause du risque qui n'était absolument pas maîtrisé, que nous ne pouvions pas poursuivre," avance Jean-Jérôme Danton, le PDG de KiXiT Consulting.
Autre exemple : il pouvait donner de mauvaises instructions aux randonneurs, tourner à gauche au bout d'un chemin au lieu de tourner à droite, ce qui aurait entrainé les personnes dans... le vide...
"Tout ça parce qu'entre gauche et droite, la réponse repose juste sur une probabilité statistique. Et si l'instruction est souvent de tourner à gauche dans les fiches de randonnées de la destination, l’outil peut parfois se tromper" résume le spécialiste digital concernant le fonctionnement de l'intelligence artificielle.
Nous en sommes, d'une certaine manière, au même stade que celui de la voiture autonome.
Annoncée depuis des années et poussé par Tesla, cette autre révolution peine encore à devenir réalité, malgré les milliards d’euros investis dans la R&D, à cause d'une marge d'erreur qui ne parvient pas à tendre vers zéro.
Par ailleurs, dans l’usage réel, il existait un autre problème pour obtenir une réponse bien personnalisée.
Les utilisateurs se comportaient sur Anatole de la même manière qu'ils le faisaient sur Google. Les requêtes comptaient en moyenne 5 mots, n'ayant que peu de détails sur le voyageur, l'IA lui retournait des réponses très simples et génériques, donc faisant augmenter le taux d'erreur.
"L'IA, lorsqu’elle est bien promptée, ne commet pas forcément plus d’erreurs qu’un humain.
Autant nous sommes très armés juridiquement pour faire face à l'erreur humaine, autant pour l'erreur de la machine, rien n'est clair. Qui est le fautif ? Après discussion, la responsabilité nous était systématiquement attribuée.
Notre assureur nous proposait des tarifs si élevés à cause du risque qui n'était absolument pas maîtrisé, que nous ne pouvions pas poursuivre," avance Jean-Jérôme Danton, le PDG de KiXiT Consulting.
"C'est problématique de voir que certaines personnes ont une confiance aveugle en l'IA"
Autres articles
-
Agences de voyages : comment utiliser l’IA pour analyser vos avis clients ? [ABO]
-
Guide touristique, concierge ou commercial : Kaviar Tech dévoile ARAI, son agent IA
-
#CMonTheBeach : le rendez-vous du marketing touristique revient à Toulon
-
FCM Travel met l'intelligence artificielle au service des travel managers
-
Gestion des risques : comment utiliser l'IA pour aider vos clients en voyage ? [ABO]
Pour le spécialiste du digital, il n'est pas question de se détourner totalement de l'IA.
Il est plus judicieux d'amadouer la technologie, d'y aller pas à pas, surtout de ne pas lui laisser la maîtrise totale.
A lire en complément : Sommet IA : Il faut "une régulation mondiale" !
"Je donnerais comme conseil d’exploiter l'intelligence artificielle pour gagner du temps et automatiser les tâches rébarbatives, devenues une forme de travail à la chaîne et qui n'ont pas vraiment de valeur intellectuelle pour la personne qui les exécute.
Maintenant, confier à l’IA les tâches qui nous épanouissent et nous rendent heureux dans notre métier, je trouve ça extrêmement dangereux.
Il n'y a pas de bons ou de mauvais usages de l'IA, mais une distinction entre usage responsable et irresponsable," conseille l'expert.
Dorénavant, il est possible d'industrialiser de petits tâches sans trop d'intérêt, de corriger les fautes dans les mails, mais cet outil ne doit pas s'immiscer dans d'autres plus complexes ou nécessitant des données sensibles.
Les agents de voyages comme les conseillers dans les offices de tourisme ne doivent pas perdre de vue que plus ils sollicitent ChatGPT ou d'autres IA, plus ils contribuent à entraîner les modèles avec des données qualifiées.
"Recevoir une information, l’analyser, la questionner et décider si elle est fiable ou non, c'est avant tout une compétence humaine qu'on a tendance à oublier.
Il est préoccupant de voir que certaines personnes ont une confiance aveugle en à l'intelligence artificielle, TikTok, Instagram, ou dans le premier site internet venu.
Je pense que le véritable enjeu, c’est cette capacité à exercer un esprit critique, encore trop peu enseignée pour faire face aux nouvelles technologies," conclut Jean-Jérôme Danton.
Le plus important lors qu'un virage technologique se présente est de rentrer dans la courbe à vitesse. Il ne sert à rien de foncer, mieux vaut accélérer au bon moment pour garder le contrôle.
Il est plus judicieux d'amadouer la technologie, d'y aller pas à pas, surtout de ne pas lui laisser la maîtrise totale.
A lire en complément : Sommet IA : Il faut "une régulation mondiale" !
"Je donnerais comme conseil d’exploiter l'intelligence artificielle pour gagner du temps et automatiser les tâches rébarbatives, devenues une forme de travail à la chaîne et qui n'ont pas vraiment de valeur intellectuelle pour la personne qui les exécute.
Maintenant, confier à l’IA les tâches qui nous épanouissent et nous rendent heureux dans notre métier, je trouve ça extrêmement dangereux.
Il n'y a pas de bons ou de mauvais usages de l'IA, mais une distinction entre usage responsable et irresponsable," conseille l'expert.
Dorénavant, il est possible d'industrialiser de petits tâches sans trop d'intérêt, de corriger les fautes dans les mails, mais cet outil ne doit pas s'immiscer dans d'autres plus complexes ou nécessitant des données sensibles.
Les agents de voyages comme les conseillers dans les offices de tourisme ne doivent pas perdre de vue que plus ils sollicitent ChatGPT ou d'autres IA, plus ils contribuent à entraîner les modèles avec des données qualifiées.
"Recevoir une information, l’analyser, la questionner et décider si elle est fiable ou non, c'est avant tout une compétence humaine qu'on a tendance à oublier.
Il est préoccupant de voir que certaines personnes ont une confiance aveugle en à l'intelligence artificielle, TikTok, Instagram, ou dans le premier site internet venu.
Je pense que le véritable enjeu, c’est cette capacité à exercer un esprit critique, encore trop peu enseignée pour faire face aux nouvelles technologies," conclut Jean-Jérôme Danton.
Le plus important lors qu'un virage technologique se présente est de rentrer dans la courbe à vitesse. Il ne sert à rien de foncer, mieux vaut accélérer au bon moment pour garder le contrôle.