Entretien

L’automatisation de la lutte contre la désinformation

Un entretien enregistré le 26 septembre 2023, publié le lundi 23 octobre 2023

Retrouvez ce podcast sur

Comment automatiser la lutte contre la désinformation ? Est-ce même possible ? Nous verrons comment robots et outils d’intelligence artificielle peuvent offrir des perspectives en matière de vérification des fausses informations, et quelles sont les limites de l’I.A dans ce domaine. Chaque invité a présenté une initiative innovante : un robot conversationnel pour parler avec les lecteurs-auditeurs au Québec, un robot utilisant les techniques de traitement automatique du langage naturel pour vérifier des fausses nouvelles en Haïti et enfin des initiatives alliant technologie et vérification humaine au Mali.

Invités :

  • Ludwy René Jean Paul, président de la commission Recherche et Développement du Réseau des Blogueurs d’Haïti, pour le projet Toma
  • Alexis De Lancer, journaliste, animateur des Décrypteurs sur Radio-Canada
  • Tidiani Togola, fondateur et dirigeant de Tuwindi, une organisation de droit malien à but non lucratif spécialisée dans les civic tech, dont l’objectif est de soutenir le développement socio-économique par les TIC.

Liens


[Musique] Vous écoutez Odil le podcast, une production de la plateforme francophone des initiatives de lutte contre la désinformation. Un podcast animé par Guillaume Kuster et Nelly Pailleux. Odil le podcast, c’est une série d’entretiens avec celles et ceux qui luttent contre la désinformation dans l’espace francophone. [Musique]

Guillaume Kuster : Bonjour à toutes et bonjour à tous, bienvenue dans ce nouvel épisode de la saison 2 d’ODIL, le podcast. Vous le savez, ODIL, c’est la plateforme francophone des initiatives de lutte contre la désinformation. Elle accueille et met en valeur celles et ceux qui luttent contre les désordres de l’information dans les 88 pays de la francophonie. Tout au long de l’année, nous accueillons des invités de différentes régions du monde qui luttent contre la désinformation à leur manière. N’hésitez pas à vous abonner sur vos plateformes de podcast préférées pour ne pas manquer un épisode de notre série mensuelle. Et comme d’habitude, je suis en compagnie de Nelly. Bonjour Nelly.

Nelly Pailleux : Bonjour Guillaume. Bonjour à tous.

GK : Dans cet épisode, nous allons parler automatisation de la lutte contre la désinformation. Kezako ? On entend beaucoup parler d’intelligence artificielle, la fameuse IA ces derniers temps, comme étant pourvoyeuse de désinformation. Mais l’IA peut-elle être une solution pour lutter contre les fausses nouvelles ? Quelle place lui accorder ? Et avant ce boom des intelligences artificielles, quelles étaient les solutions existantes et comment étaient-elles mises en place ? Nos trois invités avaient déjà exploré des solutions depuis quelque temps déjà Nelly.

NP : Oui, effectivement. Aujourd’hui, pour cette réflexion autour de l’automatisation de la lutte contre la désinformation, nous accueillons Alexis De Lancer, des Décrypteurs de Radio-Canada, que nous avions eu l’occasion d’entendre dans la dernière saison d’ODIL le podcast pour présenter son travail. Aujourd’hui, on s’intéressera au bot des Décrypteurs, un petit robot conversationnel mis en place par votre initiative, Alexis, pour répondre aux questions de vos lecteurs-auditeurs. Bot qui va connaître, je crois, une nouvelle mouture pour cette fin d’année 2023. À vos côtés, Ludwy René Jean Paul, vous êtes président de la commission Recherche et Développement du Réseau des Blogueurs d’Haïti pour le projet toma.ht, qui a changé de nom de domaine maintenant, qu’on mettra donc dans les notes d’épisode de ce podcast, mais qui est tomahaiti.org.

tomahaiti.org, c’est un petit robot aussi qui permet de vérifier la fiabilité d’une information trouvée sur Internet, en exploitant des techniques de traitement automatique du langage naturel et en se basant sur une communauté de super-validateurs. Vous aurez l’occasion de nous en parler tout à l’heure.

Et pour compléter ce panel, nous avons Tidiani Togola, qui est fondateur et dirigeant de Tuwindi, une organisation de droit malien spécialisée dans les civic tech, dont l’objectif est de soutenir le développement socio-économique par les TIC.

Je vais commencer avec vous, Ludwy René. Est-ce que vous pouvez nous expliquer la mission du petit robot Toma Haiti par le réseau des Blogueurs d’Haiti, s’il vous plaît ?

Ludwy René Jean Paul : Oui, alors la mission est simple, c’est de nous aider à combattre, enfin à vérifier les faits, je vais dire. Parce pour un individu, d’aller vérifier systématiquement tous les faits, c’est un peu compliqué. Donc on s’est dit qu’on peut utiliser la technologie puisque ça va plus vite, puisque avec l’intelligence artificielle, il y a vraiment moyen d’automatiser certaines tâches. Et alors, on s’est penché sur la branche de l’intelligence artificielle qui traite du traitement du langage. Et ça nous a servi à analyser un texte et à donner une note de fiabilité à un texte qu’on recevrait. Donc, comme j’aime surtout insister là-dedans, là-dessus, c’est que le robot ne va pas vous dire si l’information est vraie ou fausse, ça, personne ne peut le faire. Mais il va vous donner un taux de fiabilité par rapport à la source, par rapport au contenu et par rapport au style du texte. J’aurai peut-être l’occasion de détailler un peu plus, mais c’est ça que devra faire le robot. Mais toujours en support à l’activité humaine. Il faudra quand même des humains pour l’aider à s’améliorer et pour vérifier, je veux dire, pour donner une note finale, je dirais, à l’information, est-ce que c’est vrai ou est-ce que c’est faux. Mais le robot pourra nous aider quand même dans cette tâche.

NP : Tidiani, Tuwindi mène plusieurs projets de monitoring, notamment des médias, des élections et également sur le contrôle citoyen de la gouvernance Xensa. Est-ce que vous pouvez nous en dire un peu plus ?

Tidiani Togola : Merci beaucoup. Alors Tuwindi, comme vous l’avez si bien présenté, a mis en place un ensemble d’initiatives. D’abord, Xensa, qui était une initiative qu’on avait démarrée en 2016 et qui avait une composante de lutte contre la désinformation, qu’on appelait le véritomètre. Donc le véritomètre dont l’objectif était principalement de vérifier les discours des acteurs politiques et d’un certain nombre de leaders d’opinion.

Et par la suite, à partir de 2019, le véritomètre a évolué en un outil totalement indépendant qu’on appelle WUYA. Alors WUYA, ça signifie en bambara “mensonge”, c’est-à-dire ce qui n’est pas vrai. Et le but, c’est justement de faire de la vérification à travers un outil informatisé qui est capable d’automatiser la détection et la prévention de tout ce qui va être fausses nouvelles et discours de haine. Donc cette initiative, ça mobilise à la fois tout ce qui va être ressource d’intelligence artificielle et de technologie de l’information et de la communication, mais aussi des humains parce qu’il y a une équipe de vérificateurs qui travaille plein temps pour s’assurer que les différentes informations qui passent sont alors très claires.

NP : Alexis De Lancer, Les Décrypteurs ont mis en place un bot conversationnel qui existe sur votre site Internet. Est-ce que vous pouvez nous en dire un peu plus?

Alexis De Lancer : Ah ben oui, notre robot conversationnel qui, accessoirement, prend mon visage, existe maintenant depuis, je dirais, plus ou moins quatre ans. Dès sa naissance, son apparition, on a vu très rapidement l’intérêt que ça pouvait susciter, l’utilité sociale que ça pouvait avoir dans le contexte d’une épidémie de la désinformation. Les ateliers, ce sont des chiffres tout frais que j’ai obtenus cette semaine. Les ateliers de notre robot conversationnel des Décrypteurs ont cumulé près d’un demi-million de pages vues depuis le lancement, près de 50 000 environ nouvelles visites au cours de la dernière année. Ces chiffres-là ont été atteints alors qu’aucun de nos ateliers thématiques ne s’est retrouvé promu, si on veut, sur la page web de Radio-Canada.ca, ni non plus sur nos réseaux sociaux, ceux de Radio-Canada.ca. Autrement dit, très peu d’efforts de marketing, mais malgré tout, ce robot conversationnel a atteint sa cible, a rejoint les publics, je dirais, de 7 à 77 ans, mais très, très bien utilisé désormais dans les écoles du Québec à plusieurs échelons du curriculum, du cursus scolaire. Il y a une grande vertu, une vocation pédagogique qui, de toute évidence, semble être utilisée et semble être déployée grâce à ce robot conversationnel qui a été créé pour donner des outils aux gens pour qu’ils puissent, en somme, mieux se positionner, mieux se guider eux-mêmes dans l’écosystème de l’information et de la désinformation.

GK : Oui, simplement pour rappeler ce qu’est ce robot conversationnel de Radio-Canada.ca, Alexis, c’est un peu comme le service client d’une banque ou d’une assurance sur leur site Internet où on arrive dans une interface de conversation et on va pré-choisir des questions qui vont nous amener différentes réponses, c’est ça ? Mais dans ce cas-là, pour lutter contre la désinformation.

ADL : Absolument, c’est un peu le même principe du robot conversationnel, oui, qu’on peut avoir dans les services clients. Je dirais qu’il est beaucoup plus sympathique que ce qu’on fait de façon usuelle à travers ce genre de service. Oui, donc des réponses automatisées, plusieurs options, plusieurs parcours, une arborescence de discussions possibles, une introduction sympathique aussi avec la personne qui interagit pour bien cadrer la conversation et puis ensuite, de fil en aiguille, d’atelier thématique en atelier thématique, la personne fait le choix elle-même du parcours qu’elle veut emprunter à travers les conversations et les thèmes qui sont proposés par le robot. Le robot qui lui soumet des questions, lui fait des clins d’œil, des blagues par moment et aussi l’informe, ajoute aussi des liens vidéo, des hyperliens vers des articles, beaucoup d’appuis visuels, audiovisuels, beaucoup plus que dans la première mouture, soit dit en passant, pour permettre aux gens de vivre une expérience qui est très riche et qui n’est pas simplement un échange de textos, de textes avec un robot impersonnel bien au contraire.

NP : L’initiative de Toma Haïti et le projet de Tuwindi fonctionnent avec ces deux aspects-là, un aspect automatique et un aspect de vérification humaine. Concrètement, comment ça se passe ? Vous faites d’abord vérifier quelque chose via le biais d’une automatisation, puis par des humains, c’est dans ce sens que ça se passe ?

TT : Le flux d’informations qui transite sur les réseaux sociaux est extrêmement humainement quasi impossible de pouvoir les gérer. Il faudrait un outil qui permet déjà de faire une première porte d’entrée. On donne la possibilité, certes, aux citoyens de pouvoir dénoncer des choses, mais on fait de telle sorte aussi que le volume d’informations que nous détectons via différents réseaux, dans notre contexte, on s’intéresse aussi même aux médias traditionnels, la radio, la télé, la presse écrite. Donc, ce volume de données qui arrive, il y a un premier traitement qui se fait souvent par l’intelligence artificielle automatisée, mais il y a aussi des humains qui peuvent saisir des choses qui n’ont pas nécessairement été vues. D’ailleurs, c’est là, fondamental, l’étape où nous sommes, parce que moi, je pense que nous sommes encore à un niveau de validement. Si on considère dans les régions africaines, notamment dans la zone du Sahel, où les langues qui sont utilisées pour faire de la fausse information, pour diffuser des discours de haine, ces langues ne sont pas encore maîtrisées par les différents outils d’automatisation. Donc, c’est là où le rôle de l’humain devient extrêmement important dans le traitement. Maintenant, une fois l’information capturée, il y a maintenant le traitement qui se fait via un ensemble de processus de vérification, un processus de vérification par l’outil, mais aussi un processus de vérification par des humains. Et une fois cela disponible, l’autre étape, c’est la diffusion de l’information, la vraie information et les données d’analyse pour pouvoir anticiper et voir un peu quelles sont les tendances de fausses informations, de discours de haine et tout. Nous, la plus grosse action qu’on essaie de mener, c’est d’essayer de faire évoluer de la détection et la lutte contre les fake news, notamment à travers l’approche actuelle qui consiste à faire du debunking. Nous, on essaie aussi d’avoir des approches beaucoup plus proactives et c’est dans ce sens que l’utilisation et l’automatisation deviennent extrêmement importantes parce que sans ça, on ne peut pas anticiper des actions qui permettent sérieusement de freiner la propagation de fausses nouvelles.

GK : Ce qui pose aussi la question de la confiance qu’on peut accorder dans la technologie. Ludwy, vous avez été très prudent en disant qu’on n’affirme pas que la machine va cracher la vérité. Il y a beaucoup de précautions autour de ça. Quel est votre regard sur la fiabilité des techniques et puis sur l’évolution de cette fiabilité? Est-ce qu’on peut penser que d’ici à quelques années, on arrivera à faire dire à une machine « c’est vrai, c’est faux » ?

LR : Depuis le début, nous, à Toma, on avait commencé à travailler aussi sur un robot conversationnel. Il n’est pas public, mais si vous créez un compte sur Toma, vous avez dans votre dashboard la possibilité de faire la conversation. Mais rapidement, on s’est rendu compte que pour le traitement de langage, si la forme allait très bien, mais sur le fond et sur l’information que ça donnait, ça posait quelques problèmes. C’est pour ça qu’on n’a pas rendu public et qu’on n’a pas fait de publicité autour. C’est très difficile. Là, maintenant, je vois qu’il y a certains groupes qui travaillent à améliorer les robots conversationnels sur la fiabilité des informations qu’ils donnent. Est-ce que d’ici quelques années, ça sera mieux ? Je pense oui. Est-ce que ça atteindra le niveau nécessaire pour que les informations soient vraiment fiables ? Moi, je doute un peu.

Alors, j’aimerais quand même préciser que pour Toma, ce qui était important pour nous, ce n’est pas lorsqu’une information est vraie ou fausse. Quand une information est vérifiée, on va dire qu’elle est étiquetée vraie ou fausse, pour nous, il n’y a pas de souci. Il y aura toujours des gens de mauvaise foi à vouloir partager les fausses informations. Et une information, elle est vraie, vous la partagez si elle est importante pour vous. Pour ce côté-là, je pense que c’est résolu. Le vrai problème pour nous, ce qui nous a surtout interpellés, c’est lorsqu’une information vous rejoint et vous la trouvez importante, mais vous ne savez pas si elle est vraie ou fausse. Alors, quoi faire dans ce moment-là ? Et là, on s’est penché sur ce cas-là. Et c’est pour ça qu’on a développé un robot qui pouvait donner un taux de fiabilité.

Et pour développer cet algorithme, on s’est penché sur ce que fait l’humain, tout simplement. Lorsque vous recevez une information, avant de la partager, si vous ne savez pas si elle est vraie ou fausse, il y a certaines questions que vous posez, peut-être même inconsciemment, c’est qui vous donne cette information. Si c’est quelqu’un réputé pour faire des blagues ou donner des mensonges, vous n’allez pas prendre l’information au sérieux. Si la personne donne l’information sur le ton d’une blague, vous comprenez que c’est une blague, peut-être que ce n’est pas une information à véhiculer. Donc, on a entraîné le robot à faire ça. Maintenant, pour ce qu’il y a de… que le robot puisse se prononcer sur la vérité en elle-même, honnêtement, là, je vous donne mon sentiment personnel, je ne pense pas que ce soit quelque chose qu’on pourra atteindre un jour, parce que la vérité, elle n’est jamais absolue, à moins qu’on parle de faits. Mais il y a tellement de parties interprétatives dans une information qui est véhiculée. Je pense qu’il faudra toujours, toujours vraiment l’apport humain pour que le robot soit utile dans la vérification des faits.

NP : Est-ce que vous pensez que, Ludwy, le fait de passer par un robot comme Toma, ça contribue à renforcer la confiance du public ? Est-ce que le public est plus susceptible de voir une information qui est délivrée par un robot Toma qui apparaît plus « neutre » qu’une rédaction donnée ?

LR : Alors, cette partie est très compliquée. Déjà, en Haïti, ceux qui étaient plus, je dirais, réticents à utiliser Toma étaient les journalistes eux-mêmes. Ils n’avaient pas trop confiance dans un robot. Et le public, ça l’emballait. Sauf qu’à un certain moment, moi, j’ai remarqué que ce qui rendait difficile la lutte contre la désinformation, ce n’est pas la désinformation elle-même, mais c’est comment nous considérons les nouvelles qui nous arrivent. En Haïti, nous écoutons les médias, nous écoutons les nouvelles, pas pour avoir les informations, mais nous écoutons les médias qui disent ce qu’on a envie d’entendre. Par exemple, si un média est contre un groupe contre lequel nous sommes aussi, nous allons écouter ce média, même s’il se révèle plusieurs fois que ce média donne de fausses informations. Donc, le média n’est pas sanctionné tout simplement parce qu’il va dans notre sens. Et ça, ça a rend vraiment compliqué le travail de ceux qui luttent contre la désinformation parce que même si ça passe par Toma ou par un journaliste, je dirais, éthique et qui confirme que telle information est fausse, mais cette information-là ne va pas s’arrêter de véhiculer parce que ceux qui véhiculent cette information se retrouvent dans le message qui est véhiculé parce que c’est contre tel ou tel groupe. Et c’est le plus compliqué pour nous. Donc, la machine pourrait atteindre un degré de perfection, mais le comportement des humains par rapport à leur intérêt dans ce qui est véhiculé posera toujours problème.

GK : Tidiani, est-ce que vous rejoignez Ludwy dans ce discours qui consiste à dire que les outils restent des outils et donc ont vocation à rester les assistants des humains malgré des évolutions techniques ou est-ce qu’au contraire, vous voyez une évolution technique qui va permettre de dire le blanc et le noir un jour ?

TT : Moi, je partage l’avis de Ludwy, c’est-à-dire qu’il est fondamental déjà que nous considérons un outil comme un outil, pas plus que ça et que cela devrait contribuer dans la lutte, mais pas que cela devrait être le général qui doit donner les directives. Ça, c’est très important. Et je suis, alors moi, mon background, c’est technologie avant tout. Donc, je pense que les outils vont continuer à se perfectionner à mesure qu’on est capable de les entraîner et qu’on est capable de leur permettre d’accéder à un ensemble de sources d’informations. Donc, c’est ce qui va faciliter la gestion et la capacité de comparaison des faits pour pouvoir justement mesurer de la fiabilité d’une information qu’on aurait vue ou pour pouvoir mesurer le degré ou mesurer un certain nombre de risques. Mais cela reste encore une fois de plus des outils parce qu’on peut se trouver dans certains cas où l’outil va totalement passer à côté. Si on considère par exemple tout ce qui va être aspect culturel, par exemple en Afrique de l’Ouest au Mali, je pense, ou en Côte d’Ivoire, qui sont des pays où on a ce qu’on appelle le cousinage à plaisanterie, ce qu’on appelle le Sanakunya. Certaines des expressions qui peuvent être considérées comme un propos haineux ou qui peuvent être considérées comme diffamatoires sont en fait utilisées dans le cadre d’une sorte de cousinage à plaisanterie, de blague, qui est tout à fait normale. Et il faut être dans le contexte et comprendre ce que ça veut dire. Est-ce qu’une intelligence artificielle va être capable d’avoir aussi une intelligence émotionnelle ? Ça, c’est tout à fait des questions qu’il faudrait analyser et qui, à mon avis, ne sont pas prêt d’être réglées demain. Ça prendra vraiment un temps. Ça va prendre un temps. C’est pour ça que le rôle de l’humain doit être central, quel que soit le niveau, quel que soit l’avancée technologique qu’on aura opérée.

NP : Alexis De Lancer, c’est étonnant parce que dans les ateliers qui existent aujourd’hui dans le bot conversationnel des Décrypteurs, il y en a un qui s’appelle « méfiez-vous des robots », alors qu’on parle justement à un robot. Qu’est-ce que vous avez voulu transmettre par là ?

ADL : On a voulu transmettre qu’un des vecteurs, un des vecteurs importants de la désinformation, ce sont les comptes automatisés, les actions concertées, automatisées à grande, petite, moyenne échelle à travers le monde. C’est important que les gens se familiarisent avec ça. Il n’y a pas tout le temps directement un être humain qui est le grand architecte d’une initiative de désinformation. Il y a par entremise de tout ça souvent des comptes automatisés. Alors c’est de familiariser les gens à ce type de procédés, comment les reconnaître, comment les identifier, comment les déjouer, quels outils existent à notre portée pour naviguer à travers tout ça. Mais la base, c’est de faire de la littératie numérique aussi. C’est d’expliquer que ce genre de phénomène, d’outils existent pour des personnes aux intentions malveillantes.

GK : Ce qui nous amène à l’émergence des intelligences artificielles, puisque en parlant d’outils qui permettent de créer massivement de la désinformation ou peut-être de contrer la désinformation, on va vous demander à tous les trois votre avis là-dessus, à cette émergence de l’IA générative particulièrement, elle a vraiment secoué l’écosystème informationnel. Est-ce que à votre avis, Alexis de Lancer, l’IA aujourd’hui peut aider à lutter contre la désinformation de manière efficace ?

ADL : Pas à ce stade-ci, je crois, de l’avancement de ces technologies. Je crois que c’est encore imparfait, je crois que c’est encore défaillant, je crois qu’il y a énormément de preuves à faire. Je crois que si on parle de ces technologies d’intelligence artificielle, je crois malheureusement qu’il y a une perte de contrôle en ce moment. Oui, on peut peut-être entretenir l’espoir qu’un jour, ça puisse permettre d’instaurer des outils de lutte contre la désinformation, mais c’est plutôt l’inverse qui se produit à notre sens, à nous, c’est-à-dire que c’est davantage devenu un outil supplémentaire pour les personnes qui veulent fomenter la désinformation. Le grand défi pour ces personnes, c’était de créer du contenu par le passé. Et là, on voit que par des moyens très, très accessibles, ils sont capables de le faire à très peu de frais. Ça vient donc décupler l’offre en matière de désinformation et par la fin même, bien pour nous, c’est encore plus de boulot pour lutter contre ce phénomène. Alors, moi, je ne suis pas au stade de l’émerveillement de se dire que c’est l’automatisation ou en tous cas l’intelligence artificielle, que ça va être une panacée pour nous. Le robot conversationnel est finalement la seule initiative qu’on a, nous, aux Décrypteurs, d’automatisation, si on veut, d’outils automatisés pour lutter contre la désinformation. Pour le reste, nous, on fait notre travail une semaine à la fois et de façon, dans un cadre journalistique traditionnel, on en est là pour l’instant.

GK : Sur cette question de l’intelligence artificielle, Tidiani, est-ce que vous la voyez comme problématique parce qu’elle facilite la propagation de la désinformation ou alors est-ce qu’elle peut, c’est l’autre côté de la pièce aussi, devenir une aide ou troisième solution, est-ce qu’on va être spectateur d’une bataille d’IA, celle aux mains des désinformateurs, celle aux mains des vérificateurs, puis on regardera tout ça se passer gentiment ?

TT : Je pense qu’il faut voir l’IA d’abord comme une opportunité. Autant c’est une opportunité pour ceux qui font de la désinformation, autant ça reste une opportunité pour ceux qui luttent contre la désinformation. Maintenant, comment faire en sorte que l’IA ne joue pas un certain rôle ? Nous, on s’est amusé à tester un certain nombre de comptes. Déjà, le fournisseur d’IA essaye d’entraîner l’IA à éviter de dire certaines choses, à prendre certaines directions. Évidemment, je ne dis pas qu’on ne peut pas lui faire dire ça, on peut, mais c’est là où tout l’enjeu va être de travailler avec les fournisseurs de ces plateformes, de travailler aussi à entraîner l’IA, une fois qu’on parle de désinformation, il y a un certain nombre de choses qui arrivent, que ça puisse accéder sérieusement à des sources et que de plus en plus de sources puissent s’ouvrir. Je parle notamment souvent, il y a beaucoup de sources ouvertes aujourd’hui, mais il faut que les sources s’ouvrent pour permettre de pouvoir rapidement comparer, vérifier un certain nombre de choses. Ça, c’est une première dimension.

Mais une deuxième dimension, c’est clair qu’il va y avoir cette bataille qui ne peut pas être évitée et qui doit être menée d’une manière ou d’une autre entre ceux qui vont utiliser l’IA pour continuer à propager de la fausse information et ceux qui l’utilisent pour lutter contre la désinformation. C’est dans ce sens que l’anticipation va être fondamentale, anticipation que ce soit en termes d’un renforcement de la capacité pour que les gens puissent avoir un peu plus d’esprit critique, anticipation en termes de réglementation, anticipation en termes d’usages, notamment, je ne parle pas de ceux qui ont déjà une capacité d’accéder aux outils numériques, mais aussi dans les zones qui sont justement les zones qu’on peut considérer comme des zones aveugles où on consomme seulement l’information, mais on n’en produit pas. Donc, il faudrait travailler à ces aspects-là. C’est ce que je pense.

GK : Ludwy, on vous sentait sur les starting blocks, à trépigner d’impatience pour commenter le développement de l’intelligence artificielle. Quel est votre point de vue sur cette question-là ?

LR : Oui, ce que dit Tidiani est exact, mais les chercheurs de Meta ont même déjà commencé à travailler sur cet aspect-là, à savoir l’aspect des sources pour affiner la fiabilité de ce que nous dit l’IA conversationnelle. Là, on parle du Retrieval Augmented Generation où vraiment l’accent est mis sur les sources. Par contre, moi, je pense que ce qui sera toujours important dans cette bataille-là, c’est l’éducation qu’on doit faire par rapport aux auditeurs, enfin à la société. Parce que aussi fiable que puisse être une IA, ce sera un outil qui aura été éduqué, éduqué par des humains ou peut-être par d’autres IA. Mais le problème, c’est que faire confiance à l’IA, c’est faire confiance à la personne ou au groupe de personnes qui éduquent cette IA. Là, on parle d’une IA, mais en réalité, c’est plusieurs outils. Maintenant, moi, je pense qu’il y aura toujours des gens à qui la désinformation servira. Donc, il y aura toujours des gens à vouloir biaiser ce que nous donne une IA comme réponse, comme information.

Donc, il est important d’avoir toujours cet esprit critique, comme on le demande, même par rapport aux journalistes, même s’il y a un média qui est fiable, même s’il y a un journaliste qui est fiable. Il faut toujours faire attention parce qu’on ne sait pas à quel moment ça va déraper. Et je pense qu’il faut toujours avoir ce regard-là. Ce qui n’arrive par rapport à la technologie, ça paraît tellement bien fait, la forme est tellement bien qu’on se sent en confiance.

Et on se dit que, bon, par exemple, pour parler de Chat GPT, c’est impressionnant comme Chat GPT peut formuler des phrases. Ça vous parle comme un professionnel. Et vous pouvez écrire un texte et demander à Chat GPT de vous reprendre ce texte comme s’il avait été écrit par Paul Verlaine. Et puis, vous voyez quelque chose de très différent. Donc, là, vous avez vraiment le réflexe de vous sentir en confiance. Mais pour autant, ce qui est dit comme information, il n’y a pas de garantie. Je pense que l’esprit critique est le premier réflexe que nous devons avoir. C’est vrai que les outils vont s’améliorer, mais il faudra toujours faire attention parce qu’à n’importe quel moment, ça peut déraper de façon volontaire ou par accident.

GK : Alors, justement, en parlant d’esprit critique et de son renforcement, on peut terminer ce podcast sur les nouvelles fonctionnalités du robot conversationnel de Radio-Canada puisque Alexis de Lancer vous en lancez une nouvelle version enrichie. Qu’avez-vous fait et pourquoi?

ADL : Alors, en rafale, on a rajouté des informations sur les théories du complot. On part de la base. Il y a des vrais complots, il y a des faux complots. C’est parce que la pandémie nous a amené à un tel déluge de nouvelles données en ce sens qu’on a cru bon de l’actualiser pour que les gens puissent aussi se rattacher à des événements plus actuels. Donc, sur la fraude et le hameçonnage, on a rajouté dans cet atelier des discussions avec le robot sur les faux concours, sur les fraudes par SMS, par texto, pour les fraudes par courriel, les pièges qui nous sont tendus sur Facebook ou les autres. Facebook de moins en moins parce que les gens y sont moins, mais sur les plateformes web en général, on a bonifié notre atelier sur les biais cognitifs.

C’est crucial parce qu’à la base du fait qu’on puisse tomber dans les pièges comme cela, la désinformation, il y a des pièges qu’on a, on a des réflexes qu’on a en nous-mêmes de façon millénaire, séculaire, c’est-à-dire les biais cognitifs qui font en sorte qu’on a tous le germe de cette désinformation en nous. C’était important pour nous de bonifier un peu cet atelier-là puisqu’on a continué à explorer au cours des dernières années cet aspect-là des choses. Et très important, on a rajouté un atelier sur la science, la pseudo-science, la pandémie nous a démontré à quel point il y avait encore une fois des lacunes ici quant à certaines connaissances fines sur le fonctionnement de la science, toute la notion de pré-publication, des pseudo-experts, les chiffres qui nous sont présentés sans contexte, tout cela devait, se devait d’être expliqué davantage. C’est ce qu’on fait encore une fois avec la nouvelle mouture du robot conversationnel des Décrypteurs qui sera bientôt en ligne dans les semaines, ça reste à préciser dans les semaines qui vont suivre. Et finalement, il fallait bien, comme je l’évoquais tout à l’heure, qu’on ajoute un atelier entier sur l’intelligence artificielle. Alors c’est absolument crucial qu’on le fasse puisqu’on est face au plus grand défi auquel on devra s’attarder, celui de l’intelligence artificielle qui vient encore une fois plomber davantage si on veut la situation.

NP : Je pense que ce sera le mot de la fin. Merci beaucoup. Merci à tous les trois pour cette conversation. On aura l’occasion de mettre tous les liens de vos initiatives dans la description de ce podcast. Merci beaucoup. Tidiani Togola, Ludwy René Jean Paul, Alexis De Lancer. Et à très vite.

ADL : Ça fait plaisir. Et je me permets de rajouter aussi qu’on lance un podcast hebdomadaire aux Décrypteurs, un balado comme on dit par chez nous, pour les personnes qui vraiment veulent aller plus loin, des aspects un peu plus pointus à des sujets qu’on aborde semaine après semaine.

GK : Très bien. On ajoutera aussi un lien dans les notes d’épisode vers votre nouveau podcast au décrypteur ou le balado pour les Québécois qui nous écoutent. A ODIL, le podcast, on accueille ce genre de concurrence-là. Merci encore à Ludwy et à Tidiani. Merci à vous de nous avoir écoutés et à très bientôt.

Merci de nous avoir suivis. Tous les épisodes sont disponibles dans votre lecteur de podcast favori. Odil le podcast est une collaboration entre l’Organisation internationale de la francophonie et Check First. Le site de la plateforme francophone des initiatives de lutte contre la désinformation est à retrouver sur odil.org, et sur Twitter @OdilPlateforme.