Entretien

Les algorithmes de recommandation dans la lutte contre la désinformation

Un entretien enregistré le 05 mai 2023, publié le lundi 29 mai 2023

Retrouvez ce podcast sur

Les algorithmes de recommandation sont ominiprésents dans les réseaux sociaux et façonnent notre consommation d’information sur les plateforme de partage de contenu. Quel rôle jouent-ils dans la diffusion de nouvelles douteuses ?

Invités :

  • Lê Nguyên Hoang, co-fondateur de Tournesol (Suisse).
  • Marc Faddoul, directeur d’AI Forensics (Europe)
  • Amaury Lesplingart, co-fondateur et directeur technique de CheckFirst pour le projet Crossover (Belgique)

Liens :  

[Musique] Vous écoutez Odil le podcast, une production de la plateforme francophone des initiatives de lutte contre la désinformation. Un podcast animé par Guillaume Kuster et Nelly Pailleux. Odil le podcast, c’est une série d’entretiens avec celles et ceux qui luttent contre la désinformation dans l’espace francophone. [Musique]

Guillaume Kuster : Bonjour à toutes et bonjour à tous, bienvenue dans ce quatrième épisode de la deuxième saison d’ODIL, le podcast. ODIL, comme vous le savez, c’est la plateforme francophone des initiatives de lutte contre la désinformation. Elle accueille et met en valeur celles et ceux qui luttent contre les désordres de l’information dans les 88 pays de la francophonie. Et tout au long de l’année, nous accueillons les invités de différentes régions du monde qui luttent contre la désinformation à leur manière. N’hésitez pas à vous abonner sur vos plateformes de podcast préférées pour ne pas manquer la sortie de notre épisode mensuel. Comme d’habitude, je suis en compagnie de Nelly. Bonjour Nelly.

Nelly Pailleux : Bonjour Guillaume, bonjour à tous.

GK : Alors dans cet épisode, nous allons parler d’algorithmes de recommandation de contenu et comment ils façonnent nos perceptions du monde. Dans quelle mesure ces algorithmes peuvent également contribuer à la propagation de la désinformation ? Est-ce qu’ils favorisent toujours des contenus sensationnalistes et trompeurs au détriment de sources qui, elles, sont fiables et vérifiées ? Quelles solutions peuvent être déployées face à ces problèmes ? Pour en parler, nous avons invité Nelly, trois experts.

NP : Avec nous aujourd’hui, Lê Nguyên Hoang qui va nous parler de Tournesol, une application de recommandation de contenu collaborative qui vise à résoudre l’éthique de l’information sur Internet, une grande promesse. Vous dites que vous espérez, je cite, « rendre les algorithmes d’aujourd’hui et de demain robustement bénéfiques à grande échelle pour toute l’humanité ». Merci d’être avec nous, vous allez nous en parler tout à l’heure.

À vos côtés, à nos côtés, nous avons Marc Faddoul qui est directeur de AI Forensics, une organisation européenne à but non lucratif qui défend les droits numériques par le biais d’enquêtes algorithmiques. AI Forensics qui est aussi anciennement connu sous le nom de Tracking Exposed. Vous avez mené de nombreux projets de monitoring des algorithmes, en particulier celui de TikTok pour lequel vous avez été auditionné par le Sénat français, il me semble, dernièrement.

Et enfin, pour compléter cette table ronde, une personne que l’on connaît bien puisqu’il s’agit d’Amaury Lesplingart, directeur technique, cofondateur de CheckFirst, qui va nous parler du projet Crossover, un projet européen qui vise à observer et analyser le rôle des algorithmes de recommandation dans la promotion de la désinformation. Un projet qui a d’abord rassemblé quatre acteurs et qui se déroulait en Belgique, et qui continue maintenant de s’étendre à huit pays de la francophonie. Merci à tous les trois d’être avec nous.

Je vais commencer avec vous, Lê Nguyên Hoang, parce que Tournesol est une initiative qui est inscrite sur ODIL depuis le début de l’existence de l’annuaire. Est-ce que vous pouvez nous expliquer comment marche votre application ?

Lê Nguyên Hoang : L’idée de Tournesol, c’est de s’attaquer au problème qui nous semble le plus important, c’est le problème de la recommandation de contenu par rapport à la crise informationnelle, parce qu’aujourd’hui, on a vraiment, au niveau de la consommation sur le web, la plupart des personnes passent par des réseaux sociaux, et on voit à chaque fois que quelqu’un ouvre une application sur son réseau social, c’est un algorithme, une intelligence artificielle extrêmement sophistiquée, qui va choisir dans tous les contenus de la plateforme, quel contenu montrer à l’utilisateur. Et malheureusement, aujourd’hui, ce choix de quel contenu montrer est fait de manière unilatérale par des entreprises privées avec très peu de contrôle démocratique, et on sait très bien aussi que ça met en avant beaucoup d’informations dangereuses. Et donc, l’idée de Tournesol, c’est de proposer une alternative qui soit démocratique d’une certaine manière, où il y a plusieurs personnes qui vont venir sur la plateforme, n’importe qui peut devenir un contributeur de la plateforme, et de cette manière, voter pour quels sont les contenus qui devraient être le plus recommandés par l’algorithme de recommandation de Tournesol en particulier. Et ensuite, via les extensions qu’on a développées, notamment pour Firefox, Chrome et Edge, les utilisateurs peuvent recevoir des recommandations de l’algorithme de Tournesol directement sur leur page d’accueil YouTube.

GK : Donc pour bien comprendre la différence de Reddit, qui est une espèce de forum où on va aller mettre des points à des publications et donc, collaborativement, les rendre plus ou moins importantes, là ce que vous faites, c’est que vous modifiez directement la page du réseau social concerné ?

LNH : Oui, d’un côté, en effet, on essaie d’être vraiment dans l’utilisation normale des réseaux sociaux par l’utilisateur, en apparaissant directement sur la page d’accueil de YouTube, mais d’autre part, un peu comme sur Reddit, on a un effet communautaire, mais peut-être qu’on pousse beaucoup plus que Reddit les notions de sécurité, en particulier vis-à-vis des faux comptes qui voudraient, par exemple, manipuler la plateforme, mais également, en fonction de l’activité des différents comptes, on a un système qui est issu de la recherche, apprendre de la recherche en sécurité des intelligences artificielles, en particulier des systèmes collaboratifs. On cherche à limiter l’impact maximal de chacun des contributeurs, de sorte que le résultat soit vraiment une sorte de résultat d’un scrutin, aussi transparent, par ailleurs, que possible, puisque le code source et les algorithmes sont tous très open et très, très libres. La base de données, les contributions des contributeurs, lorsqu’ils font ça de façon publique, entrent dans la base de données publiques, et un autre intérêt, c’est aussi de motiver la recherche académique sur la meilleure façon d’exploiter ce genre de données pour faire des recommandations sécurisées.

NP : Ça va me permettre de rebondir et de me tourner plutôt vers Marc pour la question suivante. Dans quelle mesure, finalement, les utilisateurs des réseaux sociaux contrôlent-ils vraiment ce qu’ils voient sur les plateformes ?

Marc Faddoul : Relativement peu, puisque, au final, les algorithmes sont quand même essentiellement basés sur leur métrique d’optimisation et les algorithmes de recommandation en particulier, et la métrique d’optimisation qui est la même sur toutes les plateformes, aujourd’hui, ça reste l’engagement, et donc la maximisation de l’engagement. Ça a tendance à amplifier un certain type de contenu, et ça, c’est notamment le contenu qui va être plus polarisant ou plus sensationnaliste, et ça, c’est quelque chose que l’utilisateur ne contrôle pas. C’est-à-dire qu’on peut, certes, avoir un certain contrôle sur les channels ou les profils qu’on va suivre et auxquels on va s’abonner, mais cela reste, ça garde un impact relativement limité, et aussi, en fonction de la plateforme, ça va avoir un impact plus ou moins fort.

On voit que sur TikTok, notamment, et la page For You, on a très peu, en fait, de contenus qui viennent du réseau direct d’abonnement, alors que c’est l’interface principale avec laquelle les utilisateurs vont consommer du contenu. Donc, en effet, il y a tout un mouvement qui essaye de promouvoir une plus grande souveraineté algorithmique, ce qui veut dire que donner plus de contrôle à l’utilisateur, ou bien pour choisir complètement l’algorithme qu’on va vouloir choisir. Donc, par exemple, vouloir dire, moi, j’aimerais choisir, avoir des recommandations qui me viennent de Tournesol plutôt que de TikTok ou de YouTube. Et donc, ça, c’est un concept qui serait génial à mettre en place, mais ça demande une certaine… que les plateformes soient interopérables.

Ou alors, prendre l’approche que prend Tournesol, qui est quelque chose qu’on aime beaucoup aussi chez AI Forensics, qui est la question de l’interopérabilité adversarielle. C’est-à-dire qu’ici, on ne demande pas à YouTube si jamais on peut changer les recommandations ou avoir un protocole commun avec eux. On va tout simplement injecter par-dessus en utilisant une extension, et donc, ça permet, entre guillemets, de faire évoluer les choses plus rapidement. Mais, donc, ça, c’est un premier mode, c’est de pouvoir choisir complètement l’algorithme qu’on veut, qu’on aimerait vouloir choisir, enfin, utiliser.

Et l’autre dimension, c’est de pouvoir personnaliser un algorithme précis, notamment pouvoir dire « OK, j’aimerais que tu me fournisses du contenu qui va être plus similaire à ce que je viens de regarder, ou alors, au contraire, j’aimerais étendre mes perspectives et avoir du contenu différent ». Et tout ça, c’est en effet des contrôles qui n’existent pas aujourd’hui sur les plateformes, mais on peut imaginer et espérer que dans le futur, il y ait de plus en plus de solutions qui permettent de faire ça.

GK : Alors, on l’entend dans vos bouches à tous les deux, Lê Nguyen et Marc. Ce que vous voulez, c’est de redonner plus de contrôles aux utilisateurs, à l’utilisateur, parce qu’on a cette impression que le contenu qu’on consomme sur les réseaux sociaux, les plateformes de distribution de contenu, est personnalisé. Et en fait, les plateformes nous montrent un peu ce qu’elles veulent pour atteindre leurs objectifs à elles. J’aimerais qu’on parle un peu d’exemples de recommandations qui ne sont pas forcément les plus optimales. Le projet Crossover, alors précision utile, Nelly et moi-même avons aussi contribué à ce projet-là, dans Crossover. Amaury, quels peuvent être quelques exemples de recommandations, on va dire, curieuses, voire problématiques ?

Amaury Lesplingart : La plus simple à donner, c’est celle de Donbass Insider, et que les auditeurs peuvent tester aujourd’hui. Donc, je les invite à se rendre sur Google et à taper le mot-clé Donbass, tout simplement, pour se renseigner sur le Donbass. Et là, vous allez avoir une série de recommandations qui va apparaître en dessous de votre barre de recherche, avec différentes recherches. Et là, vous allez tomber sur Donbass Insider. Donbass Insider, c’est un média pro-Kremlin qui diffuse de la désinformation spécifiquement sur le Donbass. Donc là, on a vraiment le rôle d’un algorithme qui pousse du contenu de désinformation, l’algorithme de suggestion de recherche de Google, qui va pousser ce média et lui permettre d’augmenter son audience.

On pourrait aussi parler, par exemple, du soft power de la Chine, qui n’hésite pas à diffuser de nombreux articles sur Google News à propos de la provenance du Xinjiang, pour parler du bénéfice de la provenance du Xinjiang, pour dire combien elle est grande, combien elle fonctionne bien, tout le côté positif, spécifiquement au moment où un article est publié par un Amnesty International pour déterminer qu’en fait, au Xinjiang, il y a quand même quelques problèmes sur la population, qu’il y a des problèmes sur les religions, etc.

Donc là, on voit deux fois des algorithmes qui sont utilisés par des gens, pour ne citer personne, pour mettre en avant du contenu qui est problématique.

GK : Alors dans les deux cas, on a des régions, le Donbass, une région ukrainienne dans un contexte de guerre entre la Russie et l’Ukraine, qui va aller pointer des utilisateurs vers un site pro-russe et puis, dans le cas du Xinjiang, là encore, une région où il y a une oppression qui est reconnue du gouvernement central chinois contre des minorités dans ces populations-là, avec du contenu qui n’est pas forcément ce qu’on attend.

La question de l’intentionnalité est intéressante, tu dis, les algorithmes sont utilisés. La question que j’ai envie de poser, c’est peut-être à Marc, c’est est-ce qu’on est dans une intentionnalité des plateformes de mettre ce contenu devant les yeux ou est-ce qu’on peut parler d’accident industriel ?

MF : Moi, je suis plutôt de l’avis de l’accident industriel, c’est ce qu’il y a une bonne manière de formuler. Évidemment, il y a toujours des risques d’ingérence politique au plus haut niveau de ces plateformes où on peut avoir des pressions peut-être de monter certains contenus ou d’en mettre d’autres, mais je pense que l’essentiel de ce qui se passe, c’est l’essentiel des dynamiques, notamment ici, dans le cas de, je pense, de Donbass Insider, c’est en fait l’interaction entre à la fois le design algorithmique qui va maximiser l’engagement et l’utilisation de cet algorithme à la fois par des utilisateurs normaux qui vont potentiellement être attirés par du contenu un peu plus sensationnaliste que d’autres, ça c’est un biais cognitif commun à tout le monde, et aussi des acteurs externes qui vont essayer d’exploiter les failles du système en faisant de l’optimisation de référencement sur Google et ce genre de choses.

Je ne pense pas que Google ait l’intérêt d’aller promouvoir des sites de désinformation pro-Kremlin sur ses résultats de recherche.

NP : On s’est rendu compte aussi, et ça rejoint un peu ce que tu dis Marc, par rapport aux intérêts effectivement dont on peut se poser la question de pourquoi Google recommanderait du contenu pro-Kremlin, on s’est rendu compte donc qu’il y a beaucoup d’études qui ont été faites sur les recommandations algorithmiques en anglais, sur du contenu en anglais. On s’est rendu compte également qu’il y avait beaucoup de contenus douteux en langue non anglaise, notamment en français, je rappelle qu’on est quand même avec l’Organisation Internationale de la Francophonie, donc c’est une question qui est intéressante.

Comment on impulse des travaux de recherche, des travaux d’audit, des travaux de monitoring, des algorithmes de recommandation de contenu pour les personnes qui ne parlent pas anglais, pour les personnes qui parlent une autre langue, le français par exemple, Lê ? Je ne sais pas si vous voulez prendre cette question.

LNH : Je ne pense pas que le monde francophone soit moins intéressé par ce sujet. Il y a pas mal de travaux, en particulier en Suisse, l’EPFL (L’École Polytechnique Française de Lausanne, ndlr), qui sont assez fondateurs sur ces sujets. Il y a quelques chercheurs français, à l’INRA par exemple, qui sont très préoccupés par ces questions, et je pense qu’à l’inverse, en fait, on a un écosystème francophone, en particulier en Europe, qui peut se targuer d’être plus indépendant des intérêts privés que, par exemple, aux États-Unis, où on sait que les entreprises privées investissent énormément dans la recherche publique. En cela, je pense qu’on a un rôle particulier à jouer pour servir de contre-pouvoir, et surtout pour encourager un système démocratique, une gouvernance démocratique des systèmes d’information les plus influents du monde.

Les entreprises privées ont un rôle majeur, mais je trouve que ce qui est encore plus important, c’est que les régulateurs regardent de plus près ce qui s’y passe et sévissenet, et en particulier, un principe important que je défends, c’est la présomption de non-conformité, avec la loi notamment, des outils, notamment des intelligences artificielles et des outils numériques de façon générale, c’est-à-dire qu’aujourd’hui, pour déployer massivement des technologies extrêmement dangereuses, il n’y a essentiellement aucun garde-fou, et les entreprises peuvent déployer ces technologies à grande échelle, sans qu’il y ait au préalable d’audits ou de tests sur la sécurité des outils qu’ils déploient. Je pense que c’est urgent de s’inspirer des autres industries, notamment l’industrie de l’aviation ou l’industrie pharmaceutique, qui en amont interdisent au préalable la commercialisation de produits potentiellement dangereux, et exigent une certification, une vérification de la conformité de ces produits avec la sécurité des clients, des utilisateurs, et avec la loi, pour pouvoir décerner ensuite un droit de commercialisation aux entreprises. Je pense que c’est urgent qu’on passe dans ce mode également pour les algorithmes les plus influents du web.

GK : Alors cette question de la régulation, on est en plein dedans aujourd’hui, on a l’arrivée du DSA européen, le Digital Services Act, qui est le texte qui pour les 25 années à venir va régir la manière dont les plateformes peuvent présenter du contenu aux utilisateurs, et surtout les recours que les utilisateurs ou les institutions peuvent avoir si jamais il y a un dysfonctionnement. Donc cette question de la modération est centrale, mais elle inclut aussi la recommandation algorithmique.

On voit d’ailleurs qu’il y a une espèce de tentative par les plateformes d’éviter ou de gérer au mieux cette arrivée de la régulation. On a vu TikTok qui a invité des chercheurs à venir lire son code dans une salle sécurisée en Californie, pour essayer de voir, mais sans pouvoir prendre de notes, etc. Twitter a tenté quelque chose d’assez similaire récemment.

Amaury, quel peut être le rôle du régulateur, parce qu’on est dans une espèce de Far West aujourd’hui, où ces industries se sont construites extrêmement rapidement, beaucoup plus vite que la loi ne pouvait les contraindre, et on est dans une situation aujourd’hui qui est dictée plus par les algorithmes et par les plateformes que par la loi et les régulateurs. Que peut faire le régulateur aujourd’hui ?

AL : Faire appliquer les lois, c’est un bon début. Je pense qu’on a déjà beaucoup de lois qui sont en place et qui existent, et qui sont malheureusement très peu appliquées par les régulateurs, par manque de moyens avant tout, parce que quand on est un régulateur et qu’on est confronté à Google, on est confronté à une société internationale, basée aux États-Unis, qui a des sièges un peu partout, donc c’est excessivement difficile de l’attaquer. Et encore bien, quand elle est attaquée, on voit quand la Commission Européenne réussit à condamner Google, Google ou Apple ou n’importe quel GAFA, au final, l’amende n’est pas si importante comparée à leur chiffre d’affaires, donc ainsi soit-il, ils payent et puis voilà. Donc je pense qu’on a avant tout un intérêt à renforcer les régulateurs et à utiliser les lois qui sont en place.

Et ensuite, je suis pro-technologie, je pense qu’à l’inverse, il faut laisser les gens expérimenter sur Internet. Internet a toujours été un terrain d’expérimentation. Les grands comme les petits, il faut laisser la liberté d’entreprendre aux gens, mais en même temps, il faut inclure une notion, ce qu’on appelle en anglais l’accountability, donc la responsabilité des plateformes, et ne pas vouloir leur mettre des bâtons dans les roues, mais plutôt leur demander des comptes sur leurs résultats.

Par exemple, au niveau de Crossover, on a pris la décision de dire qu’on ne veut pas voir ce qui se passe dans la black box, dans la boîte noire de l’algorithme, on ne veut pas aller voir le code source de l’algorithme, parce que c’est trop compliqué, parce que probablement, quelques personnes au monde pourraient le comprendre, mais pas nous. Nous, ce qu’on veut, c’est regarder le résultat. Si un utilisateur tape Donbass, qu’est-ce qui se passe ? A quoi est-il exposé ? S’il y a un problème, nous ce que nous souhaitons, c’est que Google soit responsable de ce problème-là, prenne sa responsabilité, explique pourquoi ce problème est arrivé, et prenne des décisions pour que ce problème n’arrive plus à l’avenir. C’est juste une question de responsabilité avant toute chose.

NP : Et on a eu d’ailleurs le plaisir d’avoir des réponses de Google qui nous renvoyaient vers des blogposts de fonctionnement de leur algorithme de recommandation, ou en tout cas de suggestions dans la barre de recherche.

Marc, quelles sont les solutions qu’on pourrait apporter en tant que société civile, en tant qu’acteur de la lutte contre la désinformation, pour rendre les personnes un peu plus au courant et un peu plus résilientes face à ce problème-là ?

MF : Alors, l’information et la résilience, je pense qu’il y a une partie de la réponse est dans la question. Moi, je pense que l’éducation aux médias, c’est peut-être une des choses les plus importantes aujourd’hui, un des mécanismes les plus forts qu’on puisse mettre en place pour lutter contre ces problèmes-là. Parce que même si, alors évidemment, la responsabilité des plateformes est à mettre en jeu, et on a aujourd’hui le DSA qui a été voté, qui va être mis en application, mais aujourd’hui de l’information de mauvaise qualité et volontairement trompeuse va continuer à circuler. C’est un fait, on a beau faire tout ce qu’on veut, les gens vont continuer à être confrontés avec des fausses informations et de plus en plus en plus du contenu qui va être généré par des intelligences artificielles, donc qui va être non authentique, et c’est quelque chose qu’il faut prendre, je pense, comme une réalité.

Donc pour moi, la première chose à mettre en place, c’est s’assurer que les gens aient un certain discernement et soient suffisamment équipés pour pouvoir faire la part des choses et pouvoir juger la qualité d’une information.

GK : Notamment en commençant dès l’école, parce que si on regarde les pré-ados sur TikTok, malgré toute la volonté ou les avertissements que les parents peuvent donner, ils se font happer par du contenu qu’ils devraient montrer par TikTok, quasiment contre leur gré.

MF : Tout à fait, je pense que dès l’école, c’est une des choses les plus importantes. On a en plus des très bonnes associations qui font ça. En France, on a notamment FakeOff qui fait de l’éducation aux médias dans les écoles, mais il y en a d’autres. Et je pense que c’est clairement un point saillant, d’ailleurs. Je pense que CheckFirst est aussi impliqué dans une certaine mesure là-dessus.

GK : Un tout petit peu.

MF : Voilà, en tout cas, déjà, ça, c’est un premier point. Et après, on a la question de la régulation et de la responsabilisation des plateformes, qui est, je pense, un autre point dont on a déjà parlé.

GK : Lê Nguyen, puisqu’on parle de solutions, Tournesol est un début de solution. J’aimerais qu’on parle de retour d’expérience. Qu’est-ce qui se passe quand on donne la main aux utilisateurs ? Est-ce qu’on ne se retrouve pas finalement avec les mêmes contenus problématiques parce qu’on a hacké Tournesol, qu’on a des groupes de trolls qui se sont dit « on va profiter de ce système pour mettre en avant nos contenus à nous ».

LNH : Jusque là, on n’a pas subi de grosses attaques. Il y a toujours quelques utilisateurs qui font des recommandations un peu douteuses, mais notre système est suffisamment résilient pour que ça ait peu d’impact, pour qu’une poignée d’utilisateurs malveillants ait peu d’impact. Mais bien sûr, si le système grandit, quand le système grandira et sera plus à l’échelle, il faudra s’attendre à être beaucoup plus sous attaque et c’est là que les notions de sécurité vont être beaucoup plus critiques. En particulier, on espère vraiment avoir des systèmes de certification des comptes, pour éviter en particulier les faux comptes qui soient d’autant plus accrus, enfin ce sont déjà assez strictes. Mais ce qu’on aimerait aussi, c’est certifier davantage l’expertise des différents contributeurs et par exemple avoir une authentification des auteurs du GIEC, quand il s’agit de vidéos sur le climat en particulier, des médecins affiliés à l’Ordre des médecins, dans le cas de la santé, des chercheurs académiques avec des liens notamment avec par exemple leur publication, pour pouvoir gagner confiance en les contributeurs à la plateforme. Et je pense que ce sont des mesures de sécurité qui nous aideront grandement à nous défendre contre les attaques.

GK : La question que j’ai envie de poser à Amaury, c’est si on regarde 20 ou 25 ans en arrière, avant l’apparition des grands contenus, on avait le même problème sur les médias de masse à la télévision, les programmes dits de qualité par les élites étaient relativement peu regardés ou lus et à leur place on voyait des succès populaires qui étaient des émissions qui n’étaient pas forcément on va dire les plus encourageantes au développement de l’intellect. Est-ce qu’on n’est pas face à ce même problème que, en gros, quand on te donne du contenu facile à regarder ou à consommer ça marche mieux, c’est une réalité de l’humanité et on a un combat de retard quoi qu’on fasse ?

AL : C’était Dechavanne qui avait inventé le concept du temps de cerveau disponible ?

GK : C’était Patrick Le Lay, le PDG de TF1 à l’époque, qui disait notre métier c’est de vendre des espaces publicitaires donc c’est de vendre du temps de cerveau disponible. On fait des émissions qui sont faciles à regarder pour que le cerveau soit frais et dispo et consommer la publicité pour Coca-Cola qui viendrait au moment de la pause. Il s’avait beaucoup fait parler mais industriellement c’était assez juste.

AL : Je pense qu’on est exactement au même endroit sur les réseaux sociaux, c’est-à-dire que quand on peut prendre l’exemple de l’algorithme de Twitter par exemple qui a été mis open source récemment et c’est un très bon exemple parce qu’il a ouvert les yeux de beaucoup de community managers. Jusqu’avant l’ouverture tout le monde pensait que mettre des liens qui sont intéressants, qui vont générer des conversations autour de contenus qui sont hors de la plateforme, c’était ce qu’il fallait faire pour être mis en avant etc. Puis Elon Musk ce qui est arrivé, moi je vais mettre l’algorithme open source, en effet il a tout publié sur GitHub, quelques détails de changement près, et puis là forcément on a commencé un petit peu à analyser l’algorithme de Twitter et là on s’est rendu compte qu’en fait publier un lien dans un tweet donne un score diminué de 30 fois par rapport à un tweet avec du simple texte. Et si dans ce tweet avec du simple texte on rajoute une image, on a un multiplicateur de x100 je pense en termes de portée. Donc là, juste en regardant ces deux faits là, on se rend compte que l’algorithme de Twitter, même si on a toujours considéré Twitter comme étant quelque chose d’assez positif etc. Donc on parle de quelque chose qui est arrivé avant Musk, on ne peut pas le tenir responsable pour ça. Twitter a été designé pour tenir les gens au sein de la plateforme, pour garder leur attention. Donc quand on met un lien externe, on va les faire sortir de la plateforme, on va perdre leur attention. Non, c’est pas bon. On va leur mettre une photo, ils vont ouvrir la photo, ils vont être contents, on va savoir un peu plus ce qu’ils aiment, on va pouvoir leur mettre de la publicité qui est plus relevante pour eux, et donc générer plus de clics.

Donc en fait ce temps de cerveau disponible qui était déjà existant dans la télévision a été déplacé maintenant dans les réseaux sociaux au sein de « on veut garder l’utilisateur le plus possible sur notre site web, dans notre univers, et donc on va tout faire pour le garder à l’intérieur en lui donnant du contenu qui va le faire rester. »

GK : Marc, pour rebondir sur ce que vient de dire Amaury, il y a eu une déclaration assez récente le mois dernier de Tristan Harris du Center for Human Technologies aux Etats-Unis qui s’est rendu célèbre notamment par la production d’un documentaire sur Netflix qui a été vu par quasiment 200 millions de personnes, « Derrière nos écrans de fumée » en français, « The Social Dilemma », et ils ont fait une présentation pour essayer de, en tout cas, appuyer sur pause, faire en sorte que l’industrie de l’intelligence artificielle appuie sur pause en disant « on a un combat de retard, on a perdu la guerre de la recommandation algorithmique, disent-il, il faut qu’on arrive à ne pas perdre celle de l’intelligence artificielle notamment ». Est-ce qu’on a une guerre de retard en s’intéressant aux recommandations algorithmiques ?

MF : Alors je pense qu’il est extrêmement pertinent aujourd’hui de regarder de très près ce qui se passe au niveau des IA génératives pour bien comprendre ce qui va se passer sur les réseaux sociaux dans le futur. Moi je pense qu’on peut très bien imaginer déjà une évolution du mode d’interaction et de la manière avec laquelle on va trouver du contenu sur internet. Donc on pourrait penser qu’on se retrouve avec des assistants qui vont remplacer les systèmes de recommandation et on va demander à l’assistant de nous trouver tel ou tel contenu sur la plateforme, c’est une première chose, mais aussi on va avoir de plus en plus du contenu qui va être généré par des intelligences artificielles qu’on va retrouver sur les plateformes. Donc à ce niveau-là aussi ça va être très pertinent et je pense qu’il faut continuer à s’intéresser au système de recommandation pour comprendre aussi quel type de contenu va émerger sur les plateformes.

La vidéo à laquelle vous faites référence, le AI dilemma je pense, la vidéo de Tristan Harris, en effet, capture bien ce programme, ce problème avec peut-être un côté en mon sens légèrement alarmiste, c’est-à-dire que moi je pense pas que le danger vienne de l’intelligence artificielle en elle-même qui va venir s’accaparer les ressources et éteindre l’humanité. Moi je suis personnellement beaucoup plus inquiet de l’usage que les humains vont faire de ces nouvelles technologies et pour moi le danger il est là, il est quand des acteurs avec des intentions malignes vont utiliser des IA génératives pour faire des campagnes de désinformation à bien plus grande échelle et avec une efficacité et une personnalisation bien plus fines qu’est ce qui était possible de faire par avant. Pour moi ils sont là les nouveaux risques en fait, plus qu’ils viennent encore une fois du facteur humain qui va être décuplé par les nouvelles possibilités offertes par la technologie.

NP : On parle effectivement d’algorithmes de recommandation de contenu sur des plateformes qui sont quand même on va pas se mentir beaucoup utilisées en Europe et aux Etats-Unis. On a eu aussi dans ce podcast, on a reçu des personnes qui luttent contre la désinformation notamment dans des pays d’Afrique francophone où notamment la désinformation se diffuse énormément sur WhatsApp, sur Telegram. Alors là on sort des algorithmes de recommandation mais est-ce que vous auriez vous des solutions à proposer pour lutter contre ce phénomène là de la désinformation qui circule à l’intérieur de messageries sécurisées, Lê Nguyen par exemple ?

LNH : Je pense que c’est malheureusement très très compliqué surtout sur des messageries chiffrées comme WhatsApp ou plus encore Signal. C’est très difficile d’avoir des interventions sur des discussions qui sont chiffrées donc qu’on ne connaît pas par défaut. Donc si il y a des informations et amplifiées massivement via ces réseaux ça va être malheureusement difficile de la combattre. Je pense qu’une des façons de combattre ça c’est encore une fois de s’appuyer sur l’information de qualité et par exemple recommander massivement via les autres plateformes et via les algorithmes de recommandation les contenus d’esprit critique pour faire de l’éducation et de la sensibilisation au risque de la désinformation et aux méthodes de la désinformation. Mais autrement que cette voie indirecte qui me paraît indispensable, malheureusement il faut bien se rendre compte que ce sera quelque chose de difficile.

GK : Amaury, une autre solution que la régulation et l’éducation en médias, est-ce que je sais pas on doit faire tomber les algorithmes de recommandation dans le domaine public et en faire des services publics qui sont régis par les états par exemple ? C’est une fausse bonne idée ça ?

AL : Juste pour répondre pour Whatsapp et Signal, je pense que la solution pour la politique contre la désinformation sur ces réseaux ne passe pas par une solution technique parce qu’il y a avant tout un droit à la vie privée et qu’elle passe vraiment par l’éducation aux médias et à l’information pour que les gens eux-mêmes prennent le réflexe de vérifier l’information.

Maintenant, est-ce que les algorithmes devraient devenir publics ? C’est une question … Non, je ne pense pas. Je pense que les gouvernements en tout cas à l’heure actuelle ne sont pas prêts à avoir cette charge, à endosser cette charge. Je pense qu’à l’heure actuelle il y a eu d’énormes problèmes dans les gouvernements en termes de gestion de données etc. J’ai encore plus confiance dans les sociétés privées que dans les gouvernements pour faire ce genre de choses. Maintenant je pense que les gouvernements ont à tenir le rôle de régulateurs, de vérificateurs et éventuellement de sanctionneurs sur les différentes plateformes. Chacun a sa place et les moutons sont bien gardés.

MF : Si je peux ajouter un petit point au niveau de la perspective de solution. Je pense qu’aujourd’hui on investit l’énergie humaine là où l’intelligence artificielle entre guillemets est assez limite et notamment dans la modération de contenu. C’est à dire qu’on dit les plateformes investissent beaucoup d’argent au finale parce que ça coûte cher dans les modérateurs qui vont identifier les contenus problématiques.

Là où j’aime beaucoup l’approche de Tournesol c’est qu’en fait on inverse le problème en disant au lieu de se concentrer sur arrêter de promouvoir ou de bloquer de l’information de mauvaise qualité est-ce qu’on peut pas plutôt se concentrer sur comment promouvoir de l’information de bonne qualité. Et je pense que c’est un paradigme complètement différent mais qui fait plus sens.

Et aujourd’hui il y a énormément d’attention à la fois au niveau des régulateurs mais même dans l’opinion publique sur les problèmes de modération de contenu alors qu’on parle très peu d’amplification algorithmique. On parle peu de quels sont au final les contenus qui sont promus à des millions d’utilisateurs et en fait il est là le problème pour moi. Le problème c’est pas d’essayer d’aller bloquer les messages qui circulent dans des groupes Whatsapp ou dans des groupes Signal qu’on pourra en fait jamais bloquer c’est à dire que les gens qui cherchent de l’information de mauvaise qualité et qui cherchent de la désinformation parce qu’ils cherchent à renforcer des opinions qu’ils ont déjà ils vont dans tous les cas trouver cette information. Pour moi c’est pas forcément la bonne bataille. La bonne bataille c’est comment est-ce qu’on peut promouvoir de l’information de qualité et aux gens qui n’ont rien demandé. En fait c’est sur les recommandations par défaut qu’il faut travailler.

NP : Et ce sera le mot de la fin. Merci à tous les trois donc on rappelle Lê Nguyên Hoang pour Tournesol app que vous pouvez retrouver sur internet tournesol.app si vous voulez contribuer. Marc Faddoul de AI forensics, aiforensics.org on mettra évidemment tous les liens relatifs aux initiatives dans la description de ce podcast. Et Amaury Lesplingart de Check First pour le projet Crossover.

GK : Merci à tous les trois pour la qualité de cette conversation. On se retrouve le mois prochain pour un nouvel épisode d’ODIL le Podcast.

MF : Merci et au revoir.

AL : Merci.

LNH : Merci.

Merci de nous avoir suivi ! Tous les épisodes sont disponibles dans votre lecteur de podcast favori. Odil, le podcast, c’est une collaboration entre l’Organisation internationale de la francophonie et Check First. Le site de la plateforme francophone des initiatives de lutte contre la désinformation est à retrouver sur odil.org, sur Twitter, @odilplateforme. *Musique*