Entretien

Retour sur le Forum de Paris sur la paix

Un entretien enregistré le 27 novembre 2023, publié le jeudi 30 novembre 2023

Retrouvez ce podcast sur

Retrouvez ici cet épisode et l’ensemble des deux saisons d’ODIL Le Podcast. Découvez aussi notre chaîne Youtube.

Dans cet épisode, nous allons revenir sur un événement qui s’est avéré important dans la lutte internationale contre la désinformation, le Forum de Paris sur la paix, auquel nos trois invités ont participé.

Durant l’édition 2023, qui a eu lieu les 10 et 11 novembre, plusieurs thématiques liées à la lutte contre la désinformation ont été discutées, comme la polarisation grandissante des sociétés, mais aussi la recherche de solutions pour garantir l’intégrité de l’information et bien sûr l’intelligence artificielle et sa facette IA générative, qui comporte des risques dans la création automatisée de désinformation.

Nos invités :

  • Carole Alsharabati, directrice de recherche chez Siren Associates et en charge du projet Dalil, une plateforme automatisée de vérification de faits dans la région Afrique du Nord et Moyen-Orient.
  • Bertrand Levant, chef de projet Lutte contre la désinformation au sein de l’Organisation internationale de la francophonie.
  • Sandra Petrovic, associée de projet au Centre pour le dialogue humanitaire (HD). Basée en Suisse, cette organisation à but non lucratif œuvre à la résolution des conflits armés dans le monde par la voie de la médiation et de la diplomatie discrète.

Liens :

——–

[Musique] ODIL Le Podcast, une production de la plateforme francophone de lutte contre la désinformation, une collaboration entre l’Organisation Internationale de la Francophonie et de CheckFirst. Avec Guillaume Kuster et Sophie Bonnevialle Chesneau. ODIL Le Podcast c’est une série d’entretien avec celles et ceux qui luttent contre la désinformation dans l’espace francophone. [Musique]

Guillaume Kuster : Bonjour et bienvenue c’est ODIL Le Podcast et pour ce nouvel épisode j’accueille Sophie pour m’accompagner. Bonjour Sophie.

Sophie Bonnevialle-Chesneau : Bonjour Guillaume, bonjour à tous.

GK : Dans cet épisode, nous allons revenir sur un événement qui s’est avéré important dans la lutte internationale contre la désinformation, je vous parle du Forum de Paris sur la paix, auquel nos trois invités ont participé, Sophie.

SBC : Effectivement, nos trois invités œuvrent au sein de trois institutions, l’une active dans la région Afrique du Nord et Moyen-Orient, l’autre basée en Suisse et active dans le monde entier, et enfin, une entité que vous connaissez bien, l’Organisation internationale de la francophonie. Passons aux présentations. Carole Alsharabati, vous êtes directrice de recherche chez Siren Associates. Vous avez développé le projet Dalil, qui est une plateforme automatisée de vérification de faits dans la région Afrique du Nord et Moyen-Orient. À vos côtés, Bertrand Levant, chef de projet Lutte contre la désinformation au sein de l’Organisation internationale de la francophonie. Vous nous parlerez du projet Lutte contre la désinformation de l’organisation et notamment de notre plateforme Odil. Et enfin, Sandra Petrovic, associée de projet au Centre pour le dialogue humanitaire. Basée en Suisse, cette organisation à but non lucratif, travaille à la résolution des conflits armés dans le monde par la voie de la médiation et de la diplomatie discrète. Bienvenue à tous les trois.

GK : Alors, on sort d’une séquence intense au Forum de Paris sur la paix, qui a réuni de nombreux chefs d’État, entre autres, des responsables d’organisations internationales, d’ONG, des capitaines d’industries et bien d’autres. Et plusieurs thématiques s’en sont dégagées, comme la polarisation grandissante des sociétés, qui préoccupe beaucoup en ce moment, mais également la recherche de solutions pour garantir l’intégrité de l’information. Et bien sûr, difficile d’éviter la question en ce moment, l’intelligence artificielle et sa facette IA générative, qui comporte des risques également dans la création automatisée de désinformation. Donc, j’aimerais commencer ce podcast en vous demandant ce que vous retenez de cette séquence du Forum de Paris. En commençant peut-être par vous, Carole.

Carole Alsharabati : Le Forum de Paris, pour moi, était un grand éclairage par rapport aux régulations, au Digital Services Act, à tout ce qui est en train de se faire aujourd’hui pour commencer à mettre de la gouvernance et des valeurs dans la communication et dans l’information. Et donc, je vois un peu notre rôle ici dans le support de cette gouvernance. J’ai aussi vu la lenteur dans les procédures régulatrices des institutions, et d’où l’importance de venir d’un point de vue technique, technologique, mais aussi de bas en haut par le bas, de soutenir un petit peu le support de l’information dans le sens de la contribution à la démocratie et aux valeurs démocratiques.

GK : Sandra Petrovic, beaucoup de sujets ont été traités lors de ce Forum de Paris sur la paix. Quels sont ceux qui vous sont restés en tête ?

Sandra Petrovic : Merci beaucoup. Alors, pour moi, ce qui était très important, c’est vraiment toutes les thématiques digitales, selon les projets sur lesquels on travaille. Ce qui est important de noter, c’est que ce Forum emmène ensemble beaucoup d’acteurs de différentes organisations, de différents secteurs, et c’est vraiment ça qui est très notable et très unique, je crois, dans le monde entier, parce que c’est vraiment, vous verrez dans le Forum, c’est des gens qui viennent vraiment des mondes très distincts. Et je crois, vraiment, pour combattre la désinformation, comme thématique, on ne peut pas travailler seul. Nous, par exemple, comme HT, comme ONG médiateur, on ne peut pas combattre la désinformation. Il faut vraiment un travail avec les organisations des sociétés civiles, avec les plateformes et beaucoup d’autres acteurs. Alors, vraiment, les forums comme le Forum de Paris sur la paix, c’est très important.

GK : Bertrand Levant, vous êtes intervenu sur scène pendant le Forum de Paris sur la paix. D’ailleurs, vous avez parlé des activités de l’OIF et de ODIL, entre autres. Même question à vous, qu’avez-vous retenu de cette séquence ?

Bertrand Levant : Merci pour la question. Et j’appuie totalement ce que vient de dire Sandra. Je crois qu’il ne faut pas se leurrer, on ne va pas se voiler la face non plus. On est quand même dans une situation qui est très pessimiste quand on regarde l’état du monde aujourd’hui. Le nombre de conflits qu’il y a, des conflits intenses, des conflits majeurs, on revient à des formes conventionnelles de conflits, doublés de menaces hybrides, avec la désinformation. Mais ce que le Forum de Paris pour la paix apporte, c’est une forme d’optimisme, de volonté.

GK : Je vais me permettre d’utiliser une petite analogie, puisque un des buts d’un forum, quel qu’il soit, mais particulièrement celui de Paris, est de se faire rencontrer physiquement des acteurs qui habituellement ne se verraient pas, ou moins, et de forcer un dialogue ou de créer les conditions de ce dialogue. L’analogie que je veux faire, c’est que c’est précisément ce que le Centre pour le dialogue humanitaire essaye de faire, en faisant en sorte que des parties qui pourraient être émettrices de désinformation puissent être atteintes physiquement, mises autour d’une table et commencent à discuter. C’est ça l’esprit de votre initiative ?

SP : Oui, exactement. Alors, vraiment, l’esprit, c’est de faciliter ce dialogue entre toutes les parties dans un conflit. Et notre équipe, en particulier, on travaille pour minimiser l’impact des réseaux sociaux et le contenu sur ces réseaux sociaux, notamment la désinformation, sur les conflits et les processus de paix. Alors, notre idée, vraiment, c’est de dire que si nous faisons de la médiation entre les parties à la guerre pour restreindre leur comportement hors ligne, pourquoi ne pas faire de même pour leur comportement en ligne. Alors, vraiment, dans les trois dernières années, nous avons créé cette équipe qui se base sur les réseaux sociaux, sur la cybermédiation et aussi l’intelligence artificielle. Et nous, en tant que notre équipe, on a vraiment facilité six accords pour les réseaux sociaux avec les acteurs-clefs politiques. Et aussi, on a fourni d’autres formes de soutien, notamment formation et le suivi des accords. Et ces accords étaient facilités au niveau plus haut, comme avec les acteurs politiques, les leaders politiques, ou bien on a facilité d’autres accords avec les influenceurs à l’échelle locale. Et on a fait ces projets dans des pays divers, comme l’Indonésie, le Nigéria, la Bosnie-Herzégovine et la Thaïlande.

GK : L’aspect très international que vous rappelez me fait rebondir par rapport à la remarque de Carole tout à l’heure sur la prise de conscience que le Forum de Paris sur la paix a été pour elle, sur l’état de la réglementation dans le monde, le côté peut-être un peu avant-gardiste de l’Union européenne qui est effectivement un Digital Services Act, mais c’est vrai qu’en tant qu’Européens, on a tendance à vivre dans cette bulle-là et à sans se rendre compte que ça n’existe pas ailleurs dans le monde. Comment est-ce que vous, à Siren, vous réfléchissez à ce genre de questions-là quand il s’agit de monter des projets de lutte contre la désinformation par rapport à ce que vous avez vu à Paris ?

CA : En ce qui nous concerne, en fait je voudrais aussi surenchérir sur cette idée de multidimensionnalité des accords du Paris Peace Forum, parce que pour nous, c’était très intéressant de voir la désinformation sous différents angles, de l’angle des journalistes, de l’angle des organisations qui travaillent pour le dialogue, de l’angle des décideurs, de l’angle des chercheurs et de l’angle des fact-checkers, et aussi de l’angle des différents pays. Je sais qu’avec l’OIF aussi, on a vu tous les pays d’Afrique francophone, comment ils fonctionnaient et qu’est-ce qu’ils faisaient. Maintenant, de notre côté, nous avons pris l’approche d’utiliser la technologie pour combattre la désinformation, et l’idée ici, c’est de retourner cette utilisation technologique contre elle-même, parce que finalement, la désinformation a été accélérée par la technologie. La propagande a toujours existé dans les guerres, dans le passé, mais elle a toujours été minimale, parce que la capacité de dissémination n’a pas la même amplitude que de nos jours. De nos jours, avec un bouton, un clic d’un bouton, on peut disséminer d’une manière massive une fausse information. Donc, ce qu’on a voulu faire, c’est réutiliser cette capacité pour combattre la désinformation, donc retourner un petit peu le même outil dans un sens constructif. Et là, on s’est dit qu’on allait ramasser toutes les capacités d’utilisation de rapidité informatique, d’intelligence artificielle, de dissémination en ligne et de synchronisation entre les différents acteurs en ligne pour pouvoir détecter les informations qui ne sont pas objectives et essayer de les désamorcer, désamorcer cette subjectivité et cette falsification d’informations et essayer d’aller à l’encontre de la dissémination. Et c’est ce que Dalil fait. Dalil est une plateforme qui réunit en un one-stop-shop les différents outils de détection de désinformation, que ce soit des images, des vidéos ou des textes multilingues, et qui permet aussi aux fact-checkers dans les différents pays de coordonner, de synchroniser et de développer des synergies entre eux. Et là, on va aussi vers une capacité de dissémination des résultats de leur travail.

SBC : Carole, vous évoquiez à l’instant cette notion de développer des synergies, de collaboration, de communauté. Ça, c’est quelque chose que l’on fait chez Odil et au sein de l’OIF dans le cadre du projet de lutte contre la désinformation Bertrand ?

BL : Absolument. L’objectif du projet de lutte contre la désinformation partait d’un constat, c’est-à-dire que les acteurs de lutte contre la désinformation dans tout l’espace francophone ont des besoins importants et parfois plus importants que d’autres acteurs dans le monde, notamment parce qu’il faut constater que le monde de la lutte contre la désinformation et de la vérification des faits reste souvent cantonné à des solutions occidentales ou du monde anglo-saxon. Et donc, le constat à la naissance du projet de lutte contre la désinformation, c’était d’essayer d’apporter une réponse francophone aux besoins de terrain de ces initiatives et de permettre notamment qu’elles se renforcent elles-mêmes et aussi de les valoriser à l’international. Et c’est tout l’objectif de la plateforme Odil qui permet de valoriser ces initiatives. Il y en a plus d’une centaine aujourd’hui, de les valoriser à l’international et de leur permettre de coopérer dans l’objectif de les renforcer mutuellement. Et donc, c’est à ces égards-là que nous avons lancé, il y a deux ans maintenant, les appels à projets de jumelage, de partenariat entre initiatives francophones de lutte contre la désinformation pour leur permettre de travailler ensemble sur des besoins qu’elles identifient elles-mêmes. Et nous apportons un appui pour qu’elles puissent partager leurs compétences et renforcer leurs capacités au bénéfice de la lutte contre la désinformation sur le terrain, dans les différents Etats et gouvernements membres de la francophonie. Merci, Bertrand.

GK : Sandra Petrovic, je reviens vers vous, puisque vous aviez commencé à évoquer des exemples de travail sur le terrain que fait le Centre pour le dialogue humanitaire. Bertrand Levant vient de parler des financements que l’OIF met à disposition précisément pour développer des actions de terrain. Quels sont quelques-uns de ces exemples que vous pouvez nous donner du côté du CHD ?

SP : Oui, bien sûr. Alors, je vais peut-être premièrement parler de notre accord le plus récent. C’était en Thaïlande. Et là, nous avons réuni les 30 partis politiques clefs pour signer une annexe sur les réseaux sociaux qui était accompagnée d’un code de conduite pour les élections en général. Et, bon, c’était signé par ces 30 partis politiques clefs au niveau national en vue des élections en mai 2023. Et c’est engagé les candidats à promouvoir leur utilisation responsable des réseaux sociaux pendant la campagne électorale et la période postélectorale. Et après que ces accords étaient signés, on avait mis en place un mécanisme pour surveiller cet accord avec une équipe sur place en Thaïlande. Et ce que je veux souligner ici, parce que vous avez aussi évoqué les outils d’intelligence artificielle, ce qui était unique dans ce mécanisme, c’est qu’on a utilisé des mécanismes manuels et automatiques pour monitorer des millions de posts sur les réseaux sociaux et des milliards de comptes. Alors, c’était vraiment un système très sophistiqué. Et on a pris toutes ces données et ça a vraiment informé notre approche en Thaïlande. On est allé plus loin dans la médiation et la facilitation des dialogues qu’on fait dans ce pays-là. Mais je voulais aussi peut-être toucher sur notre travail en Bosnie-Herzégovine parce qu’enfin, là, on a vraiment pris une approche assez différente. Alors, lorsque en Thaïlande, c’était vraiment haut niveau avec les leaders des partis politiques en Bosnie-Herzégovine, on a adopté une approche de démocratie délibérative où on a réuni 50 citoyens sélectionnés de manière aléatoire pour garantir un échantillon représentatif de la population au niveau national. Et ces citoyens-là ont rédigé ensemble des normes pour l’utilisation responsable des réseaux sociaux pendant la période électorale en 2022. Et après que ces citoyens-là ont fait eux-mêmes ces normes, nous, on a engagé directement les partis politiques pour les encourager à signer une déclaration de soutien à ces normes dirigées par les citoyens. Alors, vous pouvez vraiment voir des approches assez différentes et avec le but de mettre en place des normes de réseaux sociaux en dialogue avec des acteurs différents.

GK : Merci. Alors, je rappelle que tout ce dont on parle dans le podcast sera évidemment disponible dans les notes d’épisodes dans votre application de lecture de podcast, que ce soit Dalil, Odil évidemment, et puis les projets dont vient de parler Sandra. Je rebondis sur cette notion d’implication des citoyens parce qu’on est quasiment à cheval sur l’éducation aux médias et puis l’action en politique publique quand on implique les responsables politiques. On sait que l’éducation aux médias, c’est quelque chose qui nous tient à cœur au sein d’ODIL, mais avant de redonner la parole à Bertrand, j’aimerais avoir le sentiment de Carole sur cette question-là de la nécessité d’éduquer les populations à savoir utiliser les réseaux sociaux. C’est une question sur laquelle vous êtes sensible également.

CA : Oui, on a eu une expérience intéressante sur Dalil parce qu’initialement, on a commencé par concevoir la plateforme pour les fact-checkers dans différents pays dans le monde arabe et en dehors. Et on a eu des fact-checkers d’une quinzaine de pays qui ont commencé à utiliser cette plateforme pour vérifier les informations. Mais ce qu’on a constaté, c’est que c’est une petite communauté finalement et que le fact-checking en soi ne va pas nécessairement contrer cette dissémination massive de mésinformation. Une mauvaise information peut être disséminée sur des centaines de millions de lecteurs et d’audiences, mais la vérification de cette information ne va pas nécessairement aller rejoindre la même audience qui a été ciblée dans l’information initiale. Donc, ce qu’on a voulu, ce qu’on a pensé, c’est que finalement, il faut aller un pas plus loin. C’est qu’essayer de mettre ces outils à la disposition du citoyen, lui-même. Chaque citoyen doit devenir lui-même un fact-checker. Chaque citoyen, quand il lit les informations, il doit savoir comment réfléchir, à quel moment il doit vérifier, garder son esprit critique et avoir à sa disposition des outils simples et intuitifs qui lui permettent de vérifier ou de benchmarker cette information pour voir quoi en faire. Donc là, on va dans un autre niveau. Ça devient plus un niveau d’awareness, d’éducation et d’outils à la disposition de chaque individu qui sache lui-même voir comment procéder avant d’absorber cette information.

SBC : Dans ce contexte de monde polarisé, comme évoqué au Forum, on comprend l’importance de l’éducation aux médias et à l’information. Bertrand, l’éducation aux médias et à l’information, c’est un point clef, un point nécessaire dans la lutte contre la désinformation. Est-ce que vous pouvez me donner votre avis sur cette question ?

BL : Absolument. J’appuie ce qu’a dit Carole et ainsi que Sandra. Je crois qu’il est important, tant sur l’aspect développement de l’esprit critique, de l’éducation aux médias et à l’information des citoyens, mais aussi le travail à faire en amont d’événements politiques comme les élections qui peuvent être génératrices de tensions et de désinformation, l’enjeu de la prévention est crucial. Il est crucial pour prévenir la polarisation, pour préserver la cohésion sociale, mais aussi parce que ces éléments-là sont… Il faut garder en tête que le fait de renforcer le développement de l’esprit critique des citoyens, le fait de rassembler les acteurs politiques et les amener à essayer d’adopter des comportements vertueux dans l’usage des réseaux sociaux à des fins de communication politique, tous ces éléments-là préservent d’une certaine manière les droits fondamentaux. Lorsqu’on a parlé plus tôt des enjeux de régulation des plateformes numériques, des efforts qui sont faits au niveau européen, mais aussi qui sont discutés dans d’autres enceintes internationales, il y a quand même un point crucial qui est important à mentionner, c’est la préservation de la liberté d’expression dans les efforts de régulation des plateformes numériques, parce que s’il y a des effets négatifs de l’utilisation de ces réseaux, il y a aussi beaucoup d’effets positifs et ça permet de connecter les gens et de pouvoir s’exprimer. Et donc, l’éducation aux médias et à l’information, la meilleure des régulations que l’on peut imaginer, c’est celle qu’on se donne à soi-même, et donc permettre aux citoyens d’avoir la distance critique nécessaire par rapport à l’information qui circule en ligne et d’adopter le comportement adéquat est la meilleure manière de pouvoir aussi avoir une régulation sur ce qui circule sur les plateformes numériques. Et donc, à l’OIF, effectivement, l’éducation aux médias et à l’information est un axe essentiel du projet de lutte contre la désinformation à côté du soutien aux médias et à la vérification des faits, au renforcement des politiques publiques ainsi que de la recherche. Et donc, c’est une des recommandations premières d’un rapport, d’ailleurs, que je mentionne ici, qui a été réalisé sur une étude comparative des politiques publiques développées en matière de lutte contre la désinformation dans l’espace francophone, qui mentionne qu’il y a un besoin urgent de développer dans les politiques publiques l’éducation aux médias et à l’information, notamment le développement dans les cursus scolaires et dans les programmes scolaires. Il y a des expériences assez avancées dans l’espace francophone dont d’autres États pourraient s’inspirer. Et puis, par ailleurs, évidemment, il faut pouvoir soutenir sur le terrain les efforts des acteurs locaux, de la société civile ou des acteurs institutionnels en matière d’éducation aux médias et à l’information. Là, très récemment, en amont des élections présidentielles qui se tiendront en République démocratique du Congo, nous avons appuyé le renforcement des capacités des clubs RFI, de RDC, pour qu’ils puissent développer leurs propres activités d’éducation aux médias et à l’information dans une optique de prévention des effets néfastes de la désinformation en période électorale.

GK : D’ailleurs, je rappelle qu’on a consacré un podcast entier à ces questions d’éducation aux médias, avec notamment des exemples depuis la Finlande, du Québec et de RDC, dont le lien se trouve dans les notes d’épisode. Il y a ce côté double-face, côté pile et côté face des technologies, que ce soit pour les réseaux sociaux qui permettent à la fois des choses qui n’étaient pas permises auparavant, une circulation extrêmement rapide de l’information. Et d’ailleurs, pour la petite histoire, on peut rappeler qu’ODIL est né des suites de la pandémie de cette jetée sur les plateformes de discussion, puisqu’on était plus ou moins confinés. Et tout d’un coup, il y a eu une accélération de la communication internationale dans la lutte contre la désinformation. Et ODIL a été une des suites de ça, simultanément à la volonté de l’OIF de s’intéresser de près à ces questions-là. Ce qui nous amène aussi à la question de l’intelligence artificielle et à son côté pile et face. Sandra, vous parliez d’un côté positif de l’utilisation de l’intelligence artificielle, dans l’exemple thaïlandais que vous citiez tout à l’heure. Le Forum pour la paix a également beaucoup parlé des aspects inquiétants de l’IA, et notamment de son côté, IA générative, qui peut automatiser à un coût extrêmement faible la création d’énormes quantités de désinformation. Est-ce que ce sont des choses dont vous vous êtes inquiète aujourd’hui, Sandra ? Ou est-ce que vous pensez qu’on peut trouver des moyens, par le dialogue, d’arriver à une canalisation de ce risque-là ?

SP : Merci, oui, on est très inquiets à propos de l’intelligence artificielle générative, parce que ça donne vraiment un autre outil pour alimenter la division, pour propager la désinformation, de la désinformation qu’on n’a pas vu jusqu’à maintenant, et aussi de la démocratiser, parce que maintenant, vraiment n’importe qui, sans compétence en programmation, peut créer des millions de variants de messages, de créer des fausses images et des vidéos. Et après, on voit aussi l’utilisation de l’intelligence artificielle dans le conflit israélo-palestinien. C’est vraiment utilisé aussi par les activistes pour solliciter plus de soutien et aussi donner l’impression de plus de soutien en faveur d’un côté particulier en comparaison d’un autre. Cependant, c’est important aussi de préciser qu’on est dans les premiers jours de l’évaluation des effets de l’intelligence artificielle générative. Et il y a des tactiques de désinformation, disons plus traditionnelles, qui continuent d’être populaires : re-soutitrer des images prises dans des conflits et des contextes différents, de les attribuer d’une manière trompeuse, d’attribuer des images de jeux vidéo à des conflits réels. Et c’est vraiment ce forme de désinformation qui continue d’être le plus souvent. Mais enfin, avec l’intelligence artificielle, on peut voir cette forme de désinformation qui devient de plus en plus utilisée. Et ça peut mener à différents types de risques qu’on voit avec la désinformation en général. Alors, ça peut être de décourager les participants à s’engager dans les négociations, de rendre les négociations plus difficiles, d’éroder la confiance dans les institutions qui dirigent les processus de paix, ou le soutien du public à la paix à provoquer les épisodes de violence physique. Et on peut aller plus loin et plus loin. Alors oui, c’est une dynamique qui nous inquiète.

GK : Carole, j’aimerais avoir votre regard sur cette question de l’IA générative et de son rôle dans la propagation des contenus de désinformation. Qu’est-ce que vous en pensez ?

CA : Tout est pile et face. Même avec les humains, c’est pile et face. C’est-à-dire, il y a des fact-checkers pile, il y a des fact-checkers face. Il y a des fact-checkers qui font du fact-checking, il y a des fact-checkers qui font de la désinformation. Il faut fact-checker les fact-checkers. Donc, je pense qu’il ne faut pas avoir peur de la technologie qui se développe. Elle se développe à l’image de nos pratiques humaines qui peuvent aller dans un sens et dans l’autre. Donc, tout comme il y a des IA qui vont être utilisées pour fabriquer des voix et des films, on peut faire des IA qui détectent la fabrication des voix et des films. Donc, je pense que c’est marrant, mais on peut revenir finalement. La clef de tout ça, c’est quelque part la réflexion critique et les valeurs. Et quoi qu’on fasse, c’est avec ça qu’on va pouvoir orienter le plus les choses dans un sens et dans l’autre. Donc, on a beau avoir de l’intelligence artificielle, de la mécanisation des machines, de la computerisation, etc. Il reste qu’il y a un élément humain dans les valeurs et dans la réflexion critique qui reste important comme fondement de la direction dans laquelle on va. L’IA, elle va faire ce qu’on veut en faire. Qui sont les ingénieurs aujourd’hui qui développent de l’IA ? Quelles sont leurs formations ? Qu’est-ce qu’ils apprennent ? Qu’est-ce qu’on essaye d’inculquer à l’intérieur de leur information ? C’est très intéressant. Maintenant, on doit aller vers une révolution dans les formations académiques aussi. Je vois que les facultés d’ingénierie ne peuvent pas uniquement apprendre des technologies, des moyens techniques, des maths et des sciences. Il y a des éléments supplémentaires à mettre dans ces formations aujourd’hui pour que cet ingénieur qui se forme sache aussi l’ampleur de ce qu’il produit et l’impact de ce qu’il produit et qu’il réfléchisse autrement.

GK : Vous soulevez beaucoup de questions extrêmement intéressantes sur la représentativité de l’intégralité de l’humanité dans les jeux de données qui sont utilisés pour l’entraînement des intelligences artificielles, le fait que ça reste effectivement un monde extrêmement masculin, blanc, et de l’hémisphère nord qui développe ces solutions-là aujourd’hui. Donc, on peut effectivement répondre à votre invitation de réfléchir à ces questions-là et aussi à ces régulations, comme ça commence à être le cas aux États-Unis avec l’executive order de Joe Biden sur l’intelligence artificielle, comme un texte en préparation de l’Union européenne sur la régulation de l’IA. Bertrand, je vais vous demander un double exercice, qui est de nous donner vos sentiments et vos craintes ou vos espérances sur cette utilisation de l’IA, mais aussi de nous donner votre réflexion et peut-être ce qui vous donne le plus d’espoir après avoir assisté à ce forum de Paris sur la paix.

BL : Le sentiment là-dessus, je pense que ça a été dit par Sandra, c’est qu’on n’a pas encore assez de recul pour pouvoir aussi analyser un impact objectif de l’intelligence artificielle générative sur la désinformation. On voit qu’il y a quand même des éléments qui sont là, donc c’est un facteur évidemment d’inquiétude et auquel on prête attention. L’objectif de la francophonie, et là je reviendrai sur ce que vous avez mentionné, Guillaume, et ce que Carole aussi a mentionné, c’est-à-dire la question des valeurs et de la représentativité. D’une part, je trouvais très intéressant ce que Carole mentionnait dans la dimension de formation, mais c’est de pouvoir aussi, dans toute évolution technologique, garder l’éthique qui doit nous rassembler. Et là-dessus, évidemment, la francophonie est une organisation qui défend la promotion des droits de l’homme, qui défend la promotion de la diversité culturelle, et donc dans tous les développements technologiques, il faut prendre en considération ces éléments-là, et même dans le développement de l’intelligence artificielle, la question des droits de l’homme et de la diversité culturelle doit être prise en compte. C’est un élément, justement, de plaidoyer de la francophonie aussi au niveau international, afin que, sur un autre sujet que la désinformation, mais sur la question de la découvrabilité, on puisse aussi prendre en considération l’enjeu de la diversité culturelle dans le développement des modèles algorithmiques. Mais par ailleurs, sur la question de la régulation et des débats mondiaux, notamment ceux sur l’intelligence artificielle qui pourrait nuire à la cohésion sociale, à la protection des droits de l’homme, à l’intégrité des processus démocratiques, il est important de considérer l’ensemble des expériences et des contextes mondiaux, et c’est un rôle que l’OIF a à cœur de réaliser, c’est de permettre que toutes les réalités, toutes les expertises et les expériences puissent être connues et prises en considération dans les débats mondiaux. Nous l’avons fait récemment à l’occasion des réflexions qui ont eu lieu au sein de l’UNESCO sur l’adoption des principes de gouvernance des plateformes numériques qui ont été adoptés là très récemment, puisque nous avions organisé une table ronde francophone permettant de croiser les regards d’une diversité d’acteurs francophones sur cette question-là, et nous allons le faire là aussi en ce moment sur l’élaboration et l’amélioration du Code de conduite des Nations Unies pour l’intégrité de l’information sur les plateformes numériques. Il est vraiment crucial dans les échanges sur l’intelligence artificielle, mais sur toutes les évolutions technologiques qui peuvent impacter le respect des droits de l’homme dans le monde, de prendre en considération l’ensemble des points de vue, y compris les points de vue des pays dans lesquels il y a des crises et des conflits, puisqu’on sait que c’est dans ces pays-là que la désinformation a tendance à circuler le plus. Donc c’est d’autant plus une responsabilité mondiale de prendre en considération ces réalités-là.

GK : Sandra, vous, de votre côté, après le Forum de Paris sur la paix, qu’est-ce qui vous donne espoir ? SP : Ce qui me donne espoir, c’est vraiment de voir d’autres organisations qui aussi font des différents efforts pour lutter contre la désinformation et aussi promouvoir la paix avec différentes approches. Et peut-être pour mentionner que à HD, on évoque fréquemment ce qu’on appelle la « disinformation supply chain », c’est-à-dire la chaîne d’approvisionnement de la désinformation, je crois. Et là, en constatant que la désinformation circule à différentes étapes, alors il y a la production, la distribution et la consommation. Et pour combattre la désinformation, il est essentiel d’intervenir à toutes ces étapes. Alors on voit qu’avec les projets qui font du fact-checking, ils vraiment interviennent là à la distribution avec les initiatives qui travaillent sur la littératie digitale et littératie des médias. C’est vraiment là la consommation pour s’assurer que les citoyens vraiment peuvent voir ce que c’est la désinformation et ce que c’est l’information véritable. Nous, ce qu’on fait, c’est vraiment là sur la partie de production. Alors d’engager les producteurs de cette désinformation pour qu’ils réduisent la quantité ou de prévenir la production de désinformation de leur part. Mais je veux vraiment souligner que c’est vraiment important d’avoir une approche qui tient toutes ces étapes en compte. Alors ce qui me donne l’espoir, c’est de voir d’autres projets qui travaillent sur les différentes étapes là. Bon, nous, on travaille alors à la production, mais après, les autres projets ici sur le podcast, ils travaillent sur ces autres étapes là. Alors c’est vraiment avec cette approche, avec tous nos efforts qu’on peut vraiment combattre, je crois, cette propagation de désinformation dans notre monde moderne.

GK : Cette notion d’étude de la chaîne d’approvisionnement de la désinformation est très intéressante puisqu’on a pu se rendre compte aussi, notamment lors d’enquêtes qui ont été menées à Check First, d’une économie parallèle qui existe d’entreprises qui se spécialisent, qui dans la dissémination de désinformation, d’autres dans la production, d’autres dans le recrutement de personnes pivots qui vont permettre de faire circuler cette désinformation-là et qu’elles travaillent à la demande, parfois, soit pour ce qu’on appelle des scammers, des arnaqueurs, soit pour des gouvernements qui mènent une campagne d’influence, soit par des entités qui souhaitent diffuser un certain type de désinformation. Donc, c’est effectivement des sujets passionnants et qui montrent aussi l’organisation de ces économies-là qui, parfois, quand on regarde la désinformation, on peut avoir un côté naïf en se disant bon, ben voilà, il y a un intérêt, donc c’est signé et c’est forcément eux en désignant un acteur particulier, mais il y a énormément d’acteurs qui sont intégrés dans ces opérations qui sont à grande échelle, parfois. Carole, pour conclure ce podcast, quelles sont vos notes d’espoir ? On est perdus ou il y a encore une chance ?

CA : Pour revenir sur par quoi on avait commencé ce Paris Peace Forum, on a ramené des acteurs très différents, de différents niveaux. Il est multidimensionnel par les acteurs qui y ont contribué. Il est aussi multidimensionnel par les disciplines. Mais ce qui est très intéressant, ce qu’on a vu dans ce Paris Peace Forum, que les jeunes ont un rôle assez important maintenant dans la diplomatie planétaire, si je peux appeler ça. Elle se décentralise quelque part. Elle devient à la portée de tout le monde, à la portée du citoyen, à la portée des jeunes. Et je pense qu’il y a un potentiel et signe d’espoir incroyable. La technologie, c’est aussi les jeunes, c’est aussi des « fresh graduates » qui sortent de l’université. On peut influencer cela dans les formations universitaires, rapporter des formations sur l’économique et le social et le politique à l’intérieur de ces formations universitaires. Et les jeunes aussi, c’est une réflexion idéaliste. Je pense que les nouvelles générations ont de l’idéalisme qui est incroyable et qui est aux antipodes de ce qu’on a vu dans la Première et la Deuxième Guerres mondiales et ce qu’on a vécu après. Et je pense qu’il y a beaucoup d’espoir que cet idéalisme se manifeste dans des mécanismes qui vont redresser les biais et les tendances à la désinformation assez rapidement.

GK : Bertrand, je vais vous voyais réagir.

BL : Oui, je n’ai pas eu l’occasion de partager ma note d’espoir. Je ne voulais pas donner l’impression que j’étais totalement désespéré. Non, je voulais simplement… Comme Carole l’a mentionné, et aussi dans la continuité de ce que Sandra a évoqué, je crois que le Forum de Paris sur la paix, mais aussi l’atelier de valorisation des jumelages qu’on a organisé dans le sillage de ce forum, a montré deux choses. C’est l’extrême dynamisme de la jeunesse, pour appuyer ce que disait Carole, dans tout l’espace, notamment francophone, qui souhaite s’investir sur des questions de lutte contre la désinformation. Et parallèlement à ça, la volonté de coopération de tous ces acteurs ensemble. Et je pense que cette coopération-là, qui se matérialise notamment par ce podcast aujourd’hui, des trois initiatives francophones qui ont été sélectionnées dans le cadre du Forum de Paris sur la paix, voilà, on remarque qu’il y a une vraie volonté de coopération, de reconnaissance mutuelle des talents, des expertises, et que toute la mise en commun de ces expertises, ces talents, permet d’apporter des réponses, pas à tous les problèmes, mais en tous cas de s’attaquer à certains d’entre eux. Et je pense que c’est la note d’espoir que ce Forum de Paris sur la paix a montré cette volonté de coopération, et notamment de la jeunesse francophone.

GK : Merci pour ces mots d’espoir à tous les trois. Carole Alsharabati de Dalil et Siren Associates, Bertrand Levant de l’Organisation internationale de la francophonie et Sandra Petrovic du Centre pour le dialogue humanitaire. On se retrouve pour un prochain podcast. Merci encore à tous les trois.

Ensemble : Merci. Merci. Merci à tous et à bientôt.

Merci de nous avoir suivis. Tous les épisodes sont disponibles dans votre lecteur de podcast favori. Odil le podcast est une collaboration entre l’Organisation internationale de la francophonie et Check First. Le site de la plateforme francophone des initiatives de lutte contre la désinformation est à retrouver sur odil.org, sur Twitter @OdilPlateforme et sur Facebook.