Règlement 2022/2065

Informations générales

Type de norme : Droit UE

Date d'adoption : 19/10/2022

Entrée en vigueur : 25/08/2023

Consulter le texte officiel


Type de réponse

  • Institutionnelle
  • Régulation

Description de la politique publique

Les articles 34 et 35 mettent en œuvre une politique de responsabilisation des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne en leur imposant des obligations supplémentaires en cas de risque systémique dont fait partie la désinformation.

Le 26 avril 2024, la Commission européenne a publié des lignes directrices relatives aux risques systémiques en application de l’article 35.3 du RSN.

Résumé des lignes directrices :

Les processus internes devraient être renforcés (§18) (le cas échéant en tenant compte des particularités locales et des informations propres à chaque Etat membre (§20)) : constitution d’équipes spécialisées avant chaque période électorale (§22), l’indication dans les CGU des ressources et mesures prises et leur durée de mise en place (§23), l’identification et la mise à disposition d’informations, analyses et données pertinentes pour la conception et le calibrage des mesures (informations sur les partis politiques, candidats, programmes, etc) (§19). De manière générale, les fournisseurs devraient prendre en considération la présence d’acteurs politiques sur leurs services, les discussions sur leurs espaces, l’utilisation de ces derniers dans le contexte électoral, le nombre d’utilisateurs dans les États membres où une élection se tient et les cas antérieurs de manipulation de l’information (§18).

Les mesures d’atténuation des risques pour les processus électoraux devraient s’appuyer sur les normes sectorielles existantes (§26).

Les mesures spécifiques devraient concerner les domaines tels que l’accès aux informations officielles sur le processus électoral (§27),les initiatives en matière d’éducation aux médias, les mesures visant à fournir aux utilisateurs davantage d’informations contextuelles (marquage, incitation à lire des contenus avant de les partager, indication des comptes officiels, etc), les systèmes de recommandation, la publicité à caractère politique, les influenceurs, la démonétisation des contenus de désinformation, l’intégrité des services.

La Commission encourage également le contrôle et la recherche des mesures d’atténuation par des tiers ainsi que leur accès aux données (§29 et s).

Les mesures d’atténuation des risques doivent être prises dans le respect des droits fondamentaux (liberté d’expression et d’information en tenant également compte de l’impact des mesures visant à lutter contre les contenus illicites (§34). A cet égard, les fournisseurs sont invités à mettre à la disposition des organisations de la société civile leurs analyses d’impact (§35).

La Commission envisage également des mesures spécifiques d’atténuation liée à l’IA générative et évoque pour ce faire le règlement IA qui peut servir de base à ces mesures (étiquetage des hypertrucages, marquage, etc) (§36-42).

Les lignes directrices insistent en outre sur la nécessité de coopérer avec les autorités nationales, les experts indépendants et les organisations de la société civile (§43-50).

Enfin, certaines recommandations portent plus spécifiquement sur les mesures pouvant être prises pendant (§51-58) et après une période d’élections (§59-62), de même que dans le cadre des élections au Parlement européen (§63-70).

Compte tenu de “l’environnement très mouvant” dans lequel opèrent les fournisseurs visés par l’article 35 du RSN, les lignes directrices pourront être amenées à évoluer (§77-78).

Description des lignes directrices :

Ces lignes directrices sont prises en application de l’article 35.3 du RSN (atténuation des risques systémiques) qui prévoit la possibilité pour la Commission, en coopération avec les coordinateurs pour les services numériques, d’en publier en rapport avec des risques spécifiques, en l’espèce les processus électoraux, en vue notamment d’exposer de bonnes pratiques et de recommander des mesures d’atténuation.

Le champ d’application des articles 34 et 35 du RSN, et par conséquent, de ces lignes directrices, peut être en réalité plus large que le texte ne le prévoit.

S’agissant des processus électoraux, sont visés les scrutins nationaux, les élections au Parlement européen, les mesures d’atténuation devant concerner les périodes préélectorales, électorales et postélectorales. Les élections ou référendums régionaux et locaux sont également concernés par ces mesures si les évaluations des risques mettent en lumière l’existence d’effets négatifs réels ou prévisibles sur ces processus électoraux.

Ces lignes directrices peuvent servir de “sources d’inspiration”, d’une part pour les fournisseurs de plateformes en ligne et de moteurs de recherche qui n’ont pas été désignés comme de très grands fournisseurs par la Commission européenne, d’autre part pour la recherche et l’analyse de l’efficacité des mesures d’atténuation et des bonnes pratiques prises dans le cadre des processus électoraux.

Bien que réservées aux processus électoraux “en général”, les mesures et bonnes pratiques mises en application dans ce cadre peuvent être maintenues afin de “protéger le débat public en-dehors de ce cadre”.

Mise en œuvre du RSN :

La loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN) met en œuvre le RSN en droit interne en modifiant plusieurs textes existants.

En tant que PTOM, la Nouvelle-Calédonie n’est pas automatiquement soumis au droit européen. Les PTOM et l’UE sont en effet liés par un partenariat révisé en 2013.

Si en principe la Nouvelle-Calédonie n’est pas soumise au RSN, la loi SREN qui le met en œuvre en droit français précise que certaines de ses dispositions peuvent s’étendre sous conditions au PTOM.

Art. 63
I – Dans les conditions prévues à l’article 38 de la Constitution, le Gouvernement est autorisé à prendre par voie d’ordonnance toutes mesures relevant du domaine de la loi afin :
(…)
2° D’étendre l’application des dispositions de la présente loi, avec les adaptations nécessaires, en Nouvelle-Calédonie, en Polynésie française et dans les îles Wallis et Futuna, pour celles de ces dispositions qui relèvent de la compétence de l’Etat ;
3° De rendre applicables en Nouvelle-Calédonie, en Polynésie française, dans les îles Wallis et Futuna, à Saint-Barthélemy et à Saint-Pierre-et-Miquelon, avec les adaptations nécessaires, dans les matières relevant de la compétence de l’Etat, les dispositions (…) du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques).
II – L’ordonnance prévue au I est prise dans un délai de six mois à compter de la promulgation de la présente loi. Un projet de loi de ratification est déposé devant le Parlement dans un délai de trois mois à compter de la publication de l’ordonnance.

Par conséquent, les dispositions introduites par la loi SREN sont susceptibles de s’appliquer en Nouvelle-Calédonie.

L’ARCOM, désignée autorité compétente aux côtés de la CNIL et de la DGCCRF, est également coordinateur des services numériques (article 7 de la LCEN). Elle peut mettre en demeure des opérateurs de retirer sous 72 heures des contenus provenant de médias étrangers sujets de sanctions européennes (article 11, LCEN). Elle a également la possibilité de formuler à l’adresse des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne des recommandations visant à améliorer la lutte contre la désinformation. Chaque année, elle publie un bilan de l’application des mesures prises par ces acteurs “en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou d’altérer la sincérité de l’un des scrutins” sur la base des articles 34 et 35 du RSN (article 58, loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication).

Jusqu’en 2019, l’ARCOM recueillait ces informations sur la base d’un questionnaire et en diffusait les résultats chaque année. Elle avait à ce titre émis la recommandation n° 2019-03 à destination des plateformes dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations.

Extrait des dispositions

Résumé des dispositions :

L’article 34 du RSN identifie quatre catégories de risque systémique : « la diffusion de contenus illicites par l’intermédiaire de leurs services », la survenue de « tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux », « de tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique » et de « tout effet négatif réel ou prévisible lié aux violences sexistes, à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes », catégorie à laquelle appartient la désinformation (consid. 83).

Il liste par ailleurs les facteurs pouvant influencer ces risques systémiques que les acteurs sont invités à prendre en compte dans leur évaluation (art. 34.2). Ces derniers ont enfin l’obligation de conserver les documents et justificatifs des évaluations réalisées pendant au moins trois ans après leur réalisation et de les communiquer sur demande à la Commission ainsi qu’au coordinateur du lieu d’établissement (art. 34.3).

Une fois les risques systémiques identifiés en leur sein, les très grandes plateformes et les très grands moteurs de recherche ont l’obligation de prendre des mesures d’atténuation dont l’article 35.1 dresse une liste non limitative.

Le comité, en coopération avec la Commission, publie chaque année des rapports exhaustifs une fois par an contenant le recensement, l’évaluation des risques systémiques les plus importants et récurrents, les mesures prises pour les atténuer (« bonnes pratiques »), en tenant compte le cas échéant de la ventilation des risques systémiques opérés par les Etats membres (art. 35.2).

Enfin, la Commission, en coopération avec les coordinateurs pour les services numériques (art. 49 et s.), peut publier des lignes directrices portant sur l’évaluation de certains risques systémiques et les bonnes pratiques d’atténuation (art. 35.3).

Règlement 2024/1689

Informations générales

Type de norme : Droit UE

Date d'adoption : 13/06/2024

Entrée en vigueur : 02/08/2025

Consulter le texte officiel


Type de réponse

  • Institutionnelle
  • Régulation

Description de la politique publique

Le règlement met l’accent sur la difficulté à distinguer les “contenus de synthèse” et les “contenus authentiques” générés par des humains.

De façon générale, les fournisseurs de modèle d’IA (développeurs), y compris à usage général, ont l’obligation de veiller à ce que les sorties des systèmes d’IA soient marquées de façon lisible et identifiable par une machine comme ayant été générées ou manipulées par une IA lorsque c’est le cas.
Les déployeurs d’un système d’IA (utilisateurs professionnels ou particuliers), générant ou manipulant des contenus et constituant des hypertrucages doivent également l’indiquer sauf si cette utilisation est permise par la loi en matière pénale. Cette obligation est atténuée lorsque le contenu est généré ou manipulé à des fins artistiques, créatives, satiriques ou fictives.
L’obligation d’information à la charge des déployeurs d’IA vaut également pour les textes générés et manipulés afin d’informer le public sur des questions d’intérêt public sauf si leur utilisation est permise par la loi en matière pénale ou lorsque le contenu généré a fait l’objet d’un réexamen humain ou un contrôle éditorial et que sa publication se fait sous la responsabilité éditoriale.

Le règlement sur l’IA régule ensuite spécifiquement les modèles d’IA à usage général dans la mesure où ces derniers peuvent présenter des risques systémiques, dont fait partie la désinformation. À ce titre, les fournisseurs de modèles d’IA à usage général ont l’obligation d’effectuer une évaluation des risques et de les atténuer, de documenter les informations pertinentes en la matière et de garantir un niveau de sécurité suffisant en matière de cybersécurité (art. 55). Ces obligations s’ajoutent à celles prévues par les art. 34 et 35 du RSN s’agissant des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne.

En attendant la publication d’une norme harmonisée, les fournisseurs de modèles d’IA à usage général comportant des risques systémiques peuvent s’appuyer sur des codes de bonnes pratiques. En s’y conformant, ils bénéficient d’une présomption de conformité.

L’élaboration de ces codes est encouragée par le Bureau de l’IA et le Comité IA. Ils doivent notamment identifier le type et la nature des risques systémiques identifiés, indiquer les mesures, procédures et modalités d’évaluation et de gestion des risques systémiques. Les fournisseurs de modèles d’IA à usage général, les autorités nationales compétentes, les organisations de la société civile, le monde universitaire peuvent participer à l’élaboration de ces codes. Ces derniers, ainsi que leur application par les fournisseurs sont contrôlés et évalués par le Bureau de l’IA et le Comité IA qui procèdent également. La Commission européenne peut également elle-même approuver un code de bonne conduite et lui conférer une validité générale au sein de l’UE. Les codes doivent être pris au plus tard le 2 mai 2025.

Le Bureau de l’IA est une section de la Commission européenne chargée de la mise en œuvre du règlement. Le Comité IA est composé d’un représentant de chaque État membre. Le Contrôleur européen de la protection des données participe quant à lui en qualité d’observateur. Son rôle est de conseiller et d’assister la Commission et les Etats membres dans l’application cohérente et efficace du règlement.

En tant que PTOM, la Nouvelle-Calédonie n’est pas automatiquement soumis au droit européen. Les PTOM et l’UE sont en effet liés par un partenariat révisé en 2013.

Disposition interne relative aux deepfakes

La loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique (SREN) modifie l’article 226-8 du code pénal afin de saisir les deepfakes ou “hypertrucages”. Est désormais assimilé à “l’infraction de montage”, “le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention”.

L’article 63 de la loi SREN précise les conditions dans lesquelles ses dispositions s’appliqueront en Nouvelle-Calédonie.

Art. 63
I – Dans les conditions prévues à l’article 38 de la Constitution, le Gouvernement est autorisé à prendre par voie d’ordonnance toutes mesures relevant du domaine de la loi afin :
(…)
2° D’étendre l’application des dispositions de la présente loi, avec les adaptations nécessaires, en Nouvelle-Calédonie, en Polynésie française et dans les îles Wallis et Futuna, pour celles de ces dispositions qui relèvent de la compétence de l’Etat ;
3° De rendre applicables en Nouvelle-Calédonie, en Polynésie française, dans les îles Wallis et Futuna, à Saint-Barthélemy et à Saint-Pierre-et-Miquelon, avec les adaptations nécessaires, dans les matières relevant de la compétence de l’Etat, les dispositions (…) du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques).
II – L’ordonnance prévue au I est prise dans un délai de six mois à compter de la promulgation de la présente loi. Un projet de loi de ratification est déposé devant le Parlement dans un délai de trois mois à compter de la publication de l’ordonnance.

Extrait des dispositions

cons. 110 : “Les modèles d’IA à usage général pourraient présenter des risques systémiques qui comprennent, sans s’y limiter, tout effet négatif réel ou raisonnablement prévisible en rapport avec des accidents majeurs, des perturbations de secteurs critiques et des conséquences graves pour la santé et la sécurité publiques, tout effet négatif réel ou raisonnablement prévisible sur les processus démocratiques, la sécurité publique et la sécurité économique, et la diffusion de contenus illicites, faux ou discriminatoires (…)”.

cons. 120 : “(…)les obligations imposées aux fournisseurs et aux déployeurs de certains systèmes d’IA au titre du présent règlement afin de permettre la détection et la mention du fait que les sorties produites par ces systèmes sont générées ou manipulées par une IA revêtent une importance particulière pour faciliter la mise en œuvre effective du règlement (UE) 2022/2065. Cela vaut en particulier pour les obligations incombant aux fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne consistant à recenser et à atténuer les risques systémiques susceptibles de découler de la diffusion de contenus qui ont été générés ou manipulés par une IA, en particulier le risque d’effets négatifs réels ou prévisibles sur les processus démocratiques, le débat public et les processus électoraux, notamment par le biais de la désinformation”.

cons. 133 : “Divers systèmes d’IA peuvent générer de grandes quantités de contenu de synthèse qu’il devient de plus en plus difficile pour les êtres humains de distinguer du contenu authentique généré par des humains. La large disponibilité et les capacités croissantes de ces systèmes ont des conséquences importantes sur l’intégrité de l’écosystème informationnel et la confiance en celui-ci, ce qui pose de nouveaux risques de désinformation et de manipulation à grande échelle, de fraude, d’usurpation d’identité et de tromperie des consommateurs”.

cons. 136 : “Les obligations incombant aux fournisseurs et aux déployeurs de certains systèmes d’IA au titre du présent règlement afin de permettre la détection et la mention du fait que les sorties de ces systèmes sont générées ou manipulées par une IA revêtent une importance particulière pour faciliter la mise en œuvre effective du règlement (UE) 2022/2065. Cela vaut en particulier pour les obligations incombant aux fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne consistant à recenser et à atténuer les risques systémiques susceptibles de découler de la diffusion de contenus qui ont été générés ou manipulés par une IA, en particulier le risque d’effets négatifs réels ou prévisibles sur les processus démocratiques, le débat public et les processus électoraux, notamment par le biais de la désinformation. L’exigence relative à l’étiquetage des contenus générés par des systèmes d’IA au titre du présent règlement est sans préjudice de l’obligation prévue à l’article 16, paragraphe 6, du règlement (UE) 2022/2065 imposant aux fournisseurs de services d’hébergement de traiter les signalements de contenus illégaux qu’ils reçoivent au titre de l’article 16, paragraphe 1, dudit règlement, et elle ne devrait pas influencer l’évaluation et la décision quant à l’illégalité du contenu en question. Cette évaluation ne devrait être effectuée qu’au regard des règles régissant la légalité du contenu”.

Article 50 – Obligations de transparence pour les fournisseurs et les déployeurs de certains systèmes d’IA
(…)
2. Les fournisseurs de systèmes d’IA, y compris de systèmes d’IA à usage général, qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte, veillent à ce que les sorties des systèmes d’IA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA. Les fournisseurs veillent à ce que leurs solutions techniques soient aussi efficaces, interopérables, solides et fiables que la technologie le permet, compte tenu des spécificités et des limites des différents types de contenus, des coûts de mise en œuvre et de l’état de la technique généralement reconnu, comme cela peut ressortir des normes techniques pertinentes. Cette obligation ne s’applique pas dans la mesure où les systèmes d’IA remplissent une fonction d’assistance pour la mise en forme standard ou ne modifient pas de manière substantielle les données d’entrée fournies par le déployeur ou leur sémantique, ou lorsque leur utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière.
(…)
4. Les déployeurs d’un système d’IA qui génère ou manipule des images ou des contenus audio ou vidéo constituant un hypertrucage indiquent que les contenus ont été générés ou manipulés par une IA. Cette obligation ne s’applique pas lorsque l’utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière. Lorsque le contenu fait partie d’une œuvre ou d’un programme manifestement artistique, créatif, satirique, fictif ou analogue, les obligations de transparence énoncées au présent paragraphe se limitent à la divulgation de l’existence de tels contenus générés ou manipulés d’une manière appropriée qui n’entrave pas l’affichage ou la jouissance de l’œuvre.
Les déployeurs d’un système d’IA qui génère ou manipule des textes publiés dans le but d’informer le public sur des questions d’intérêt public indiquent que le texte a été généré ou manipulé par une IA. Cette obligation ne s’applique pas lorsque l’utilisation est autorisée par la loi à des fins de prévention ou de détection des infractions pénales, d’enquêtes ou de poursuites en la matière, ou lorsque le contenu généré par l’IA a fait l’objet d’un processus d’examen humain ou de contrôle éditorial et lorsqu’une personne physique ou morale assume la responsabilité éditoriale de la publication du contenu.
(…)
7. Le Bureau de l’IA encourage et facilite l’élaboration de codes de bonne pratique au niveau de l’Union afin de faciliter la mise en œuvre effective des obligations relatives à la détection et à l’étiquetage des contenus générés ou manipulés par une IA. La Commission peut adopter des actes d’exécution pour approuver ces codes de bonne pratique conformément à la procédure prévue à l’article 56, paragraphe 6. Si elle estime que le code n’est pas approprié, la Commission peut adopter un acte d’exécution précisant des règles communes pour la mise en œuvre de ces obligations conformément à la procédure d’examen prévue à l’article 98, paragraphe 2.

Art. 55 : Obligations incombant aux fournisseurs de modèles d’IA à usage général présentant un risque systémique
1. Outre les obligations énumérées aux articles 53 et 54, les fournisseurs de modèles d’IA à usage général présentant un risque systémique:
effectuent une évaluation des modèles sur la base de protocoles et d’outils normalisés reflétant l’état de la technique, y compris en réalisant et en documentant des essais contradictoires des modèles en vue d’identifier et d’atténuer les risques systémiques;
évaluent et atténuent les risques systémiques éventuels au niveau de l’Union, y compris leurs origines, qui peuvent découler du développement, de la mise sur le marché ou de l’utilisation de modèles d’IA à usage général présentant un risque systémique;
suivent, documentent et communiquent sans retard injustifié au Bureau de l’IA et, le cas échéant, aux autorités nationales compétentes les informations pertinentes concernant les incidents graves ainsi que les éventuelles mesures correctives pour y remédier;
garantissent un niveau approprié de protection en matière de cybersécurité pour le modèle d’IA à usage général présentant un risque systémique et l’infrastructure physique du modèle.
2. Les fournisseurs de modèles d’IA à usage général présentant un risque systémique peuvent s’appuyer sur des codes de bonne pratique au sens de l’article 56 pour démontrer qu’ils respectent les obligations énoncées au paragraphe 1 du présent article, jusqu’à la publication d’une norme harmonisée. Le respect des normes européennes harmonisées confère au fournisseur une présomption de conformité dans la mesure où lesdites normes couvrent ces obligations. Les fournisseurs de modèles d’IA à usage général présentant un risque systémique qui n’adhèrent pas à un code de bonnes pratiques approuvé ou ne respectent pas une norme européenne harmonisée démontrent qu’ils disposent d’autres moyens appropriés de mise en conformité et les soumettent à l’appréciation de la Commission.
3. Toute information ou documentation obtenue en vertu du présent article, y compris les secrets d’affaires, est traitée conformément aux obligations de confidentialité énoncées à l’article 78.

Art. 56 : Codes de bonne pratique
1. Le Bureau de l’IA encourage et facilite l’élaboration de codes de bonne pratique au niveau de l’Union afin de contribuer à la bonne application du présent règlement, en tenant compte des approches internationales.
2. Le Bureau de l’IA et le Comité IA s’efforcent de veiller à ce que les codes de bonne pratique couvrent au moins les obligations prévues aux articles 53 et 55, y compris les questions suivantes:
les moyens de s’assurer que les informations visées à l’article 53, paragraphe 1, points a) et b), sont mises à jour à la lumière des évolutions du marché et des technologies;
le niveau approprié de détail pour le résumé du contenu utilisé pour l’entraînement;
l’identification du type et de la nature des risques systémiques au niveau de l’Union, y compris leurs origines, le cas échéant;
les mesures, procédures et modalités d’évaluation et de gestion des risques systémiques au niveau de l’Union, y compris la documentation y afférente, qui sont proportionnées aux risques, prennent en considération leur gravité et leur probabilité et tiennent compte des défis spécifiques que pose la maîtrise de ces risques à la lumière des différentes façons dont ils peuvent apparaître ou se concrétiser tout au long de la chaîne de valeur de l’IA.
3. Le Bureau de l’IA peut inviter tous les fournisseurs de modèles d’IA à usage général, ainsi que les autorités nationales compétentes concernées, à participer à l’élaboration de codes de bonne pratique. Les organisations de la société civile, l’industrie, le monde universitaire et d’autres parties prenantes concernées, telles que les fournisseurs en aval et les experts indépendants, peuvent apporter leur soutien au processus.
4. Le Bureau de l’IA et le Comité IA s’efforcent de veiller à ce que les codes de bonne pratique définissent clairement leurs objectifs spécifiques et contiennent des engagements ou des mesures, y compris, le cas échéant, des indicateurs de performance clés, afin de garantir la réalisation de ces objectifs, et à ce qu’ils tiennent dûment compte des besoins et des intérêts de l’ensemble des parties intéressées, y compris les personnes concernées, au niveau de l’Union.
5. Le Bureau de l’IA veille à ce que les participants aux codes de bonne pratique fassent régulièrement rapport au Bureau de l’IA sur la mise en œuvre des engagements ainsi que sur les mesures qu’ils adoptent et leurs résultats, y compris mesurés par rapport aux indicateurs de performance clés, le cas échéant. Les indicateurs de performance clés et l’obligation de présenter des rapports reflètent les différences de taille et de capacité entre les différents participants.
6. Le Bureau de l’IA et le Comité IA contrôlent et évaluent régulièrement la réalisation des objectifs des codes de bonne pratique par les participants et leur contribution à la bonne application du présent règlement. Le Bureau de l’IA et le Comité IA évaluent si les codes de bonne pratique couvrent les obligations prévues aux articles 53 et 55, et contrôlent et évaluent régulièrement la réalisation de leurs objectifs. Ils publient leur évaluation de l’adéquation des codes de bonne pratique.
La Commission peut, au moyen d’un acte d’exécution, approuver un code de bonnes pratiques et lui conférer une validité générale au sein de l’Union. Cet acte d’exécution est adopté en conformité avec la procédure d’examen visée à l’article 98, paragraphe 2.
7. Le Bureau de l’IA peut inviter tous les fournisseurs de modèles d’IA à usage général à adhérer aux codes de bonne pratique. Pour les fournisseurs de modèles d’IA à usage général ne présentant pas de risque systémique, cette adhésion peut se limiter aux obligations prévues à l’article 53, à moins qu’ils ne déclarent explicitement leur intérêt à respecter le code complet.
8. Le Bureau de l’IA encourage et facilite également, le cas échéant, le réexamen et l’adaptation des codes de bonne pratique, en particulier à la lumière des normes émergentes. Le Bureau de l’IA participe à l’évaluation des normes disponibles.
9. Les codes de bonne pratique sont prêts au plus tard le 2 mai 2025. Le Bureau de l’IA prend les mesures nécessaires, y compris inviter les fournisseurs en vertu du paragraphe 7.
Si, à la date du 2 août 2025, un code de bonnes pratiques n’a pas pu être mis au point, ou si le Bureau de l’IA estime qu’il n’est pas approprié à la suite de son évaluation au titre du paragraphe 6 du présent article, la Commission peut prévoir, au moyen d’actes d’exécution, des règles communes pour la mise en œuvre des obligations prévues aux articles 53 et 55, y compris les questions énoncées au paragraphe 2 du présent article. Ces actes d’exécution sont adoptés en conformité avec la procédure d’examen visée à l’article 98, paragraphe 2.

Article 64 – Bureau de l’IA
1. La Commission développe l’expertise et les capacités de l’Union dans le domaine de l’IA par l’intermédiaire du Bureau de l’IA.
2. Les États membres facilitent l’accomplissement des tâches confiées au Bureau de l’IA, telles qu’elles sont définies dans le présent règlement.

Article 65 – Création et structure du Comité européen de l’intelligence artificielle
1. Un Comité européen de l’intelligence artificielle (ci-après dénommé «Comité IA») est créé.
2. Le Comité IA est composé d’un représentant par État membre. Le Contrôleur européen de la protection des données participe en qualité d’observateur. Le Bureau de l’IA assiste également aux réunions du Comité IA sans toutefois prendre part aux votes. D’autres autorités, organes ou experts nationaux et de l’Union peuvent être invités aux réunions par le Comité IA au cas par cas, lorsque les questions examinées relèvent de leurs compétences.
(…)

Article 66 – Tâches du Comité IA
Le Comité IA conseille et assiste la Commission et les États membres afin de faciliter l’application cohérente et efficace du présent règlement.
(…)

Directive 2010/13/UE modifiée par la directive (UE) 2018/1808 (Directive Service de médias audiovisuels dite SMA)

Informations générales

Type de norme : Droit UE

Consulter le texte officiel


Type de réponse

  • Institutionnelle
  • Régulation
  • Sensibilisation

Description de la politique publique

La directive SMA régule le secteur des médias : TV et radio traditionnelles (linéaires), médias à la demande (VOD, replay) et plateformes de partage de vidéos en ligne. Elle harmonise notamment au niveau européen les règles relatives aux communications commerciales et la part d’œuvres européennes diffusées dans les médias des Etats membres. L’article 30 impose à chaque Etat membre de désigner une autorité compétente, indépendante, investie des pouvoirs et des finances nécessaires à la régulation interne des médias. Le texte encourage également le développement de l’éducation aux médias de la part de toutes les parties prenantes.

L’ARCOM (ex CSA) est l’autorité de régulation des médias en France. Elle veille à l’application des textes encadrant les médias : la loi du 30 septembre 1986 relative à la liberté de communication, le décret n°92-280 du 27 mars 1992 concernant la publicité, le parrainage et le téléachat à la télévision, le décret n° 2021-793 du 22 juin 2021 relatif aux services de médias audiovisuels à la demande et le décret n° 2021-1922 du 30 décembre 2021 relatif aux plateformes de partage de vidéos en ligne.

Loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication :
Art. 3-1
L’Autorité de régulation de la communication audiovisuelle et numérique, autorité publique indépendante, garantit l’exercice de la liberté de communication au public par voie électronique, dans les conditions définies par la présente loi.

Elle assure l’égalité de traitement ; elle garantit l’indépendance et l’impartialité du secteur public de la communication audiovisuelle ; elle veille à favoriser la libre concurrence et l’établissement de relations non discriminatoires entre éditeurs et distributeurs de services, quel que soit le réseau de communications électroniques utilisé par ces derniers, conformément au principe de neutralité technologique ; elle veille à la qualité et à la diversité des programmes, au développement de la production et de la création audiovisuelles nationales, y compris dans leur dimension ultramarine, ainsi qu’à la promotion de la diversité musicale ; elle veille à la défense et à l’illustration de la culture et du patrimoine linguistique national, constitué de la langue française et des langues régionales (…)
(…)
L’Autorité de régulation de la communication audiovisuelle et numérique garantit l’honnêteté, l’indépendance et le pluralisme de l’information et des programmes qui y concourent, sous réserve de l’article 1er de la présente loi.

Art. 43-11 (applicable au secteur public audiovisuel)
Les sociétés énumérées aux articles 44 et 45 poursuivent, dans l’intérêt général, des missions de service public. Elles offrent au public, pris dans toutes ses composantes, un ensemble de programmes et de services qui se caractérisent par leur diversité et leur pluralisme, leur exigence de qualité et d’innovation, le respect des droits de la personne et des principes démocratiques constitutionnellement définis.
(…)
Elles concourent au développement et à la diffusion de la création intellectuelle et artistique et des connaissances civiques, économiques, sociales, scientifiques et techniques ainsi qu’à l’éducation à l’audiovisuel et aux médias (…).

Le site de l’ARCOM dispose d’une page dédiée à l’éducation aux médias et à la « citoyenneté numérique » sur laquelle elle promeut l’éducation par les médias (incitation des médias à mettre en œuvre des actions d’EMI notamment par le biais de boîtes à outils, valorisation de leurs actions), l’éducation par l’usage des médias (encourager le développement de médias au sein des écoles) et l’éducation aux médias, à l’information et à la citoyenneté numérique (sensibilisation). La lutte contre la désinformation fait partie de l’un des axes majeurs des actions de l’ARCOM en matière d’EMI. La page propose à ce titre des fiches pédagogiques selon le public cible : enseignants, adultes/parents, enfants/adolescents.

Le 17 janvier 2023, l’ARCOM, le Centre de Liaison de l’Enseignement et des Moyens d’Information (CLEMI) et le ministère de l’Éducation nationale et de la Jeunesse ont signé une convention de partenariat destinée à renforcer leurs coopérations dans le domaine de l’éducation aux médias, à l’information et à la citoyenneté numérique.

Le 16 janvier 2024, l’ARCOM et ARTE Éducation (filiale de la chaîne Arte) ont signé un partenariat afin de mettre en œuvre des « actions communes relatives au domaine de l’éducation aux médias, à l’information et à la citoyenneté numérique ». L’accord prévoit l’élaboration de fiches pédagogiques avec les enseignants. L’ARCOM et Arte Éducation participeront ensemble la Semaine de la presse et des médias dans l’école, organisée chaque année au mois de mars.

France Télévisions mène une campagne de sensibilisation à la lutte contre la désinformation depuis novembre 2022 dans l’objectif de faire de #VraiOuFake le hashtag de référence pour lutter contre les fake news. En collaboration avec le ministère de l’Éducation nationale et de la jeunesse et le CLEMI, il organise un nouveau Tour de France de l’EMI en 2023 afin de sensibiliser le public à la désinformation, de former les enseignants et leurs élèves au décryptage de l’information au moyen d’ateliers et de formations.

Extrait des dispositions

Disposition sur l’autorité compétente en matière de régulation audioviduelle

Article 30

1. Chaque État membre désigne une ou plusieurs autorités ou organismes de régulation nationaux, ou les deux. Les États membres veillent à ce qu’ils soient juridiquement distincts des pouvoirs publics et fonctionnellement indépendants de leurs pouvoirs publics respectifs et de toute autre entité publique ou privée. Cette disposition est sans préjudice de la possibilité pour les États membres d’instituer des autorités de régulation ayant un contrôle sur différents secteurs.

2. Les États membres veillent à ce que les autorités ou organismes de régulation nationaux exercent leurs pouvoirs de manière impartiale et transparente et dans le respect des objectifs de la présente directive, notamment le pluralisme des médias, la diversité culturelle et linguistique, la protection des consommateurs, l’accessibilité, la non-discrimination, le bon fonctionnement du marché intérieur et la promotion de la concurrence loyale.

Les autorités ou organismes de régulation nationaux ne sollicitent ni n’acceptent d’instruction d’aucun autre organe en ce qui concerne l’accomplissement des tâches qui leur sont assignées en vertu du droit national transposant le droit de l’Union. Ceci n’empêche pas une surveillance conformément aux dispositions nationales de droit constitutionnel.

Dispositions relatives à l’éducation aux médias

cons. 59 : La notion d’éducation aux médias désigne les compétences, les connaissances et la compréhension permettant aux citoyens d’utiliser les médias d’une manière sûre et efficace. En vue d’accéder à l’information, d’utiliser, d’apprécier avec un œil critique et de créer des contenus médiatiques de manière responsable et sûre, les citoyens doivent posséder des compétences avancées liées à l’éducation aux médias. L’éducation aux médias ne devrait pas se limiter à l’apprentissage des outils et des technologies, mais devrait viser à doter les citoyens de la réflexion critique nécessaire pour exercer un jugement, analyser des réalités complexes et reconnaître la différence entre des opinions et des faits. Ainsi, il est nécessaire que tant les fournisseurs de services de médias que les fournisseurs de plateformes de partage de vidéos, en coopération avec tous les acteurs pertinents, encouragent le développement de l’éducation aux médias pour les citoyens de tous âges dans tous les secteurs de la société et pour tous les médias et que les avancées en la matière soient suivies attentivement.

Art. 28 ter
3. Aux fins de l’application des paragraphes 1 et 2 (selon lesquels les Etats membres veillent à ce que les fournisseurs de services de plateformes de partage de vidéo prennent des mesures afin de protéger les mineurs et le grand public de certains contenus), les mesures appropriées sont déterminées en prenant en considération la nature du contenu en question, le préjudice qu’il pourrait causer, les caractéristiques de la catégorie des personnes à protéger ainsi que les droits et les intérêts légitimes en jeu, y compris ceux des fournisseurs de plateformes de partage de vidéos et ceux des utilisateurs qui ont créé le contenu ou l’ont mis en ligne, ainsi que l’intérêt public général.
(…)
Ces mesures consistent, selon ce qui est approprié, à :
(…)
j) prévoir des mesures et des outils d’éducation aux médias efficaces et sensibiliser les utilisateurs à ces mesures et outils.

Art. 33bis
1. Les États membres promeuvent le développement des compétences liées à l’éducation aux médias et prennent des mesures dans ce sens.
(…)

Fausses nouvelles (hors et dans le contexte électoral)

Informations générales

Type de norme : Loi


Type de réponse

  • Judiciaire
  • Institutionnelle
  • Régulation
  • Soutien aux initiatives privées

Description de la politique publique

Outre des dispositions classiques sanctionnant certains discours (calomnie, diffamation) et les contenus “haineux” en ligne, la France dispose de textes spécifiques ayant pour objet la lutte contre la désinformation.

En matière électorale, l’article 97 du code électoral dispose : “ceux qui, à l’aide de fausses nouvelles, bruits calomnieux ou autres manoeuvres frauduleuses, auront surpris ou détourné des suffrages, déterminé un ou plusieurs électeurs à s’abstenir de voter, seront punis d’un emprisonnement d’un an et d’une amende de 15 000 euros”.

L’article 33-1-1 de la loi du 30 septembre 1986 relative à la liberté de communication issu de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information vise à encadrer et limiter la diffusion de fausses informations en période électorale, c’est-à-dire trois mois avant un scrutin jusqu’à la date où l’élection est acquise. Le texte donne compétence à l’ARCOM (ex CSA) pour suspendre la diffusion en France d’un service contrôlé ou placé sous l’influence d’un Etat qui diffuse de façon délibérée de fausses informations de nature à altérer la sincérité du scrutin. À l’article L. 163-2 du code électoral est introduit un référé “fake news” permettant au juge saisi de faire cesser la diffusion de contenus sur des services de communication au public en ligne lorsqu’ils comportent “des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir” diffusées “de manière délibérée, artificielle ou automatisée et massive”. L’article L. 163-1 du même code impose un certain nombre d’obligations aux plateformes durant cette période : l’information des utilisateurs sur les contenus sponsorisés, sur ses données personnelles qui servent à la promotion de ces contenus et sur le montant des rémunérations perçues par les plateformes pour cette promotion.

Indépendamment du contexte électoral, l’article 27 de la loi du 27 juillet 1881 sur la liberté de la presse prévoit que “la publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura été susceptible de la troubler, sera punie d’une amende de 45 000 euros”, les mêmes faits étant punis “de 135 000 euros d’amende, lorsque la publication, la diffusion ou la reproduction faite de mauvaise foi sera de nature à ébranler la discipline ou le moral des armées ou à entraver l’effort de guerre de la Nation”.

L’article 15 de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information dispose également : “Les opérateurs de plateforme en ligne mentionnés au premier alinéa de l’article L. 163-1 du code électoral, les agences de presse au sens de l’ordonnance n° 45-2646 du 2 novembre 1945 portant réglementation des agences de presse, les éditeurs de publication de presse ou de services de presse en ligne au sens de la loi n° 86-897 du 1er août 1986 portant réforme du régime juridique de la presse, les éditeurs de services de communication audiovisuelle au sens de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication, les annonceurs au sens du code de la consommation, les organisations représentatives des journalistes et toute autre organisation susceptible de contribuer à la lutte contre la diffusion de fausses informations peuvent conclure des accords de coopération relatifs à la lutte contre la diffusion de fausses informations”. L’article 108 précise à cet égard que la disposition s’applique à la Nouvelle-Calédonie.

Extrait des dispositions

Aucune information disponible

Politiques et actions menées sans fondement juridique identifié

Prévention et lutte contre la désinformation

Le ministre de l’Intérieur a ordonné le blocage de TikTok sur le territoire de la Nouvelle-Calédonie dans le contexte de l’état d’urgence décrété durant les émeutes de mai 2024 afin de lutter contre la propagation de fausses informations.

Plusieurs associations et particuliers ont saisi en référé le Conseil d’Etat afin de suspendre cette mesure qu’ils estiment contraire à la liberté d’expression et à la liberté de communication. Le Conseil d’Etat a rejeté la demande de suspension considérant que les requérants ne démontraient pas l’existence d’une situation d’urgence et que la mesure était justifiée, limitée dans le temps et restreinte à un moyen de communication.