Désinformation et élection européennes : réunion entre le gouvernement et les plateformes
mai 2024 par Gouvernement français
À un mois des élections européennes, M. Jean-Noël BARROT, ministre délégué chargé de l’Europe, et Mme Marina FERRARI, secrétaire d’État chargée du Numérique, et l’opérateur VIGINUM ont réuni les représentants français des grandes plateformes (META, X, TikTok, Google, Youtube).
Cet entretien a permis aux ministres de rappeler la vigilance de la France sur la modération des contenus en ligne et la désinformation en amont des élections européennes, du 6 au 9 juin prochain. Les ministres réuniront à nouveau les grandes plateformes à l’issue des élections européennes en juin.
À cette occasion, les ministres ont notamment rappelé la signature par les grandes plateformes de lignes directrices de conduite de la Commission européenne en amont du scrutin. Depuis le 26 mars 2024, il est notamment demandé aux plateformes de :
1. Renforcer leurs processus internes, notamment en mettant en place des équipes internes dotées de ressources adéquates, et exploiter les analyses et informations disponibles sur les risques propres au contexte local et sur l’usage que les utilisateurs font de leurs services pour rechercher et obtenir des informations avant, pendant et après les élections, afin d’améliorer leurs mesures d’atténuation des risques.
2. Mettre en œuvre des mesures d’atténuation des risques propres aux élections, adaptées à chaque période électorale et à chaque contexte local (promouvoir des informations officielles sur les processus électoraux, lancer des initiatives d’éducation aux médias et à adapter leurs systèmes de recommandation afin de responsabiliser les utilisateurs et de réduire la monétisation et la viralité des contenus qui menacent l’intégrité des processus électoraux
3. Désigner clairement la publicité à caractère politique, en prévision du futur règlement relatif à la transparence et au ciblage de la publicité à caractère politique.
4. Adopter des mesures d’atténuation concernant spécifiquement l’IA générative en étiquetant clairement les contenus générés par l’IA (tels que les hypertrucages ou « deefakes »), en adaptant leurs conditions générales en conséquence et en les appliquant de façon appropriée.
5. Adopter des mesures spécifiques, y compris un mécanisme de réaction aux incidents, au cours d’une période électorale donnée, afin de réduire l’impact des incidents susceptibles d’influer notablement sur le résultat des élections ou sur le taux de participation.
6. Évaluer l’efficacité des mesures d’atténuation des risques au moyen d’évaluation post-électorales. Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne sont incités à publier une version non confidentielle de ces documents d’évaluation postélectorale, pour permettre au public de s’informer sur les mesures d’atténuation des risques mises en place.
Réaction de Jean-Noël Barrot à l’issue de la réunion : « Depuis le règlement sur les services numériques (DSA), les règles sont claires : les plateformes sont responsables des contenus qu’elles diffusent ou laissent diffuser. Elles seront aussi responsables en cas de déstabilisation en ligne des élections européennes. La France sera vigilante à l’application des consignes européennes. »
Réaction de Marina Ferrari à l’issue de la réunion : « Dans nos démocraties, la lutte contre la désinformation est devenue une préoccupation quotidienne des autorités. En période électorale, cette exigence devient vitale. Grâce au DSA, la responsabilité des plateformes peut désormais être engagée : nous veillerons à ce que tout soit mis en œuvre pour préserver la sincérité du scrutin et protéger cette élection des menaces informationnelles. »