Réguler l’espace numérique pour des technologies au service du bien commun.

Protéger les citoyens

Mettre fin au cyberharcèlement en France

Un collégien sur quatre et presqu’un lycéen sur cinq en France se dit avoir été victime de harcèlement en ligne, sous forme d’insultes, de rumeurs, d’usurpation d’identité ou de diffusion de films humiliants. Et parmi eux, les filles sont surreprésentées.

D’importantes mesures ont été prises sous le mandat du Président Emmanuel Macron, comme l’interdiction de l’usage du téléphone portable dans l’enceinte des collèges, le dispositif de référents anti-harcèlement, et surtout la consécration d’un droit à une scolarité sans harcèlement grâce à la loi sur l’école de la confiance.

Il faut y ajouter la montée en puissance du prix « Non au harcèlement » récompensant des projets d’élèves, la spécialisation d’un parquet sur les affaires de cyberharcèlement et de haine en ligne et la création du délit de « cyberharcèlement en meute », nouvelle forme de harcèlement spécifique aux réseaux sociaux.

Suite à l’annonce du président de la République en novembre 2021, un passeport internet a été généralisé dans toutes les classes de 6e afin que chaque élève puisse suivre un module de sensibilisation au cyber harcèlement.

Enfin, le 3018 est devenu depuis le mois de septembre 2023 le numéro unique d’urgence en cas de cyberharcèlement. Une application a également été lancée afin que tous les moyens soient mis en oeuvre pour qu’un jeune cyber harcelé puisse être aidé.

Mobiliser nos partenaires pour mieux protéger les enfants et adolescents en ligne

Outre le cyberharcèlement, nos enfants sont confrontés à d’autres risques en ligne, liés notamment à l’exposition à des contenus inappropriés ou dangereux (violence, haine, pornographie), aux actes criminels organisés en ligne (pédopornographie, prostitution), ainsi qu’à des situations nouvelles du fait d’usages numériques les exposant publiquement (par exemple avec le phénomène d’enfants influenceurs).

Ces risques avaient été identifiés par le président de la République lors de son discours à l’UNESCO le 20 novembre 2019, à l’occasion de la Journée mondiale de l’enfance.

Des mesures concrètes avaient alors été prises et ont été par la suite portées dans la loi, notamment pour responsabiliser et sanctionner les sites internet permettant aux mineurs d’accéder à des contenus pornographiques.

Le président de la République poursuit son action en mobilisant nos partenaires internationaux. Le 11 novembre 2021, à l’occasion du Forum de Paris sur la Paix, il lançait conjointement avec l’UNICEF un Appel à l’action pour la protection de l’enfance dans le monde numérique aux États, plateformes numériques, associations et organisations non-gouvernementales concernées. Cet appel a abouti à l’adoption le 17 mars 2022 à New York d’une déclaration politique.

Reconnaissant à la fois les opportunités du numérique pour les enfants et les menaces auxquelles ils sont exposés en ligne, les signataires de l’Appel s’engagent à promouvoir l’alphabétisation numérique afin de favoriser l’accès aux technologies aux enfants tout en garantissant leur protection dans cet environnement.

Les signataires de l’Appel s’engagent également à prendre les mesures nécessaires pour prévenir toute exposition à des abus en ligne, et pour permettre aux enfants d’employer les outils numériques en toute sécurité.

Un an après le lancement de l’Appel à l’action pour défendre les droits de l’enfant dans l’environnement numérique, le président de la République en a de nouveau réuni les signataires afin :

  1. d’annoncer de nouvelles adhésions à l’appel (Croatie, Malte, Slovénie, Nouvelle-Zélande, Islande, Royaume-Uni, Grèce) ;
  2. de lancer le volet opérationnel de l’initiative, sous la forme d’un laboratoire public/privé sur la protection de l’enfance en ligne, « Children Online Protection Lab ».

Des solutions sont testées actuellement et les résultats seront présentés à l’occasion du prochain Forum de Paris pour la Paix les 10 et 11 novembre 2023. D’abord sur la vérification de l’âge avec deux approches : d’une part à travers un système fondé sur l’utilisation d’un tiers de confiance pour protéger au maximum la vie privée de l’utilisateur tout en s’assurant qu’il est majeur, et d’autre part avec une start-up britannique (Yoti) qui utilise l’intelligence artificielle et l’évaluation des caractères biométriques pour évaluer l’âge d’un individu. Ces deux expérimentations sont déjà opérationnelles : Yoti a annoncé une expérimentation avec la Française des Jeux, tandis que la solution de double anonymat est testée sur des sites pour adules et des réseaux sociaux qui comportent des contenus interdits aux moins de 18 ans. En partenariat avec Point de Contact (association luttant contre les contenus violents et la pédopornographie en ligne), et le Global Partnership to End Violence Against Children (une initiative du secrétariat général de l’ONU), une base de données permettant de référencer et supprimer rapidement les photos intimes partagés sans consentement, ainsi que les contenus pédo criminel, des réseaux sociaux et des sites partenaires, a également pu trouver des financements et se développera prochainement.

Afin de décliner au niveau national les engagements pris, est votée par les deux assemblées le 2 mars 2022 à la quasi-unanimité la loi « Studer » venant renforcer les obligations en matière de contrôle parental. Elle impose aux fabricants de terminaux l’obligation de préinstaller un dispositif de contrôle parental sur les terminaux et de proposer son activation à l’utilisateur dès la première mise en service de l’appareil.

Lutter contre les contenus terroristes et extrémistes violents en ligne

Réguler le cyberespace, c’est aussi lutter contre le terrorisme et les extrémismes violents. L’Appel de Christchurch, lancé par le président de la République et la Première ministre de la Nouvelle-Zélande en 2019, permet cela en engageant les plateformes à retirer les contenus signalés en moins d’une heure, la « golden hour » qui fait aujourd’hui référence.

Sur l’impulsion de la France, l’Union européenne est ainsi à l’avant-garde de la lutte contre le terrorisme et l’extrémisme violent en ligne. Les plateformes numériques ont désormais l’obligation juridique au sein de l’UE de retirer tout contenu terroriste dans l’heure suivant un signalement, grâce au règlement TCO (« terrorist content online »).

Le règlement est adopté et les mesures techniques permettant de vérifier si les plateformes n’ont pas répondu à ces exigences sont en place (plateforme PERCI d’Europol, coordination avec PHAROS).

Ces initiatives font la différence. En 2019, la vidéo de l’attentat de Christchurch en Nouvelle-Zélande reste en ligne 48 heures. Celle de l’assassinat de Samuel Paty, le 16 octobre 2020, est immédiatement retirée.

La communauté de travail de l’Appel de Christchurch regroupe aujourd’hui plus de 120 soutiens dont une cinquantaine d’États, des organisations internationales et les principaux fournisseurs de services numériques (Twitter, Amazon, Meta, Google, Microsoft, DailyMotion, YouTube, Line, Snap, Qwant, Zoom, Open AI, etc.). L’Appel a permis des progrès considérables en démontrant la faisabilité du retrait immédiat par les plateformes des contenus concernés et en renforçant les protocoles de crise pour prévenir le risque de leur propagation massive. Aujourd’hui les travaux continuent sur les protocoles de crise partagés, la coordination des cadres juridiques, et la conduite de projets de recherche sur la transparence algorithmique. L’Appel s’étend en outre à de nouveaux acteurs, comme les entreprises du jeu-vidéo, du métaverse, de stockage de données, ou encore de messagerie privée.

L’Appel a connu un progrès certain au cours de l’année 2022, avec l’arrivée de nouveaux membres parmi lesquels Zoom, Roblox et du Fonds mondial pour l’engagement de la communauté et la résilience (Global Community Engagement and Resilience Fund), Moonshot, Open AI, Point de Contact, Anthropic, Tuesday’s Children, Active Fence, Accelerationnism Research Consortium, Extremism and Gaming Network, Memetica, CASM, Tremau et Muflehun. Il poursuit son action sur 5 axes en particulier :

  • Nouvelles technologies et innovations,

    afin de traiter des.risques lies a l’IA generative, aux technologies immersives et au web decentralisede faciliter l’utilisation positive de ces technologies dans la lutte contre le terrorisme et lfextremisme violent en ligne.
  • Violence fondee sur le genre et extremisme violent afin de travailler avec les fournisseurs de services en ligne pour attenuer ces phenomenes.
  • Les jeunes, les algorithmes et la radicalisation, grace a un groupe de reference de jeunes

    de 15 a 24 ans de differentes origines
  • Transparence gouvernementale, sur les bonnes pratiques en matiere de transparence des gouvernements sur la gestion des contenus terroristes
  • Internet libre, ouvert et securise, sur la protection des libertes fondamentales et des droits des usagers en ligne.

    Par ailleurs, la methode probante utilisee dans le cadre de lfAppel, consistant a reunir tous les acteurs pour developper des solutions techniques, partager des engagements publiquement, et renforcer la communication strategique des Etats et la coordination avec la societe civile offre un exemple a suivre face aux autres enjeux de regulation des contenus en ligne.

Assurer le respect de nos valeurs démocratiques dans les espaces d’expression en ligne

Le développement d’Internet a permis de créer de nouvelles formes positives de sociabilité, d’expression et de communication, principalement au travers des entreprises privées, qui n’avaient cependant jusque-là que peu d’obligations en termes de fonctionnement et de modération des contenus mis en ligne par les utilisateurs.

Appelé de ses voeux par la France, le Digital Services Act a été adopté au niveau européen, obligeant notamment les plateformes à modérer les contenus de leurs utilisateurs en cohérence avec nos principes démocratiques, à analyser les risques que leurs services font courir aux libertés fondamentales et à rendre compte des moyens mis en oeuvre et des résultats qu’elles obtiennent. Nous oeuvrerons en France à une mise en oeuvre exemplaire des principes et dispositions prévus au niveau européen.

Pour aller plus loin sur le territoire français : le projet de loi visant à sécuriser l’espace numérique

Ce projet de loi s’inspire notamment de trois rapports parlementaires sur l’industrie pornographique et sur la souveraineté numérique.

Pour protéger les enfants de la pornographie en ligne : Le rôle de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) dans la lutte contre l’accès des enfants aux sites pornographiques est renforcé. Une loi du 30 juillet 2020 lui a déjà confié des pouvoirs pour faire respecter l’interdiction légale de l’accès des mineurs aux sites pornographiques et a créé une procédure judiciaire de blocage et de déréférencement des sites. Toutefois, pour le gouvernement, cette législation doit être complétée et modifiée pour « permettre une application efficace de cette interdiction ».

L’Arcom pourra désormais ordonner le blocage des sites pornographiques qui ne contrôlent pas l’âge de leurs utilisateurs et leur déréférencement des moteurs de recherche, sous le contrôle a posteriori du juge administratif. Une intervention du juge judiciaire ne sera plus nécessaire.

En outre, les hébergeurs devront retirer dans les 24 heures les contenus pédopornographiques qui leur sont signalés par la police et la gendarmerie, sous peine d’un an de prison et 250 000 euros d’amende, voire plus en cas de manquement habituel.

Pour protéger contre les arnaques, le harcèlement et la désinformation en ligne : Ce projet de loi prévoit la mise en place d’un filtre de cybersécurité anti-arnaque à destination du grand public. Un message d’alerte avertira les personnes lorsqu’après avoir reçu un SMS ou un courriel frauduleux, elles s’apprêtent à se diriger vers un site malveillant.

Le dispositif vise à protéger les citoyens contre les tentatives d’accès frauduleux à leurs coordonnées personnelles ou bancaires. Une base de données rassemblera l’ensemble des sites malveillants identifiés et signalés par les victimes aux autorités

administratives.

Le texte renforce, par ailleurs, les sanctions pour les personnes condamnées pour haine en ligne, cyber-harcèlement ou d’autres infractions graves (pédopornographie, proxénétisme…). Le juge pourra prononcer une peine de bannissement des réseaux sociaux pour six mois (voire un an en cas de récidive) pour certaines infractions commises en ligne (cyberharcèlement, haine en ligne, provocations, discriminations, etc.). La personne condamnée aura l’interdiction d’utiliser son compte ou de s’en créer un nouveau, sous peine de 2 ans de prison et de 30 000 euros d’amende. La peine de bannissement des réseaux sociaux s’appliquera aux majeurs comme aux mineurs. Le juge pourra la prononcer dès le début de l’enquête, avant condamnation, dans le cadre d’un contrôle judiciaire, ou au moment de la condamnation.

Pour mieux se protéger contre la désinformation de médias étrangers frappés par des sanctions européennes (tels que Sputnik ou Russia Today France), l’Arcom pourra enjoindre à de nouveaux opérateurs de stopper sous 72 heures la diffusion sur internet d’une chaîne de « propagande » étrangère. En cas d’inexécution, elle pourra ordonner le blocage du site concerné et infliger une amende pouvant aller jusqu’à 4 % du chiffre d’affaires de l’opérateur.

Les mesures sur les entreprises, les locations touristiques : Pour réduire la dépendance des entreprises aux fournisseurs d’informatique en nuage ou cloud, marché aujourd’hui concentré dans les mains de trois géants numériques extra européens, le projet de loi adapte le droit français par anticipation du futur règlement européen sur les données, le Data Act. Les frais de transfert de données seront encadrés. Aujourd’hui, pour changer de fournisseur cloud, une entreprise doit payer des frais représentant 125 % de son coût d’abonnement annuel. La pratique des crédits cloud (avoirs commerciaux) sera par ailleurs limitée dans le temps. Les services cloud devront enfin s’engager vers plus d’interopérabilité.

Par ailleurs, dans le but de mieux réguler les locations touristiques, un intermédiaire est créé entre les plateformes en ligne comme Airbnb et les communes. L’API meublés est généralisée, afin de centraliser toutes les données nécessaires et de faire respecter la réglementation limitant la location de résidences principales à 120 jours par an.

De nouveaux pouvoirs pour les autorités chargées du règlement sur les services numériques (DSA) et du règlement sur les marchés numériques (DMA) : Le projet de loi adapte le droit français pour que puissent s’appliquer un nouveau corpus législatif, inédit au plan mondial : le règlement sur les services numériques (Digital Services Act – DSA) et le règlement sur les marchés numériques (Digital Markets Act – DMA). Ces deux textes européens, adoptés sous la présidence française de l’Union européenne, imposent aux géants du numérique de nouvelles obligations et visent à mieux réguler internet en Europe.

Au titre du DSA, l’Arcom est désignée en tant que « coordinateur des services numériques » en France. La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) est désignée comme l’autorité chargée de contrôler le respect des obligations des fournisseurs de places de marché (market places). La Commission nationale de l’informatique et des libertés (CNIL) sera compétente pour vérifier le respect par les plateformes des limitations posées en matière de profilage publicitaire (interdiction pour les mineurs ou à partir de données sensibles).

S’agissant du DMA, l’Autorité de la concurrence et le ministère de l’économie pourront investiguer, recevoir des renseignements et coopérer avec la Commission européenne sur les pratiques des contrôleurs d’accès, dans le cadre du « réseau européen de concurrence ».

L’adaptation du droit français au Data act est enfin traitée, avec de nouvelles compétences pour l’Arcep et la CNIL.

Crédit: Lien source

Les commentaires sont fermés.