Le géant des réseaux sociaux doit reformuler son règlement, et faire en sorte que les images et sons modifiés soient clairement identifiables en tant que tels par les utilisateurs, estime le conseil que l’entreprise avait créé pour avoir un regard indépendant sur la modération des contenus, après plusieurs scandales.
Des risques de désinformation électorale
Meta doit « commencer à étiqueter les contenus manipulés, tels que les vidéos modifiées par l’intelligence artificielle (IA) ou d’autres moyens, lorsque ces contenus sont susceptibles de causer un préjudice », ordonne le conseil dans un communiqué. De nombreuses élections majeures vont avoir lieu dans le monde en 2024, notamment la présidentielle américaine, et les autorités craignent un déferlement de « deepfakes », des montages visuels et/ou sonores de plus ou plus sophistiqués grâce à l’IA.
La vidéo de Joe Biden – montrant le chef d’État qui touche la poitrine de sa petite-fille adulte, avec une légende qui le décrit comme pédophile – avait été largement relayée en ligne l’année dernière. Le conseil a confirmé qu’elle n’enfreignait pas les règles actuelles de Meta, mais appelle à les mettre à jour. « En l’état, cette politique n’a guère de sens », a déclaré Michael McConnell, co-président du conseil cité dans le communiqué. « Elle interdit les vidéos modifiées qui montrent des personnes disant des choses qu’elles ne disent pas, mais n’interdit pas les messages montrant une personne faisant quelque chose qu’elle n’a pas fait. Elle ne s’applique qu’aux vidéos créées à l’aide de l’intelligence artificielle, mais laisse les autres contenus falsifiés s’en tirer à bon compte », résume-t-il.
Crédit: Lien source


Les commentaires sont fermés.