2023 a été l’année où le grand public a découvert tout ce qu’on était capable de faire avec les modèles d’intelligence artificielle, de ChatGPT aux générateurs d’images comme Midjourney, mais aussi ce que cela représentait comme risques à la fois pour la sécurité face à la désinformation et face aux questions de propriété intellectuelle puisque ces IA s’abreuvent d’à peu près tout ce qui est sur Internet.
Des « signatures numériques » sur les photos
Alors en 2024, si évidemment il va être question de réguler l’utilisation de ces IA, il y a un autre défi qui apparaît et qui consiste… à être plus malin que les robots. Cela revient à brouiller les pistes : depuis plusieurs semaines le monde du numérique réfléchit à comment sécuriser les contenus. Et c’est le cas des trois plus gros fabricants d’appareils photo, Nikon, Canon et Sony, qui ont décidé de mettre leurs forces en commun pour développer une technologie incluse dans leurs appareils, qui apposera une signature numérique pour les photos.
Une signature ultra-sécurisée qui sera effacée si l’image est détournée pour créer un deepfake c’est à dire une photo ou une vidéo transformée par l’IA, ce qui rendra plus facile le repérage des faux, grâce à un site créé pour l’occasion et nommé Vérify. L’été dernier Canon avait déjà commencé à travailler sur ce sujet avec l’agence de presse Reuters pour proposer cette certification des photos, qui devrait donc désormais apparaître chez d’autres fabricants.
« Barbouiller » numériquement les images
Et cela se veut invisible à l’oeil nu : c’est juste un bout de code informatique ajouté à la photo et enregistré sur la blockchain qui est un registre extrêmement sécurisé dont les informations sont inviolables. D’autres solutions vont encore plus loin, comme Glaze, un projet développé par l’Université de Chicago, qui propose aux dessinateurs et illustrateurs de barbouiller leur création de façon totalement invisible pour nous mais qui la rend illisible pour une IA qui voudrait s’inspirer de son style.
« Au coeur de Glaze il y a le fait qu’il y a une énorme différence entre la façon dont les humains perçoivent une image et la façon dont les modèles qui entraînent l’IA voient les images. Donc si vous êtes un artiste et que vous passez dans Glaze l’art que vous publiez en ligne, vous pouvez dormir sur vos deux oreilles… un modèle qui essaie de voler votre style à partir de cette oeuvre apprendra quelque chose de très différent, et quand il essaiera de vous imiter, il échouera », a expliqué dans une interview pour la BBC le professeur Ben Zaho, créateur de Glaze.
Ces initiatives viennent s’ajouter à Google qui a aussi annoncé l’an dernier ajouter des filigranes invisibles à l’oeil nu… autant de tactiques donc pour contourner l’IA. Reste que pour être plus malin que l’intelligence artificielle, eh bien l’une des solutions les plus efficaces ça reste la vigilance : il y a encore des incohérences ou des déformations sur les images créées artificiellement et qui sont pour le moment faciles à détecter… mais on ne sait pas pour combien de temps car la technologie avance à grande vitesse.
Crédit: Lien source


Les commentaires sont fermés.