OpenAI veut utiliser sa technologie d’intelligence artificielle pour modérer les contenus

C’est un cas d’usage supplémentaire pour GPT-4, la dernière version du modèle de langage qui alimente ChatGPT. Son créateur, le laboratoire californien OpenAI dévoile ce mardi sur son site les possibilités offertes par sa technologie en matière de modération de contenu.

« Un système de modération de contenu utilisant GPT-4 permet des ajustements plus rapides de la politique de modération, le cycle se réduisant de mois en heures », déclare l’entreprise. GPT-4 peut aussi « interpréter les règles et les nuances de longs documents » relatifs à la modération et « s’adapter instantanément aux mises à jour », précise OpenAI, permettant ainsi une labellisation plus efficace.

L’IA peut aider à modérer le trafic en ligne sur les plateformes, conformément à leurs politiques, et « soulager la charge mentale d’un grand nombre de modérateurs humains », assure la société. Pour en apporter la preuve, OpenAI, qui précise utiliser son propre système pour ses décisions de modération, invite ses utilisateurs à en faire le test. Tous ses clients disposant d’un accès à l’API (l’interface) d’OpenAI peuvent désormais s’y essayer.

Des humains dans la boucle

Les grandes plateformes utilisent déjà des algorithmes d’intelligence artificielle pour automatiser les décisions de modération. Elles s’appuient cependant aussi sur des équipes humaines pour traiter les contenus litigieux.

L’automatisation de la modération ne saurait en effet être totale, convient Open AI. « Les jugements par les modèles de langage sont vulnérables à des biais non-désirés, qui pourraient avoir été introduits dans le modèle pendant son entraînement. Comme pour toute application d’intelligence artificielle, les résultats et la production devront être suivis avec attention, validés et affinés en conservant des humains dans la boucle », selon l’entreprise. Une mesure de prudence nécessaire, alors que le rôle des algorithmes d’IA générative dans la diffusion de fake news a été récemment pointé du doigt.

Dans l’idéal, des modérateurs humains pourront utiliser cette technologie pour se libérer de certaines tâches et se concentrer sur les décisions plus complexes, liées aux cas les plus extrêmes de violations des règles, ou à la manière de mettre à jour la politique de modération, a indiqué une représentante d’OpenAI à Bloomberg.

Crédit: Lien source

Les commentaires sont fermés.