Mophat Okinyi, 27 ans, dit que travailler dans l’IA l’a traumatisé
Des travailleurs kenyans ont décrit les traumatismes mentaux et les dommages psychologiques qu’ils ont subis pour s’assurer que la technologie de l’IA est sûre.
Les logiciels d’intelligence artificielle (IA) déferlent sur le monde et pour sécuriser les puissants chatbots comme ChatGPT, des modérateurs humains sont employés afin de s’assurer que l’IA peut reconnaître les contenus extrêmes et veiller à ce qu’ils ne soient pas montrés aux utilisateurs.
Il s’agit d’un secteur à croissance rapide, représentant plusieurs milliards de dollars, qui emploie des milliers de personnes dans des régions à faible revenu comme l’Afrique, l’Inde et les Philippines, ainsi que dans des pays à la pointe de l’innovation technologique comme la Chine et les États-Unis. Mais le processus de création de ces filtres de sécurité peut avoir des répercussions sur ceux qui regardent le matériel graphique.
« J’ai l’impression que ma vie entière s’est arrêtée », a déclaré Mophat. « Mon espoir s’est envolé, c’est comme si j’avais tout perdu.
Le Kényan travaillait comme étiqueteur de données, chargé de surveiller et de signaler les contenus extrêmes.
Le prix de l’IA
Ce jeune homme de 27 ans a déclaré que le traumatisme qu’il a subi l’a transformé, lui a coûté son mariage et ses amitiés et l’a laissé dans un état dépressif. D’autres collègues ont déclaré souffrir du syndrome de stress post-traumatique.
Mophat travaillait pour Sama, qui était sous contrat avec la société à l’origine de ChatGPT.
Lui et ses collègues étaient chargés de signaler les contenus extrêmes afin d’empêcher le chatbot de s’en procurer pour les utilisateurs – en tant qu’étiqueteur de données, le rôle de Mophat était de vérifier tous les contenus étiquetés et de s’assurer qu’ils étaient corrects. Il explique que chaque jour, il a dû lire des passages de texte faisant référence à la violence, aux discours haineux, à l’automutilation et au contenu sexuel.
« Il s’agissait de textes vraiment horribles et traumatisants », a-t-il déclaré. « Après avoir interagi avec ces textes pendant quatre mois, ma façon de penser a changé.
« En raison de mon changement de comportement, j’ai perdu ma famille, ma femme, et jusqu’à aujourd’hui, je suis toujours déprimé. »
Mophat se dit déprimé par la lecture quotidienne de textes sur la violence, les discours de haine et l’automutilation.
Pétition du Parlement
Mophat s’est joint à d’autres étiqueteurs de dates pour demander au Parlement kenyan d’enquêter sur les conditions d’emploi dans les entreprises technologiques kenyanes auxquelles les grandes entreprises technologiques étrangères font appel pour l’externalisation de la modération et d’autres tâches liées à l’intelligence artificielle.
Il affirme qu’ils n’ont pas été formés de manière adéquate pour faire face aux niveaux de contenu extrême des textes qu’ils ont rencontrés et qu’ils n’ont pas bénéficié d’un soutien psychologique professionnel suffisant – des allégations que Sama nie fermement.
Le Dr Veronicah Ngechu, psychologue et spécialiste du syndrome de stress post-traumatique, a expliqué que l’exposition à des contenus extrêmes en ligne était connue sous le nom de traumatisme secondaire et pouvait avoir des effets aussi importants que le traumatisme primaire subi par la personne victime de l’abus.
« Le traumatisme secondaire est très néfaste en raison du sentiment d’impuissance qui l’entoure », a-t-elle déclaré. « Parce que vous regardez, il n’y a pas d’étape suivante, personne à qui signaler, il n’y a rien que vous puissiez faire.
« Et parce que le contenu est modéré, il est imprévisible, vous ne savez pas ce que vous allez voir, vous ne savez pas comment cela va s’aggraver ».
Selon le Dr Ngechu, les symptômes d’un traumatisme secondaire peuvent inclure des cauchemars, l’évitement des contacts humains, un manque d’empathie et de l’anxiété ou de l’agitation face à tout ce qui peut déclencher un souvenir de ce qu’ils ont dit ou lu.
Elle a déclaré qu’il était « impératif » que les entreprises apportent leur soutien. « Pour s’assurer que cela n’affecte pas leur fonctionnement, leur qualité de vie. »
Les allégations d’exploitation des modérateurs de contenu au Kenya ne sont pas nouvelles. En mai, plus de 150 modérateurs de contenu africains qui ont fourni des services pour des outils d’intelligence artificielle utilisés par un certain nombre de grandes entreprises technologiques ont voté en faveur de la création de la première Union des modérateurs de contenu.
C’est ce genre de reconnaissance et de compréhension que Mophat souhaite de la part des grandes entreprises technologiques et de leurs milliards d’utilisateurs.
« Les gens devraient savoir que les personnes qui ont rendu leur plateforme sûre sont des modérateurs de contenu, car les gens ne savent même pas que ce groupe de personnes existe. »
L’ancien employeur de Mophat affirme qu’un soutien psychosocial a été fourni tout au long de l’engagement.
Sama a contesté toutes ces allégations et a déclaré que tous les candidats à l’emploi avaient été soumis à un processus de « sélection de la résilience » et qu’on leur avait montré des exemples du contenu avec lequel ils allaient travailler.
L’entreprise a également déclaré qu’avant de commencer le projet, le personnel a été invité à examiner et à signer un formulaire de consentement pour accepter ou refuser le projet, ce qui souligne une fois de plus que la nature du contenu pourrait être graphique.
« Les associés retenus pour le projet ont bénéficié d’un soutien psychosocial tout au long de leur engagement », a déclaré un porte-parole.
« Sama emploie des professionnels du bien-être qui fournissent des services de conseil psychologique, accessibles 24 heures sur 24 et 7 jours sur 7, sur place ou par l’intermédiaire du régime d’assurance maladie de l’entreprise.
Pour l’instant, Mophat attend de savoir si la pétition sera entendue par le parlement. Alors qu’il s’efforce de travailler sur sa santé mentale, il trouve un certain réconfort dans son expérience d’étiqueteur de données, qui, pense-t-il, l’aidera à se rétablir : « Je suis très fier. Je me suis senti comme un soldat. Aujourd’hui, ChatGPT est sûr pour tout le monde parce que mes collègues et moi avons pris les balles », a-t-il déclaré.
Crédit: Lien source


Les commentaires sont fermés.