nous devons arrêter l’IA axée sur la technologie

Les experts plaident en faveur d’une IA centrée sur l’humain, préconisant la conception d’une technologie qui soutient et enrichit la vie humaine, plutôt que de forcer les humains à s’y adapter. Un nouveau livre réunissant cinquante experts de plus de douze pays et disciplines explore les moyens pratiques de mettre en œuvre une IA centrée sur l’humain, en abordant les risques et en proposant des solutions dans divers contextes.

Selon une équipe d’experts mondiaux, nous devons arrêter le développement de nouvelles technologies d’IA simplement pour le bien de l’innovation, ce qui oblige à ajuster les pratiques, les habitudes et les lois pour s’adapter à la technologie. Ils plaident plutôt pour la création d’une IA qui répond précisément à nos besoins, en s’alignant sur les principes de la conception d’une IA centrée sur l’humain.

Cinquante experts du monde entier ont contribué à un nouvel ouvrage sur la manière de rendre l’IA plus « centrée sur l’humain », explorant les risques – et les opportunités manquées – liés à la non-utilisation de cette approche et les moyens pratiques de la mettre en œuvre.

Les experts viennent de plus de 12 pays, dont le Canada, la France, l’Italie, le Japon, la Nouvelle-Zélande et le Royaume-Uni, et de plus de 12 disciplines, dont l’informatique, l’éducation, le droit, la gestion, les sciences politiques et la sociologie.

IA centrée sur l’humain examine les technologies d’IA dans divers contextes, notamment l’agriculture, les environnements de travail, les soins de santé, la justice pénale, l’enseignement supérieur, et propose des mesures applicables pour être plus « centrées sur l’humain », notamment des approches de bacs à sable réglementaires et des cadres de travail interdisciplinaire.

Qu’est-ce que l’IA centrée sur l’humain ?

L’intelligence artificielle (IA) imprègne nos vies de plus en plus et certains experts affirment que compter uniquement sur les entreprises technologiques pour développer et déployer cette technologie d’une manière qui améliore réellement l’expérience humaine sera préjudiciable aux personnes à long terme. C’est là qu’intervient l’IA centrée sur l’humain.

L’une des plus grandes expertes mondiales en matière d’IA centrée sur l’humain, Shannon Vallor de l’Université d’Édimbourg en Écosse, explique que l’IA centrée sur l’humain signifie une technologie qui aide les humains à s’épanouir.

Elle déclare : « La technologie centrée sur l’humain consiste à aligner l’ensemble de l’écosystème technologique sur la santé et le bien-être de la personne humaine. Le contraste est avec la technologie conçue pour remplacer les humains, rivaliser avec les humains ou dévaloriser les humains, par opposition à la technologie conçue pour soutenir, responsabiliser, enrichir et renforcer les humains.

Elle cite l’IA générative, qui a gagné en popularité ces dernières années, comme exemple de technologie qui n’est pas centrée sur l’humain – elle soutient que la technologie a été créée par des organisations souhaitant simplement voir à quel point elles peuvent créer un système puissant, plutôt que de le faire. répondre à un besoin humain.

« Ce que nous obtenons est quelque chose auquel nous devons faire face, par opposition à quelque chose conçu par nous, pour nous et pour notre bénéfice. Ce n’est pas la technologie dont nous avions besoin », explique-t-elle. « Au lieu d’adapter les technologies à nos besoins, nous nous adaptons aux besoins de la technologie. »

Quel est le problème avec l’IA ?

Contributeurs à IA centrée sur l’humain exposent leurs espoirs, mais aussi de nombreuses préoccupations concernant l’IA actuelle et sur sa trajectoire actuelle, sans une focalisation centrée sur l’humain.

Malwina Anna Wójcik, de l’Université de Bologne, en Italie, et de l’Université du Luxembourg, souligne les biais systémiques dans le développement actuel de l’IA. Elle souligne que les communautés historiquement marginalisées ne jouent pas un rôle significatif dans la conception et le développement des technologies d’IA, ce qui conduit à « l’enracinement des discours de pouvoir dominants ».

Elle fait valoir qu’il y a un manque de données sur les minorités ou que les données disponibles sont inexactes, ce qui conduit à la discrimination. En outre, la disponibilité inégale des systèmes d’IA entraîne un creusement des écarts de pouvoir, les groupes marginalisés étant incapables d’alimenter la boucle de données de l’IA et, en même temps, de bénéficier des technologies.

Sa solution réside dans la diversité de la recherche ainsi que dans les projets interdisciplinaires et collaboratifs à l’intersection de l’informatique, de l’éthique, du droit et des sciences sociales. Au niveau politique, elle suggère que les initiatives internationales doivent impliquer un dialogue interculturel avec les traditions non occidentales.

Matt Malone, de l’Université Thompson Rivers au Canada, explique quant à lui comment l’IA pose un défi en matière de confidentialité, car peu de gens comprennent vraiment comment leurs données sont collectées ou comment elles sont utilisées.

« Ces lacunes en matière de consentement et de connaissances entraînent des intrusions perpétuelles dans des domaines que la confidentialité pourrait autrement chercher à contrôler », explique-t-il. « La vie privée détermine jusqu’où nous laissons la technologie pénétrer dans les sphères de la vie et de la conscience humaines. Mais à mesure que ces chocs s’estompent, la vie privée est rapidement redéfinie et repensée, et à mesure que l’IA capte plus de temps, d’attention et de confiance, la vie privée continuera à jouer un rôle déterminant dans le tracé des frontières entre l’humain et la technologie.

Malone suggère que « la vie privée évoluera avec l’acceptation ou le rejet des technologies basées sur l’IA » et que même si la technologie offre une plus grande égalité, il est probable que l’individualité soit en jeu.

IA et comportement humain

En plus d’explorer les impacts sociétaux, les contributeurs étudient les impacts comportementaux de l’utilisation de l’IA sous sa forme actuelle.

Oshri Bar-Gil de l’Institut de recherche en sciences comportementales d’Israël a mené un projet de recherche sur la manière dont l’utilisation des services Google a entraîné des changements dans la perception de soi et de son image. Il explique qu’un « soi » de données est créé lorsque nous utilisons une plate-forme, puis la plate-forme obtient plus de données sur la façon dont nous l’utilisons, puis elle utilise les données et les préférences que nous fournissons pour améliorer ses propres performances.

« Ces moteurs de recommandation efficaces et bénéfiques ont un coût caché : leur influence sur nous en tant qu’humains », dit-il. « Ils modifient nos processus de pensée, altérant certains de nos aspects humains fondamentaux que sont l’intentionnalité, la rationalité et la mémoire dans la sphère numérique et dans le monde réel, diminuant ainsi notre capacité d’action et notre autonomie. »

S’intéressant également aux impacts comportementaux, Alistair Knott de l’Université Victoria de Wellington, en Nouvelle-Zélande, et Tapabrata Chakraborti de l’Institut Alan Turing de l’University College de Londres, au Royaume-Uni, et Dino Pedreschi de l’Université de Pise, en Italie, ont examiné l’utilisation généralisée de l’IA. dans les médias sociaux.

« Même si les systèmes d’IA utilisés par les plateformes de médias sociaux sont, dans un certain sens, centrés sur l’humain, plusieurs aspects de leur fonctionnement méritent un examen attentif », expliquent-ils.

Le problème vient du fait que l’IA apprend continuellement du comportement des utilisateurs, affinant son modèle d’utilisateurs à mesure qu’ils continuent à interagir avec la plateforme. Mais les utilisateurs ont tendance à cliquer sur les éléments que le système de recommandation leur suggère, ce qui signifie que le système d’IA est susceptible de restreindre la gamme d’intérêts d’un utilisateur au fil du temps. Si les utilisateurs interagissent avec un contenu biaisé, ils sont plus susceptibles de se voir recommander ce contenu et s’ils continuent d’interagir avec celui-ci, ils en verront davantage : « En bref, il y a une raison plausible de s’inquiéter du fait que les systèmes de recommandation pourraient jouer un rôle. un rôle pour amener les utilisateurs vers extrémiste postes. »

Ils suggèrent des solutions à ces problèmes, notamment une transparence accrue de la part des entreprises détenant des données sur les systèmes de recommandation, afin de permettre une étude et un reporting plus approfondis sur les effets de ces systèmes, sur les attitudes des utilisateurs à l’égard des contenus préjudiciables.

Comment l’IA centrée sur l’humain peut-elle fonctionner dans la réalité ?

Pierre Larouche de l’Université de Montréal, Canada, affirme que traiter l’IA comme « un objet de droit et de réglementation autonome » et supposer qu’il n’existe « aucune loi actuellement applicable à l’IA » a donné à certains décideurs politiques le sentiment qu’il s’agit d’une tâche insurmontable.

Il explique : « L’IA étant considérée comme un nouveau développement technologique, on suppose qu’il n’existe encore aucune loi la concernant. Dans le même ordre d’idées, malgré la rareté – voire l’absence totale – de règles spécifiques concernant l’IA en tant que telle, les lois applicables à l’IA ne manquent pas, en raison de son ancrage dans les relations sociales et économiques.

Larouche suggère que le défi n’est pas de créer une nouvelle législation mais de déterminer comment la loi existante peut être étendue et appliquée à l’IA, et explique : « Permettre au débat d’être encadré comme une discussion éthique ouverte sur une page juridique blanche peut être contre-productif. -productive pour l’élaboration des politiques, dans la mesure où elle ouvre la porte à diverses tactiques dilatoires destinées à prolonger indéfiniment les discussions, alors que la technologie continue de progresser à un rythme rapide.»

Benjamin Prud’homme, vice-président, Politiques, société et affaires mondiales à Mila – Institut québécois d’intelligence artificielle, l’une des plus grandes communautés académiques dédiées à l’IA, fait écho à cet appel à la confiance envers les décideurs politiques.

Il explique : « Ma première recommandation, ou peut-être mon premier espoir, serait que nous commencions à nous éloigner de la dichotomie entre innovation et réglementation – que nous reconnaissions qu’il pourrait être acceptable d’étouffer l’innovation si cette innovation est irresponsable.

« Je dirais aux décideurs politiques d’avoir plus confiance dans leur capacité à réglementer l’IA ; que oui, la technologie est nouvelle, mais qu’il est inexact de dire qu’ils n’ont pas (avec succès) relevé les défis liés à l’innovation dans le passé, beaucoup de gens dans la communauté de gouvernance de l’IA ont peur de ne pas faire les choses correctement dès le départ. Et vous savez, une chose que j’ai apprise au cours de mes expériences dans les cercles décisionnels, c’est que nous n’allons probablement pas réussir dès le départ. C’est OK.

« Personne n’a de baguette magique. Je dirais donc ce qui suit aux décideurs politiques : prenez la question au sérieux. Faites de votre mieux. Invitez un large éventail de points de vue, notamment les communautés marginalisées et les utilisateurs finaux, à la table pour tenter de trouver les bons mécanismes de gouvernance. Mais ne vous laissez pas paralyser par une poignée de voix prétendant que les gouvernements ne peuvent pas réglementer l’IA sans étouffer l’innovation. L’Union européenne pourrait donner l’exemple à cet égard, puisque le très ambitieux AI Act, première loi systémique sur l’IA, devrait être définitivement approuvé dans les prochains mois.»

Crédit: Lien source

Les commentaires sont fermés.