« La technologie va trop vite pour les lois »


« Historique ! » s’est félicité le commissaire européen Thierry Breton quand, le 2 février dernier, l’Union européenne s’est accordée sur une législation inédite au niveau mondial pour réguler l’intelligence artificielle. « L’UE devient le premier continent à fixer des règles claires pour l’utilisation de l’IA », a ajouté celui qui était à l’origine du projet, présenté pour la première fois en avril 2021.

Le point du soir

Tous les soirs à partir de 18h

Recevez l’information analysée et décryptée par la rédaction du Point.

Merci !
Votre inscription à bien été prise en compte avec l’adresse email :

Pour découvrir toutes nos autres newsletters, rendez-vous ici : MonCompte

En vous inscrivant, vous acceptez les conditions générales d’utilisations et notre politique de confidentialité.

Cette nouvelle ne suscite pas pour autant l’engouement sans faille de certains experts du sujet. C’est le cas du philosophe et physicien Alexei Grinbaum, membre du Comité national pilote d’éthique du numérique, aussi expert de la Commission européenne et président du Comité opérationnel d’éthique du numérique du CEA. Ce dernier explique au Point pourquoi le choix de ce cadre réglementaire n’est pas adapté, selon lui, à la régulation d’une telle technologie.

Le Point : Quelles sont les principales problématiques éthiques à surveiller avec l’émergence des intelligences artificielles génératives dans nos sociétés ?

Alexei Grinbaum : Nous pouvons lister trois sources de questionnements éthiques. D’abord il y a des questions opérationnelles de contrôle et de filtrage des biais des IA génératives, qui viennent des données utilisées pour leur apprentissage.

Un autre type de problème éthique réside dans les « capacités émergentes », c’est-à-dire des capacités développées par ces IA que nous n’avions pas prévues au départ. Ces modèles peuvent dans certains cas mentir ou inventer des stratégies de manipulation et de conviction qu’on n’avait absolument pas programmées de manière intentionnelle. Cette capacité émergente nous prépare beaucoup de surprises positives, mais aussi des inquiétudes parce que c’est par là que peut passer la manipulation des êtres humains par les machines.

Enfin, un troisième volet de considérations éthiques est lié aux effets à long terme de l’intelligence artificielle générative sur les humains et la société. Comment est-ce que cette technologie va influencer la société humaine, le marché du travail, l’éducation des cerveaux humains ? C’est ici la question de l’adaptation des hommes à cette transformation technologique très rapide. On a beaucoup trop de réglementations et d’inertie dans les pays occidentaux, notamment au niveau du système éducatif, alors que ça va plus vite dans d’autres pays.

Réguler et imposer des contrôles aux acteurs de l’IA est donc nécessaire…

Les modèles d’IA générative sont des technologies duales, c’est-à-dire des technologies qu’on peut utiliser aussi bien pour le bien que pour le mal. Ce n’est pas la première fois dans l’Histoire qu’on en rencontre. Ça ne veut pas dire qu’il faut les bannir, mais nous devons les sortir sur le marché avec tout un tas de contrôles et de limites. Il faut encourager les ambitions des innovateurs tout en respectant les valeurs sociétales, comme celle de sécurité par exemple, dans le développement de ces technologies.

Mais l’AI Act ne constitue pas, selon vous, le bon garde-fou pour protéger les sociétés des potentielles dérives de l’intelligence artificielle ?

L’AI Act oblige tous les fabricants qui sortent des IA génératives sur le marché à réfléchir à l’éthique, à appliquer des grands principes éthiques comme la transparence, l’explicabilité de leurs modèles, la non-manipulation etc. C’est bien, mais ce qu’il faut vraiment faire, c’est rendre cela opérationnel. Si vous dites à un ingénieur « je veux que ton modèle soit transparent », il ne saura pas ce que ça signifie. Quand un modèle est utilisé pour la sécurité publique, pour la médecine ou pour l’éducation, ça veut dire des choses complètement différentes.

Les Américains et les Chinois ne sont pas passés par la loi et sont allés beaucoup plus vite que nous.Alexei Grinbaum

Les démarches comme celle de l’Unesco par exemple – qui, en 2021, a fait adopter à ses États membres un cadre éthique pour l’utilisation de l’IA, et l’a dupliqué en un accord à destination des grandes entreprises mondiales en février dernier, NDLR – ne me semblent pas très intéressantes. Multiplier les documents qui nous parlent de grandes valeurs n’a jamais fait ses preuves, des décomptes récents dénombrent déjà plus de 200 documents de ce genre… Ce n’est que le début du chemin, ensuite il faut pousser ces réflexions selon les cas d’usages et les domaines de l’IA. Il faut analyser au cas par cas les limites et les contraintes de chaque utilisation, et être conscient qu’elles peuvent évoluer dans le temps. Une contrainte qui était là il y a trente ans n’est plus bonne aujourd’hui parce que la société et les connaissances changent. C’est un processus continu.

Un processus continu qui ne correspond donc pas au caractère figé d’une loi, selon vous…

Je suis content que l’Europe ait mis en place un cadre, mais l’AI Act n’est pas parfait. Deux cent cinquante pages, c’est trop long… Quarante pages d’un texte court et clair auraient été bien plus efficaces. Je ne suis pas convaincu de l’idée de passer par une loi. Depuis le 30 octobre, les Américains ont un ordre exécutif du président Joe Biden. Pareil pour les Chinois : depuis le 15 août dernier, ils suivent les recommandations d’un document du pouvoir exécutif donnant un cadre au développement de l’IA générative. Ils ne sont pas passés par une loi et sont allés beaucoup plus vite.

Notre loi donne un pouvoir démesuré à la Cour européenne de justice, qui n’a aucune compétence scientifique et n’est pas censée en avoir. Malheureusement, en Europe, on a mis le destin de l’IA générative entre ses mains parce que c’est elle qui est compétente dans ce cadre législatif. Ce n’est pas une bonne idée selon moi. Dans vingt ou quarante ans, la loi sera toujours là alors même que les technologies auront complètement changé. Donc il faudra tout le temps réviser cette loi. Certains disent même qu’elle est déjà obsolète, alors qu’elle va entrer en vigueur fin 2025. D’ici là, elle sera peut-être complètement dépassée. En donnant ce pouvoir à un tribunal qui n’est pas dans la même temporalité et n’a pas les compétences, on s’est mis des bâtons dans les roues. La technologie va trop vite pour les lois.

Est-ce que l’Europe a lancé d’autres initiatives qui vous semblent plus prometteuses pour répondre aux besoins de régulation éthique de l’IA générative ?

Je suis avec attention l’organisation du bureau de l’IA à Bruxelles, l’AI Office – créé en janvier 2024 par la Commission européenne pour superviser le déploiement du règlement relatif à la loi sur l’IA. Cet organe est censé être beaucoup plus souple et donner des codes de conduite plus rapidement. Mais la vitesse de la transformation technologique est incommensurable avec la vitesse du système juridique européen. Dans les deux ans à venir, nous allons voir naître de très grandes tensions parce qu’on a mis entre les mains des tribunaux des sujets qui ne peuvent pas être à jour au moment où ces derniers verront tel ou tel cas se présenter à eux.


Crédit: Lien source

Les commentaires sont fermés.