Axel Cypel, ingénieur de l’école des Mines de Paris, et auteur de Voyage au bout de l’IA (1), observe un mélange entre d’engouements et d’inquiétudes autour de l’intelligence artificielle (IA), entre lendemains qui chantent et déchantent. Il appelle à la raison, pour se prémunir des manipulations. Interview.
Le succès médiatique de l’intelligence artificielle (IA) dévie aussi en succès marketing : pourquoi l’IA semble être partout, même quand elle n’y est pas ?
Il y a quelques années encore, on aurait pu parler d’emballement médiatique, mais ce terme est dorénavant dépassé. Pour avancer une explication, je pense qu’il suffit de revenir à la sphère économique : une réussite impressionnante a eu lieu, qui peut enfin se propager dans le grand public. Cette réussite a appelé, et attiré à elle, des capitaux monumentaux, des milliards de dollars. Des milliards qui existent partout, mais qui avaient jusqu’à présent quelques difficultés à s’investir, dans le contexte de taux bas — voire négatifs, il n’y a pas si longtemps — que nous avons connu de nombreuses années. Vous avez maintenant une technologie qui peut être utilisée partout, puisqu’elle fait partie du numérique, et que l’usage du numérique est poussé de manière massive.
Une bulle n’est-elle pas en train de se former ?
Dès lors que les milliards ont été investis, que reste-t-il à faire ? A ne surtout pas faire retomber le soufflé. En finance, on parle de « bulle ». Comment s’y prend-on ? Le marketing doit assurer la relève, et emboîter le pas à la recherche et développement, qui profitera, elle aussi, du ruissellement de ces milliards. C’est une forme de processus qui s’entretient de lui-même. Jusqu’à ce qu’un jour, la bulle éclate, si bulle il y a.
Cet engouement pour l’IA fait peur, si bien que vous parlez « d’automatisation de la peur » dans votre dernier ouvrage, Voyage au bout de l’IA (1) ?
Oui, j’ai transcris sous la forme d’un jeu de mots, dans l’un des titres de paragraphe de mon dernier livre, Voyage au bout de l’IA, ce qui m’est apparu au gré de plusieurs années d’observation. Normalement on utilisait l’IA pour automatiser des processus, d’où la peur du remplacement. Mais en vérité, c’est plus à une forme de mécanisation de la peur autour des technologies d’intelligence artificielle à laquelle on assiste. Cette tendance, cette forme de « gouvernementalité », se répand hélas de plus en plus, et pas seulement dans l’IA.
Pourquoi ?
Il est tellement plus facile d’encadrer les comportements de gens qui ont peur. Les discours belliqueux sont même à la mode actuellement… Il faut dire que les guerres sont à la mode en ce moment, mais nous nous écartons de notre sujet. Pour y revenir, au-delà des craintes entourant l’emploi, de l’usage des données, il y a des peurs vis-à-vis de toutes les choses que l’on peut faire avec les technologies, pour le meilleur et pour le pire… S’il y a des attaques cyber, c’est que leur usage dégage de la valeur, malheureusement, dans ce cas-là, illégalement. Se glisse aussi, pour faire suite à votre première question, une crainte quasi irrationnelle de « louper le coche » qui va permettre de drainer quelques subsides envers les conseilleurs, qui, comme chacun sait, ne sont pas les payeurs.
Réguler l’usage et le développement des IA en Europe est une réponse à cette peur ?
La question de la régulation est délicate. Au fond, qu’est-ce que l’IA pour nécessiter une régulation particulière, qui plus est sur un mode d’échelonnement de risques anticipés ? On a souvent dit que c’était la manière de l’Europe de faire semblant d’exister au sein de cette course mondiale qui voit s’affronter les géants américains et chinois. On constate cependant qu’elle a fait des émules, et que d’ailleurs, tant les Américains que les Chinois ont aussi régulé, pas forcément de la même manière. Un des problèmes soulevés par cette régulation, c’est qu’elle cherche un équilibre entre la protection des citoyens-consommateurs et le développement de son industrie, ou du moins de ce qu’il en reste.
Cette recherche d’équilibre entraîne des paradoxes ?
Un peu comme les recommandations que la Commission européenne sur l’IA vient de faire paraître en France : « Transformer notre approche de la donnée personnelle pour mieux innover » doit s’entendre comme assouplir les règles du Règlement général sur la protection des données (RGPD), tout en maintenant un niveau de sécurité adéquat. Ce genre d’injonction paradoxale est assez énervant. Heureusement, on y trouve aussi la réponse à votre question : « Structurer une initiative diplomatique cohérente et concrète, visant la fondation d’une gouvernance mondiale de l’IA. » Sauf que cela ne répond pas à la mienne. Quel est l’objectif visé derrière cette gouvernance mondiale ? Une gouvernance mondiale est-elle possible ? Je ne dis même pas « souhaitable ». Doit-on se résoudre à un État-monde ? Qui décidera ?
Cette réglementation européenne veut inspirer le développement d’une IA éthique : est-ce mesurable ?
L’éthique est une notion philosophique complexe, comme toutes les notions philosophiques, d’ailleurs. S’agissant de l’IA, qui n’est qu’un artefact informatique, cette question peut être abordée, sans perdre trop en généralité, d’une manière très simple : est-ce que je nuis à mon prochain en utilisant ma technologie ? Évidemment, ce n’est pas si simple que cela, car ce qui peut me faire du bien à moi, peut vous nuire à vous, et réciproquement. Mais il y a tout de même une forme de constante dans les réactions humaines, et beaucoup de gens s’accorderont à dire que tel usage est bon, quand tel autre est intrinsèquement mauvais.
Mais « éthique » pour qui, et pour quoi ?
L’éthique de l’IA concerne chacun d’entre nous, car nous sommes tous en droit de ne pas vouloir que des technologies comme l’IA — ou d’autres — soient utilisées sur nous. Abordons maintenant la question du « pour quoi ? » pour laquelle la réponse est double : tout d’abord, pour continuer à vivre dans une société respectueuse des personnes, et l’on sait que ce n’est déjà pas le cas de toutes les sociétés actuelles… Mais aussi dans un but bien plus mercantile : annoncer que l’on fait de l’IA avec éthique est un discours rassurant, qui permet de boucler des contrats plus aisément.
Le développement de l’IA est-il toujours limité aux biais ?
Le développement de l’IA par les techniques du “machine learning” [l’apprentissage automatique — NDLR] est fatalement et irrémédiablement impacté par les biais. C’est quelque chose qui est intrinsèque aux données. Pour autant, c’est quelque chose sur lequel il est loisible de travailler, et d’intervenir a posteriori, pour procéder à des corrections. Ce que je rappelle dans Voyage au bout de l’IA, c’est qu’il ne faut pas se limiter à la question des biais pour questionner les limites de l’IA.
Qu’est-ce qui limite l’IA ?
Vous avez une technologie fondée sur le caractère probabiliste, et rien que cela pose question. Que permet-elle ? Peut-on expliquer les décisions que nous lui déléguerions ? Qui avantage-t-elle ? Ainsi, la question des biais, souvent enchaînée avec celle des discriminations, n’est qu’une question parmi d’autres, toutes aussi intéressantes. Ensuite, on peut aussi aborder la question des biais qu’engendrerait un usage massif des productions de ces IA génératives. Ira-t-on vers une démultiplication de contenus similaires, provoquant un biais dans l’information, ou, au contraire les productions originales se distingueront-elles du lot de ce qui aura été généré automatiquement ? Quid de la connaissance ? Vous voyez que dès que l’on parle de biais, on débouche sur des questions plus profondes.
Pourquoi estimez-vous que la « machine n’apprend plus » ?
Je crois que vous faites référence, là encore, à l’une des sections qui concernent les limitations de l’apprentissage machine. C’est en fait un clin d’œil au titre d’un ouvrage que le lecteur intéressé à l’IA reconnaîtra peut-être : celui de Yann Le Cun, Quand la machine apprend : la révolution des neurones artificiels et de l’apprentissage profond (2). Eh bien, il y a aussi des cas où elle n’apprend plus, ou, disons-le plus précisément, où elle ne peut apprendre, car la constitution d’un modèle probant n’est pas possible, relativement aux données disponibles.
Les algorithmes sont donc limités par les mathématiques ?
C’est un paradoxe intéressant que de noter que l’IA provient du “big data” — ces exa-octets de données stockés sur les serveurs mondiaux —, mais qu’en même temps, certaines contraintes mathématiques et techniques limitent la capacité des algorithmes à extraire l’information des données. On ne peut toutefois pas nier les très belles réussites de l’intelligence artificielle. Seulement, comme toutes les techniques et tous les outils, ceux-ci ont un domaine de validité qu’il faut respecter. C’est un petit détail largement oublié par le business et par le solutionnisme technologique.
L’IA est-elle soumise à la logique du « winners take it all » : seuls les géants du secteurs concentrent la technologie et la recherche ?
Pour tenter de répondre à cette question, il faut se souvenir d’où l’IA provient. L’IA actuelle est indissociable des données, et elle a pu advenir grâce à une sérieuse augmentation de la puissance de calcul informatique. Or, plus vous disposez de ces deux ingrédients, meilleurs vous êtes en IA, et plus vous disposez de ces ingrédients, etc. Dans mon premier ouvrage, j’écrivais, en substance, qu’une recherche et développement efficace nécessitait d’abord des idées plutôt que des subsides. Je continue de penser que c’est très vrai sur le plan théorique ou fondamental. Mais, pour le développement et l’usage d’une technologie dont les recettes sont connues, la masse et les économies d’échelle jouent à plein.
D’autres acteurs peuvent émerger ?
Oui, la recherche et développement est majoritairement le fait des grands acteurs du numérique. Mais pas seulement. Après tout, OpenAI n’a pas la taille de Meta ou de Google, mais OpenAI a coiffé tout le monde au poteau. Certes, pendant quelques mois seulement, mais ces mois lui auront permis de prendre une position de marché importante. Ce vainqueur prendra-t-il tout ? On constate tout de même que la concurrence est rude et globalisée.
1) Voyage au bout de l’IA d’Axel Cypel (De Boeck Supérieur), 192 pages, 17,90 euros.
2) Quand la machine apprend : la révolution des neurones artificiels et de l’apprentissage profond de Yann Le Cun (Odile Jacob, 2019), 394 pages, 23,90 euros.
Crédit: Lien source


Les commentaires sont fermés.