l’environnement, l’angle mort du boom de l’IA générative

Technologies

On sest aperu quavoir normment de donnes et de moyens de calcul permettait damliorer les rsultats produits par les rseaux de neurones. Depuis, c’est la fuite en avant , dit Jean Ponce, professeur lENS PSL.


Pour le Grand Thma sur le numrique responsable, CIO et Le Monde Informatique se penchent sur l’impact environnemental de l’IA, et plus particulirement de l’IA gnrative. Un thme laiss dans l’ombre jusqu’ prsent par des fournisseurs peu transparents sur ce sujet.

PublicitA l’image de leur entreprise, la plupart des DSI sont engags dans une politique de limitation des impacts environnementaux du numrique, ou Green IT. Avec des initiatives sur l’allongement de la dure de vie des terminaux ou l’co-conception des applications par exemple. Une dmarche au long cours que vient percuter le boom de l’IA, et en particulier de l’IA gnrative. Les capacits gnralistes de ces modles sont directement lies la taille des modles de langage (les LLM) qui les sous-tendent, eux-mmes ayant donc besoin d’une puissance machine considrable pour les phases d’entranement (parfois des millions d’heures de calcul par des GPU).


Sasha Luccioni, HuggingFace : la gnration de texte est beaucoup plus nergivore qu’une simple recherche. Cela ne fait aucun sens de gnrer du texte pour ce type de besoin .

Et, attention, prvient Sasha Luccioni, chercheuse spcialise sur le sujet au sein de la start-up HuggingFace, on ne peut pas limiter l’valuation de l’impact environnemental des IA gnratives la seule phase d’entranement. Etant donn la large diffusion des usages de la technologie, l’infrence (soit la production de rsultats) pse galement trs lourd. Le tout dans un contexte o les diteurs d’outils d’IA gnrative, comme OpenAI, Meta ou Google, ne sont gure diserts sur les missions gnres par leurs services. Depuis le lancement de ChatGPT, il y a encore moins de transparence sur les chiffres qu’auparavant. C’est le secret total , regrette Sasha Luccioni.

Visionnez l’mission des rdactions du Monde Informatique et de CIO avec les tmoignages Sasha Luccioni, Stphane Tanguy et Jean Ponce (vido, 43 min.)

Une rcente tude laquelle Sasha Luccioni a particip value entre 200 et 500 millions le nombre de requtes ncessaires pour atteindre un impact environnemental quivalent la phase d’entranement (le chiffre prcis dpendant de l’usage et de la taille du modle). 200 millions de requtes pour ChatGPT, ce ne sont que trois semaines d’usage normal , souligne la chercheuse. Cette tude pointe encore les usages des IA gnratives les plus consommateurs d’nergie, comme la gnration d’images, ainsi que le surcot environnemental des modles les plus gnriques par rapport des quivalents plus petits et penss pour des tches spcifiques. Et Sasha Luccioni de souligner l’aberration que constitue l’utilisation de la GenAI dans le cadre de la recherche : la gnration de texte est beaucoup plus nergivore qu’une simple recherche. Cela ne fait aucun sens de gnrer du texte pour ce type de besoin .

PublicitLa piste du quantique

DSI et CTO des laboratoires EDF, Stphane Tanguy est, avec ses quipes, avant tout un utilisateur d’IA, par exemple pour amliorer le niveau de prcision des prvisions de consommation. D’autant que le modle s’est complexifi avec la production dcentralise. Il va falloir tre en mesure d’effectuer des prvisions des mailles plus locales qu’auparavant , dcrit le DSI et CTO. Pour ces besoins, mais aussi pour les calculs de simulation – soit des millions de tches chaque mois -, EDF commence afficher aux utilisateurs internes le cot nergtique calcul par calcul .


Stphane Tanguy, EDF : dans l’informatique quantique, nous avons lanc un projet de recherche pour essayer de faire les bons choix de design d’emble, contrairement au transistor et au microprocesseur qui se sont dvelopps sans prendre en compte la contrainte environnementale

Au-del de cette responsabilisation des utilisateurs, EDF travaille sur plusieurs pistes technologiques, divers horizons. Sur le court terme, la tendance consiste aller vers des modles plus frugaux, des modles plus petits que GPT 3.5 ou 4. Nous voulons dvelopper des modles souverains partir de petits modles Open Source et les spcialiser sur nos propres bases de connaissances , dit Stphane Tanguy. A moyen et long terme, la R&D de l’lectricien value aussi les opportunits amenes par l’informatique quantique. Les ordinateurs quantiques actuels, avec quelques centaines de qubits, ont des consommations relativement raisonnes. Mais ce n’est pas suffisant pour prdire leur performance une fois qu’ils passeront l’chelle , reprend le DSI. D’o un projet de recherche, de quatre ans, lanc par EDF avec d’autres acteurs de l’cosystme quantique afin de dfricher ce sujet de la consommation nergtique des systmes quantiques. L’objectif de ce programme soutenu par la BPI ? Essayer ds aujourd’hui de faire les bons choix de design en la matire, contrairement au transistor et au microprocesseur qui se sont dvelopps sans prendre en compte la contrainte environnementale , indique Stphane Tanguy.

Les rseaux de neurones et la fuite en avant

Le professeur au dpartement d’informatique de l’ENS PSL Jean Ponce rappelle, de son ct, le cadre dans lequel doit s’inscrire la rflexion sur l’impact de l’IA. La consommation nergtique des datacenters hbergeant les modles d’IA n’est ainsi que le volet le plus visible de l’impact environnemental de la technologie, qui devrait tenir compte du cycle complet, allant de la production des matriaux et composants ncessaires la construction des datacenters leur recyclage en passant par la consommation d’eau. Et de noter le flou qui entoure encore les valuations actuelles : sur l’impact de l’IA, les tudes se contredisent les unes les autres , note Jean Ponce.

Ce dernier souligne la rupture amene par les rseaux de neurones convolutifs la fin des annes 80 qui, une fois passs l’chelle sur des grands volumes de donnes associes d’importantes capacits de calcul, ont commenc fournir des rsultats probants aux dbuts des annes 2010. C’est ce moment-l qu’on s’est aperu qu’avoir normment de donnes et de moyens de calcul permettait d’obtenir de bien meilleurs rsultats. Et, depuis, on assiste une fuite en avant , dcrit le professeur, qui travaille galement l’Universit de New York.

Toutefois, selon Jean Ponce, plusieurs raisons poussent aujourd’hui les chercheurs dvelopper des IA plus frugales : des raisons qu’ils qualifient d’esthtiques – dvelopper un modle surpuissant pour couvrir un ensemble de tches spcialises est une solution mathmatique peu lgante -, la limitation de l’impact environnemental, mais aussi le dveloppement d’applications embarques ou Edge. Par exemple, pour un robot, il est absurde d’apprendre un modle les mouvements de ce robot, puisque vous l’avez construit, donc vous avez dj ces informations , illustre l’universitaire. Une faon d’allier modlisation et IA pour limiter la facture climatique globale d’une technologie de plus en plus prsente dans les entreprises.

Visionnez l’mission des rdactions du Monde Informatique et de CIO avec les tmoignages Sasha Luccioni, Stphane Tanguy et Jean Ponce (vido, 43 min.)

Partager cet article

Crédit: Lien source

Les commentaires sont fermés.