« Il faut réglementer l’Intelligence Artificielle maintenant car il y a danger », alerte un chercheur grenoblois
Vous avez surement entendu parler de Chat GPT, ce logiciel qui permet de faire tout en n’importe quoi : écrire une dissertation, demander un pronostic de foot ou encore faire des blagues. Les députés européens se penchent sur la question, ce jeudi. Ils veulent réglementer
tout ce qui attrait à l’Intelligence Artificielle. C’est aussi le discours de Joseph Sifakis, chercheur grenoblois, prix Turing 2007, l’équivalent du prix Nobel pour les informaticiens en hommage à Alan Turing considéré comme le père de l’informatique moderne. Le scientifique grenoblois alerte, ce mardi sur France Bleu Isère, sur les dangers de l’Intelligence Artificielle si on ne la règlemente pas.
France Bleu Isère: L’Intelligence Artificielle, qu’est-ce au juste?
Joseph Sifakis: L’Intelligence Artificielle, c’est plutôt une vision. On veut construire des machines qui puissent remplacer les hommes dans toutes leurs fonctions, faire des machines aussi intelligentes que l’homme. Encore faut-il s’entendre sur ce que c’est l’intelligence. Tout le monde n’est pas d’accord sur ce que c’est.
Donc ce sont des machines qui pensent à notre place.
Elles peuvent penser à notre place, mais qui pourront, dans un avenir pas très lointain agir à notre place, remplacer les hommes comme des robots, par exemple mais on parle de voitures autonomes, on parle d’usines autonomes. Donc remplacer l’homme dans toutes les tâches quotidiennes, on peut aller très loin.
Il y a d’un côté des progrès formidables : vous avez parlé de ces voitures sans chauffeur, mais il y a aussi des risques. Quels risques justement ?
Ils sont multiples. Ça dépend des fonctions que remplissent ces appareils. Il y a le risque tout d’abord qu’ils prennent des décisions à notre place, donc qu’on ne maîtrise pas ce qu’ils font. Parce qu’un problème avec l’intelligence artificielle, c’est qu’on ne comprend pas comment l’intelligence artificielle fonctionne. C’est-à-dire contrairement aux ordinateurs classiques, contrairement à tout ce qu’on a fait dans la civilisation technique qui est fondée sur la science, on peut prévoir, comprendre. Et si on ne comprend pas, il n’y a pas de modèles qui expliquent leur comportement. Donc on peut avoir des surprises.
Ça veut dire en gros des robots qui pourront agir et penser comme nous. Est-ce que vous pensez qu’on peut aller jusque là?
Il se peut que le robot qu’on a entraîné à faire un certain nombre de choses ne comprenne pas bien leur mission pour le dire de façon simplifiée et fassent des choses non prévisibles.
Vous avez justement signé un moratoire pour expliquer qu’il faut réfléchir au développement de l’IA. Pourquoi avoir signé ce moratoire là ? Pour mettre des limites?
Exactement. Je pense que les dangers sont multiples. Je parlais d’un comportement non-prévisible de l’IA, mais il y a aussi le danger que, par exemple, pour Chat GPT, on donne aux enfants du Chat GPT et que l’homme devienne trop dépendant de ces engins qui peuvent faire, accomplir des tâches extraordinaires. Mais je pense que pour un enfant, c’est très dangereux d’utiliser comme ça cette technologie. Il faut qu’il apprenne à réfléchir lui même. Il faut qu’il apprenne à raisonner, faire des opérations arithmétiques. Ça, c’est très, très important pour l’homme. Pouvoir choisir librement et exercer ses responsabilités lorsqu’il choisit.
Ça veut dire qu’il faut réglementer ?
Je pense qu’il faut réglementer. Je ne suis pas contre ces technologies qui sont extraordinaires, qui joueront un rôle très, très important pour le développement des connaissances et de l’humanité. Mais je pense qu’il faut sérieusement réglementer leur usage, surtout pour les enfants. Ça peut être dangereux parce qu’il faut que les enfants apprennent à rédiger, apprennent à écrire des textes structurés. C’est très, très important pour leur personnalité, pour leur créativité. Donc je pense que c’est le rôle de l’Etat de faire, de réguler l’utilisation de ces enjeux, avec des lois, par exemple. Évidemment, il faut que tout ça se passe à un niveau plus global parce qu’on ne peut pas restreindre leur utilisation à un pays étant donné qu’ils sont accessibles par Internet, etc. Il faut que des décisions se prennent globalement et je pense qu’il y a des doutes.
Il faut le faire dès maintenant ?
Et il faut le faire dès maintenant. Oui, et c’est pour ça que je signale un moratoire. Mais il faut qu’on prenne le temps. Malheureusement, la technologie va beaucoup, beaucoup plus vite que nous. On ne peut pas réagir, assimiler et comprendre tout l’impact de la technologie. Donc, il faut prendre un temps de réflexion. C’est la sagesse même.
Crédit: Lien source


Les commentaires sont fermés.