« L’IA a besoin d’un interrupteur, comme l’électricité a un disjoncteur »

A l’occasion du Forum de Paris pour la Paix, le président de Microsoft, Brad Smith, avocat de formation, est présent en France, et invité de France Inter. Pourquoi l’un des GAFAM participe-t-il à un forum pour la paix ? « Le monde dans lequel nous vivons aujourd’hui, et la préservation de la paix, exigent de la technologie« , explique-t-il. « Il faut que des entreprises technologiques comme la nôtre interviennent pour s’assurer que nous utilisons la technologie pour protéger les pays, aider les gens« , en particulier sur les problématiques de protection contre les cyberattaques. « Si vous regardez la guerre en Ukraine, nous avons fini par jouer un rôle surprenant, mais finalement indispensable, dans la protection de l’Ukraine contre les cyberattaques de la Russie« , ajoute-t-il.

« Tout ce qui a été inventé peut être un outil ou une arme »

Au coeur des discussions, le rôle de l’intelligence artificielle – est-ce une menace pour la paix ou, au contraire, une solution ? Le président de Microsoft appelle à remettre les choses en contexte : « Tout ce qui a été inventé peut en fin de compte être utilisé comme un outil ou comme une arme. Pensez à un balai que nous avons tous dans le placard à côté de la cuisine. On peut l’utiliser comme un balai pour balayer le sol, on peut l’utiliser pour frapper quelqu’un sur la tête« , illustre-t-il. Mais dans le cas de l’IA, « plus l’outil est puissant, plus l’arme le sera aussi« .

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d’intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d’utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.

Faut-il ainsi, comme l’a préconisé Elon Musk, se méfier de l’IA comme grande menace existentielle pour l’espèce humaine ? En prenant pour référence la structure de toutes les histoires de science-fiction, le patron de Microsoft tempère. « Nous avons besoin d’avoir un interrupteur pour éteindre la machine si elle ne fonctionne pas correctement. Ce n’est pas nouveau : lorsque l’électricité a été inventée, la première réaction a été de dire, c’est dangereux, c’est comme un éclair, ça peut tuer. Aujourd’hui, dans chaque maison, vous avez quoi ? Un disjoncteur. Nous avons besoin de freins de sécurité pour l’intelligence artificielle lorsqu’elle contrôle les infrastructures critiques, les automatisations de systèmes« .

« Pas de consensus sociétal » sur ce que doivent faire les GAFAM face aux « fake news »

Alors que plusieurs personnalités du monde de la tech ont appelé à suspendre les recherches sur l’IA, Brad Smith ne pense pas qu’on puisse demander à l’innovation de ralentir, mais en revanche « il faut demander aux gouvernement d’accélérer » sur leur régulation de l’IA. « Je suis optimiste, je pense qu’on peut faire avancer les choses, pas exactement à la même vitesse, mais nous faisons en sorte que les lois et les réglementations commencent à avancer plus rapidement, c’est une bonne chose » dit-il, citant en exemple le texte signé aux États-Unis par Joe Biden pour lancer une régulation de l’IA. « Il y aura probablement un jour où je regretterai d’avoir dit ça« , ironise-t-il.

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d’intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d’utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.

Ce que peut l’IA dans sa forme la plus immédiate, c’est aussi la diffusion de fake news, d’images manipulées. Mais face à ce danger très immédiat, que peuvent les grandes entreprises ? Selon Brad Smith, il y a trois réponses : la première c’est la création d’outils pour faciliter la détection de ces contenus, la seconde c’est l’utilisation de l’IA pour les identifier (« Nous devenons très doués pour identifier une campagne de désinformation russe« , dit-il par exemple), mais la troisième est la plus épineuse, c’est celle de ce que doivent faire les plateformes qui hébergent du contenu. « Il n’y a pas de consensus sociétal sur ce que ces entreprises doivent faire, et c’est ce qui me préoccupe le plus, car 2024 est à nos portes« , c’est-à-dire la prochaine élection américaine.

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d’intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d’utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.


Crédit: Lien source

Les commentaires sont fermés.