Apple s’intéresse à ChatGPT, tout en s’en méfiant comme de la peste

  • Tim Cook confirme l’intérêt de Apple pour ChatGPT
  • Le dirigeant souligne toutefois ses doutes, notamment autour de la mésinformation et des biais de traitement
  • Il craint également que le régulateur ne puisse pas tenir le rythme des avancées autour de l’intelligence artificielle

Un article de nos confrères de The Motley Fool rapporte au cas où vous en douteriez que Tim Cook le patron de Apple a bel et bien testé ChatGPT. Le responsable aurait trouvé la technologie passionnante, et aurait même indiqué que Apple explore en ce moment le potentiel de la technologie dans ses produits et services.

Toutefois, il souligne au moins trois doutes qui résonnent avec les déclarations d’autres figures du secteur. En effet, selon le PDG Apple, le premier risque de ChatGPT est sa capacité à colporter des opinions biaisées. Bien que OpenAI fasse des efforts pour policer autant que possible les réponses de ChatGPT et délivrer une expérience la plus neutre possible, des analyses poussées ont montré que l’IA délivre souvent des réponses plus à gauche sur le spectre politique.

L’IA laisse à Apple une sensation de chaud et de froid

Selon le Brookings Institution, la situation en la matière est toutefois loin d’être catastrophique. D’autant que ChatGPT peut délivrer des réponses différentes à une même question. Problème plus grave, en revanche : celui de la désinformation. Avec ChatGPT il devient facile de produire des fake news de façon industrielle. Or, le corpus de données sur lequel le modèle a été entraîné débouche aussi parfois spontanément sur des informations fausses.

Ce qui vaut également pour Bing Chat (GPT-4). En outre, les données chiffrées sont souvent incorrectes, même lorsque l’IA a accès à des sources fiables sur internet. Enfin, le troisième doute, sans doute le plus menaçant, autour de la technologie, est la vitesse à laquelle l’IA se développe. Les modèles d’IA comme ChatGPT peuvent s’adapter facilement en collectant d’autres données.

Selon Tim Cook, cela peut provoquer une paralysie du régulateur autour de l’IA – découlant potentiellement sur des abus. “Si vous regardez le secteur, alors on constate que l’IA est si puissante que les entreprises doivent implémenter leurs propres décisions éthiques pour l’encadrer. Le régulateur aura beaucoup de mal à rester à la page, à mesure que le secteur progresse, parce que tout va très vite. Je pense, du coup, qu’il incombe également aux entreprises de s’autoréguler”, estime Tim Cook.

Aux États-Unis, la Chambre des Représentants réfléchit à instaurer une nouvelle agence destinée à encadrer l’IA et protéger les consommateurs. Il est également question de donner à la National Telecommunications and Information Administration (NTIA) qui dépend du Département du Commerce des prérogatives plus larges pour s’assurer que “les systèmes d’IA restent dans le cadre de la Loi, sont efficaces, éthiques, sûrs et plus largement de confiance”.

Crédit: Lien source

Les commentaires sont fermés.