Les géants de la technologie comme Microsoft et OpenAI veulent des règles plus claires pour les modèles d’IA du Royaume-Uni
Les lecteurs aident à prendre en charge MSPoweruser. Lorsque vous effectuez un achat en utilisant des liens sur notre site, nous pouvons gagner une commission d’affiliation.
Lisez la page de divulgation des affiliés pour découvrir comment vous pouvez aider MSPoweruser sans effort et sans dépenser d’argent. En savoir plus
Les principales sociétés d’intelligence artificielle exhortent le Le gouvernement britannique fournira plus de détails sur ses procédures de test de sécurité de l’IA. Cela montre les limites potentielles de s’appuyer uniquement sur des accords volontaires pour réglementer cette technologie en développement rapide.
Cela intervient après qu’OpenAI, Google DeepMind, Microsoft et Meta ont signé des engagements volontaires en novembre 2023 pour ouvrir leurs derniers modèles d’IA générative aux tests préalables au déploiement par le nouvel AI Safety Institute (AISI). Tout en acceptant d’ajuster leurs modèles en fonction des failles identifiées, ces entreprises cherchent désormais à clarifier les tests spécifiques effectués, leur durée et le processus de retour d’expérience en cas de détection de risques.
Bien qu’il ne soit pas légalement tenu d’agir en fonction des résultats des tests, le gouvernement a souligné qu’il attendait des entreprises qu’elles traitent les risques identifiés. Cela souligne le débat en cours sur l’efficacité des accords volontaires pour garantir un développement responsable de l’IA. En réponse à ces préoccupations, le gouvernement a présenté des plans pour de « futures exigences contraignantes » pour les principaux développeurs d’IA afin de renforcer les mesures de responsabilisation.
L’AISI, créée par le Premier ministre Rishi Sunak, joue un rôle central dans l’ambition du gouvernement de positionner le Royaume-Uni comme leader dans la lutte contre les risques potentiels associés aux progrès de l’IA. Cela inclut l’utilisation abusive des cyberattaques, la conception d’armes biologiques et d’autres applications nuisibles.
Selon des sources proches du processus, l’AISI a déjà commencé à tester des modèles existants et inédits, notamment le Gemini Ultra de Google. Ils se concentrent sur les risques potentiels d’utilisation abusive, en particulier la cybersécurité, en s’appuyant sur l’expertise du Centre national de cybersécurité du GCHQ.
Les contrats gouvernementaux révèlent des investissements dans des capacités permettant de tester des vulnérabilités telles que le « jailbreak » (incitant les chatbots IA à contourner les mesures de protection) et le « spear-phishing » (attaques ciblées par courrier électronique). De plus, des efforts sont en cours pour développer des outils d’« automatisation de l’ingénierie inverse » pour une analyse approfondie des modèles.
Nous partagerons les résultats avec les développeurs, le cas échéant. Cependant, lorsque des risques sont détectés, nous nous attendons à ce qu’ils prennent toute mesure appropriée avant le lancement.
Le gouvernement britannique a déclaré au Financial Times.
Google DeepMind a reconnu sa collaboration avec l’AISI, soulignant son engagement à travailler ensemble pour des évaluations solides et à établir les meilleures pratiques pour le secteur en évolution de l’IA. OpenAI et Meta ont refusé de commenter.
En termes simples :
Les grandes sociétés d’IA comme Google et Facebook travaillent avec le gouvernement britannique pour tester la sécurité de leurs nouveaux modèles d’IA avant leur sortie. Le gouvernement veut s’assurer que ces modèles ne soient pas utilisés à mauvais escient pour le piratage ou la création d’armes dangereuses.
Les entreprises sont heureuses d’aider mais souhaitent plus de détails sur les tests, comme la durée qu’ils prendront et ce qui se passera si des problèmes sont détectés. Le gouvernement tente de trouver un équilibre entre encourager l’innovation et assurer la sécurité des personnes.
Crédit: Lien source


Les commentaires sont fermés.