Pourquoi les États-Unis ont lancé un réseau international d’instituts de sécurité de l’IA

Pourquoi les États-Unis ont lancé un réseau international d’instituts de sécurité de l’IA


« L’IA est une technologie pas comme les autres dans l’histoire de l’humanité », a déclaré mercredi à San Francisco la secrétaire américaine au Commerce, Gina Raimondo. « Faire progresser l’IA est la bonne chose à faire, mais progresser le plus rapidement possible, simplement parce que nous le pouvons, sans penser aux conséquences, n’est pas la chose intelligente à faire. »

Les remarques de Raimondo sont intervenues lors de la séance inaugurale convocation de l’International Network of AI Safety Institutes, un réseau d’instituts de sécurité de l’intelligence artificielle (AISI) de 9 pays ainsi que de la Commission européenne réunis par les départements américains du Commerce et d’État. L’événement a rassemblé des experts techniques du gouvernement, de l’industrie, du monde universitaire et de la société civile pour discuter de la manière de gérer les risques posés par des systèmes d’IA de plus en plus performants.

Raimondo a suggéré aux participants de garder deux principes à l’esprit : « Nous ne pouvons pas diffuser des modèles qui mettent les gens en danger », a-t-elle déclaré. « Deuxièmement, veillons à ce que l’IA soit au service des gens, et non l’inverse. »

En savoir plus: Comment la secrétaire au Commerce, Gina Raimondo, est devenue la référence américaine en matière d’IA

Cette réunion marque une avancée significative dans la collaboration internationale sur la gouvernance de l’IA. Les premiers AISI sont apparus en novembre dernier lors du premier Sommet sur la sécurité de l’IA organisé par le Royaume-Uni. Les deux ROYAUME-UNI et le NOUS Les gouvernements ont annoncé la création de leurs AISI respectifs afin de donner à leurs gouvernements la capacité technique d’évaluer la sécurité des modèles d’IA de pointe. D’autres pays ont emboîté le pas ; en mai, lors d’un autre sommet sur l’IA à Séoul, Raimondo avait annoncé la création du réseau.

Dans un déclaration communeles membres du Réseau international des instituts de sécurité de l’IA, qui comprend des AISI des États-Unis, du Royaume-Uni, d’Australie, du Canada, de France, du Japon, du Kenya, de Corée du Sud et de Singapour, ont défini leur mission : « être un forum qui rassemble expertise technique du monde entier », « … pour faciliter une compréhension technique commune des risques de sécurité de l’IA et des mesures d’atténuation sur la base des travaux de nos instituts et de la communauté scientifique au sens large » et « … pour encourager une compréhension et une approche générales de l’IA. sécurité à l’échelle mondiale, qui permettra aux avantages de l’innovation en matière d’IA de être partagé entre les pays à tous les stades de développement.

Avant la réunion, l’AISI américaine, qui assure la présidence inaugurale du réseau, a également annoncé la formation d’un nouveau gouvernement. groupe de travail axé sur les risques liés à la sécurité nationale de la technologie. Le groupe de travail TRAINS (Testing Risks of AI for National Security) rassemble des représentants des ministères de la Défense, de l’Énergie, de la Sécurité intérieure, ainsi que de la Santé et des Services sociaux. Il sera présidé par l’AISI des États-Unis et visera à « identifier, mesurer et gérer les implications émergentes en matière de sécurité nationale et de sécurité publique de l’évolution rapide de la technologie de l’IA », avec un accent particulier sur la sécurité radiologique et nucléaire, la sécurité chimique et biologique, la cybersécurité. , les infrastructures critiques et les capacités militaires conventionnelles.

L’impulsion en faveur d’une coopération internationale intervient à un moment de tensions croissantes autour du développement de l’IA entre les États-Unis et la Chine, dont absence du réseau est remarquable. Dans des remarques préenregistrées pour la convocation, le chef de la majorité sénatoriale, Chuck Schumer, a souligné l’importance de garantir que le Parti de la communauté chinoise n’ait pas la possibilité de « rédiger les règles de la route ». Plus tôt mercredi, le laboratoire chinois Deepseek annoncé un nouveau modèle de « raisonnement » considéré comme le premier à rivaliser avec le modèle de raisonnement d’OpenAI, o1, qui, selon la société, est « conçu pour passer plus de temps à réfléchir » avant de répondre.

Mardi, la Commission d’examen économique et de sécurité américano-chinoise, qui fournit des recommandations annuelles au Congrès depuis 2000, a recommandé que le Congrès établisse et finance un « programme de type Manhattan Project dédié à la course et à l’acquisition d’une capacité d’intelligence générale artificielle (AGI). », que la commission défini comme « des systèmes aussi bons, voire meilleurs, que les capacités humaines dans tous les domaines cognitifs » qui « surpasseraient les esprits humains les plus pointus dans chaque tâche ».

De nombreux experts dans le domaine, comme Geoffrey Hinton, qui a remporté plus tôt cette année un prix Nobel de physique pour son travail sur l’intelligence artificielle, ont exprimé préoccupations que si l’AGI devait être développée, l’humanité pourrait ne pas être en mesure de la contrôler, ce qui pourrait entraîner des dommages catastrophiques. Lors d’une table ronde lors de l’événement de mercredi, le PDG d’Anthropic, Dario Amodei, qui croit Les systèmes de type AGI pourraient arriver dès 2026 – les risques de « perte de contrôle » étant cités comme une préoccupation majeure, parallèlement aux risques que de futurs modèles plus performants soient utilisés à mauvais escient par des acteurs malveillants pour perpétrer du bioterrorisme ou porter atteinte à la cybersécurité. Répondant à une question, Amodei exprimé un soutien sans équivoque à l’idée de rendre obligatoire le test des systèmes d’IA avancés, notant que « nous devons également être très prudents sur la manière dont nous le faisons ».

Pendant ce temps, la collaboration internationale pratique sur la sécurité de l’IA progresse. Plus tôt dans la semaine, les AISI américains et britanniques ont partagé des informations préliminaires résultats à partir de leur évaluation préalable au déploiement d’un modèle d’IA avancé, la version améliorée de Claude 3.5 Sonnet d’Anthropic. L’évaluation s’est concentrée sur l’évaluation des capacités biologiques et cybernétiques du modèle, ainsi que sur ses performances en matière de logiciels et de tâches de développement, ainsi que sur l’efficacité des protections intégrées pour empêcher le modèle de répondre à des demandes nuisibles. Les AISI britanniques et américaines ont constaté que ces garanties pouvaient être « systématiquement contournées », ce qui, selon elles, est « cohérent avec des recherches antérieures sur la vulnérabilité des garanties d’autres systèmes d’IA ».

La réunion de San Francisco a défini trois sujets prioritaires qui devraient « bénéficier de toute urgence d’une collaboration internationale » : la gestion des risques liés au contenu synthétique, le test des modèles de base et la réalisation d’évaluations des risques pour les systèmes d’IA avancés. Avant la réunion, un financement de 11 millions de dollars a été annoncé pour soutenir la recherche sur la meilleure façon d’atténuer les risques liés au contenu synthétique (tels que la génération et la distribution de matériel pédopornographique et la facilitation de la fraude et de l’usurpation d’identité). Le financement a été fourni par un mélange d’agences gouvernementales et d’organisations philanthropiques, dont la République de Corée et la Knight Foundation.

Même si l’on ne sait pas exactement quel impact la victoire électorale de Donald Trump aura sur l’avenir de l’AISI et sur la politique américaine en matière d’IA en général, la collaboration internationale sur le thème de la sécurité de l’IA devrait se poursuivre. L’AISI britannique accueille un autre événement basé à San Francisco conférence cette semaine, en partenariat avec le Centre pour la gouvernance de l’IA« pour accélérer la conception et la mise en œuvre de cadres de sécurité de l’IA aux frontières ». Et en février, la France accueillera son «Sommet d’action sur l’IA», suite aux sommets tenus à Séoul en mai et au Royaume-Uni en novembre dernier. Le Sommet d’action sur l’IA de 2025 rassemblera des dirigeants des secteurs public et privé, du monde universitaire et de la société civile, alors que les acteurs du monde entier chercheront à trouver des moyens de gouverner la technologie à mesure que ses capacités s’accélèrent.

Raimondo a souligné mercredi l’importance d’intégrer la sécurité à l’innovation lorsqu’il s’agit de quelque chose d’aussi rapide et aussi puissant que l’IA. « Il a le potentiel de remplacer l’esprit humain », a-t-elle déclaré. « La sécurité est bonne pour l’innovation. La sécurité engendre la confiance. La confiance accélère l’adoption. L’adoption conduit à plus d’innovation. Nous avons besoin de ce cercle vertueux.

Commentaires

Pas encore de commentaires. Pourquoi ne pas débuter la discussion?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *