Les États-Unis poussent à moins de réglementation de l’IA au sommet de Paris

Les États-Unis poussent à moins de réglementation de l’IA au sommet de Paris


SLes préoccupations infastières sont disponibles, l’optimisme est dedans: c’était à retenir d’un grand sommet de l’intelligence artificielle à Paris cette semaine, en tant que dirigeants des États-Unis, de la France et au-delà de leur poids derrière l’industrie de l’IA.

Bien qu’il y ait eu des divisions entre les grandes nations – les États-Unis et le Royaume-Uni n’ont pas signé une déclaration finale approuvée par 60 nations appelant à un secteur d’IA «inclusif» et «ouvert» – l’objectif de la réunion de deux jours était nettement différent du dernier un tel rassemblement. L’année dernière, à Séoul, l’accent était mis sur la définition des lignes rouges pour l’industrie de l’IA. La préoccupation: que la technologie, bien que tenue très prometteuse, a également eu le potentiel de beaucoup de mal.

Mais c’était alors. La déclaration finale n’a fait aucune mention de risques d’IA importants ni de tentatives de les atténuer, tandis que dans un discours mardi, le vice-président américain JD Vance a déclaré: «Je ne suis pas ici ce matin pour parler de la sécurité de l’IA, qui était le titre de la Conférence il y a quelques années. Je suis ici pour parler de l’opportunité de l’IA.

Le leader français et animateur du sommet, Emmanuel Macron, a également trompé un message résolument pro-entreprise – sous la direction des nations impatientes du monde entier pour gagner un avantage dans le développement de nouveaux systèmes d’IA.

Il était une fois à Bletchley

L’accent mis sur l’augmentation du secteur de l’IA et la mise en place de problèmes de sécurité a été loin du tout premier sommet mondial sur l’IA qui s’est tenu à Bletchley Park au Royaume-Uni en 2023. A appelé le «Sommet de la sécurité de l’IA» – la réunion française en contraste a été appelée la «AI Action Summit» – Cet objectif express était de débarrasser un moyen d’atténuer les risques posés par les développements de la technologie.

Le deuxième rassemblement mondial, à Séoul en 2024, s’est construit sur cette fondation, les dirigeants obtenant des engagements de sécurité volontaire de principaux acteurs de l’IA tels que OpenAI, Google, Meta et leurs homologues en Chine, en Corée du Sud et aux Émirats arabes unis. Le sommet 2025 à Paris, les gouvernements et les sociétés de l’IA était convenu à l’époque, serait le lieu de définition des lignes rouges pour l’IA: les seuils de risque qui nécessiteraient des atténuations au niveau international.

Paris, cependant, est allé dans l’autre sens. «Je pense que c’était une véritable flop du ventre», explique Max Tegmark, professeur du MIT et président du Future of Life Institute, un organisme sans but lucratif axé sur l’atténuation des risques d’IA. « C’était presque comme s’ils essayaient de défaire Bletchley. »

Anthropic, une entreprise d’IA s’est concentrée sur la sécurité, a qualifié l’événement de «l’occasion manquée».

Le Royaume-Uni, qui a accueilli le premier sommet de l’IA, a déclaré qu’il avait refusé de signer la déclaration de Paris en raison d’un manque de substance. « Nous avons estimé que la déclaration ne fournissait pas suffisamment de clarté pratique sur la gouvernance mondiale, ni ne répondait suffisamment à des questions plus difficiles autour de la sécurité nationale et du défi que l’IA y pose », a déclaré un porte-parole du Premier ministre Keir Starmer.

Courir pour un bord

Le changement s’apporte à la toile de fond de l’intensification des développements dans l’IA. Au cours du mois environ avant le sommet 2025, OpenAI a publié un modèle «agent» qui peut effectuer des tâches de recherche à peu près au niveau d’un étudiant diplômé compétent.

Les chercheurs en sécurité, quant à eux, ont montré pour la première fois que la dernière génération de modèles d’IA peut essayer de tromper leurs créateurs et de se copier, dans le but d’éviter la modification. De nombreux scientifiques de l’IA indépendants sont désormais d’accord avec les projections des entreprises technologiques elles-mêmes: cet IA de niveau super humain peut être développé au cours des cinq prochaines années – avec des effets potentiellement catastrophiques si les questions non résolues dans la recherche sur la sécurité ne sont pas abordées.

Pourtant, de telles inquiétudes ont été poussées au brûleur arrière alors que les États-Unis, en particulier, ont fait un argument énergique contre les mouvements pour réglementer le secteur, Vance disant que l’administration Trump « ne peut pas et n’acceptera pas » les gouvernements étrangers « resserrant les vis sur la technologie américaine les entreprises. »

Il a également fortement critiqué les réglementations européennes. L’UE possède le droit de l’IA le plus complet au monde, appelé la loi sur l’IA, ainsi que d’autres lois telles que la loi sur les services numériques, que Vance a appelé par son nom comme étant trop restrictive dans ses restrictions liées à la désinformation sur les réseaux sociaux.

Le nouveau vice-président, qui a une large base de soutien parmi les capital-risqueurs, a également clairement indiqué que son soutien politique aux grandes entreprises technologiques ne s’étendait pas aux réglementations qui augmenteraient les obstacles aux nouvelles startups, ce qui entrave le développement de technologies d’IA innovantes.

« Pour restreindre le développement (de l’IA) désormais non seulement profiterait injustement aux titulaires dans l’espace, cela signifierait paralyser l’une des technologies les plus prometteuses que nous ayons vues en générations », a déclaré Vance. «Lorsqu’un titulaire massif vient nous demander des règlements de sécurité, nous devons nous demander si ce règlement sur la sécurité est au profit de notre peuple, ou si c’est au profit du titulaire.»

Et dans un signe clair que les préoccupations concernant les risques de l’IA sont en disgrâce dans Washington du président Trump, il a associé la sécurité de l’IA à un point de discussion républicain populaire: la restriction de la «liberté d’expression» par les plateformes de médias sociaux essayant de lutter contre les dommages comme la désinformation.

Avec reportage par Tharin Pillay / Paris et Harry Booth / Paris

Commentaires

Pas encore de commentaires. Pourquoi ne pas débuter la discussion?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *