Les outils d’IA ont rapidement infiltré la vie des gens en 2024, mais la législation sur l’IA aux États-Unis a progressé beaucoup plus lentement. Alors que des dizaines Des projets de loi liés à l’IA ont été présentés au Congrès – soit pour financer la recherche, soit pour atténuer ses méfaits – la plupart sont restés bloqués dans une impasse partisane ou enterrés sous d’autres priorités. En Californie, un projet de loi visant à tenir les sociétés d’IA responsables des dommages causés a facilement été adopté par la législature de l’État, mais a été a opposé son veto par le gouverneur Gavin Newsom.
Cette inaction inquiète de plus en plus certains sceptiques de l’IA. « Nous assistons à une reproduction de ce que nous avons vu dans le domaine de la vie privée et des médias sociaux : ne pas mettre en place de garde-fous dès le départ pour protéger les gens et stimuler une véritable innovation », Ben Winters, directeur de l’IA et de la confidentialité des données à la Fédération des consommateurs. d’Amérique, raconte TIME.
Les défenseurs de l’industrie, quant à eux, ont réussi à convaincre de nombreux décideurs politiques qu’une réglementation excessive nuirait à l’industrie. Ainsi, au lieu d’essayer d’adopter un cadre global sur l’IA, comme l’UE l’a fait avec sa loi sur l’IA en 2023, les États-Unis pourraient plutôt trouver un consensus sur des domaines de préoccupation distincts, un par un.
À mesure que le calendrier évolue, voici les principaux problèmes liés à l’IA que le Congrès pourrait tenter de résoudre en 2025.
Interdire des préjudices spécifiques
Le préjudice lié à l’IA sur lequel le Congrès pourrait se tourner en premier est la prolifération de deepfake porn non consensuel. Cette année, de nouveaux outils d’IA ont permis de sexualiser et d’humilier des jeunes femmes d’un simple clic. Ces images se sont rapidement répandues sur Internet et, dans certains cas, ont été utilisées comme un moyen de communication. outil d’extorsion.
Tamponner ces images semblait une évidence pour presque tout le monde : les dirigeants des deux partis, les parents militants et les groupes de la société civile ont tous fait pression en faveur d’une législation. Mais les projets de loi sont restés bloqués à différentes étapes du processus législatif. La semaine dernière, le Take It Down Act, dirigé par le républicain du Texas Ted Cruz et la démocrate du Minnesota Amy Klobuchar, a été intégré dans un projet de loi de financement de la Chambre après une importante pression médiatique et de lobbying de la part de ces deux sénateurs. La mesure criminaliserait la création de deepfake pornographie et obligerait les plateformes de médias sociaux à supprimer les images 48 heures après avoir reçu un avis.
Mais le projet de loi de financement s’est effondré après avoir reçu de fortes résistances de la part de certains alliés de Trump, dont Elon Musk. Néanmoins, l’inclusion de Take It Down dans le projet de loi de financement signifie qu’il a reçu l’approbation de tous les principaux dirigeants de la Chambre et du Sénat, a déclaré Sunny Gandhi, vice-président des affaires politiques chez Encode, un groupe de défense axé sur l’IA. Il a ajouté que le Defiance Act, un projet de loi similaire qui permet aux victimes d’intenter une action civile contre les créateurs de deepfakes, pourrait également être une priorité l’année prochaine.
En savoir plus: Temps 100 IA : Francesca Mani
Les militants chercheront à obtenir des mesures législatives liées à d’autres méfaits de l’IA, notamment la vulnérabilité des données des consommateurs et les dangers que les chatbots compagnons provoquent l’automutilation. En février, un Un jeune de 14 ans s’est suicidé après avoir développé une relation avec un chatbot qui l’a encouragé à « rentrer à la maison ». Mais la difficulté d’adopter un projet de loi sur quelque chose d’aussi peu controversé que la lutte contre la pornographie deepfake laisse présager un chemin difficile vers l’adoption d’autres mesures.
Financement accru pour la recherche sur l’IA
Parallèlement, de nombreux législateurs ont l’intention de donner la priorité à la croissance de l’IA. Les promoteurs de l’industrie présentent le développement de l’IA comme une course aux armements, dans laquelle les États-Unis risquent d’être à la traîne des autres pays s’ils n’investissent pas davantage dans l’espace. Le 17 décembre, le groupe de travail bipartisan sur l’IA de la Chambre a publié un Rapport de 253 pages sur l’IA, soulignant la nécessité de stimuler « l’innovation responsable ». « De l’optimisation de la fabrication au développement de remèdes contre des maladies graves, l’IA peut augmenter considérablement la productivité, nous permettant d’atteindre nos objectifs plus rapidement et de manière plus rentable », ont écrit les coprésidents du groupe de travail Jay Obernolte et Ted Lieu.
Dans cette optique, le Congrès cherchera probablement à augmenter le financement de la recherche et des infrastructures en matière d’IA. Un projet de loi qui a suscité l’intérêt mais qui n’a pas réussi à franchir la ligne d’arrivée est le Créer une loi sur l’IAqui visait à établir une ressource nationale de recherche sur l’IA pour les universitaires, les chercheurs et les startups. « Il s’agit de démocratiser qui fait partie de cette communauté et de cette innovation », a déclaré le sénateur Martin Heinrich, démocrate du Nouveau-Mexique et l’auteur principal du projet de loi, a déclaré au TIME en juillet. « Je ne pense pas que nous puissions nous permettre que tout ce développement se produise uniquement dans une poignée de zones géographiques à travers le pays. »
De manière plus controversée, le Congrès pourrait également tenter de financer l’intégration d’outils d’IA dans les systèmes de guerre et de défense américains. Les alliés de Trump, dont David Sacks, le capital-risqueur de la Silicon Valley que Trump a surnommé son « tsar de l’IA et de la cryptographie à la Maison Blanche », a a exprimé son intérêt dans la militarisation de l’IA. Entrepreneurs de défense a récemment déclaré à Reuters ils s’attendent à ce que le ministère de l’Efficacité gouvernementale d’Elon Musk recherche davantage de projets communs entre les entrepreneurs et les entreprises de technologie de l’IA. Et en décembre, OpenAI annoncé un partenariat avec la société de technologie de défense Anduril pour utiliser l’IA pour se défendre contre les attaques de drones.
Cet été, le Congrès a aidé à allouer 983 millions de dollars vers la Defense Innovation Unit, qui vise à apporter de nouvelles technologies au Pentagone. (C’était un augmentation massive des années passées.) Le prochain Congrès pourrait affecter des enveloppes de financement encore plus importantes à des initiatives similaires. « Au Pentagone, l’obstacle à l’arrivée de nouveaux entrants a toujours été là, mais pour la première fois, nous avons commencé à voir ces petites entreprises de défense rivaliser et remporter des contrats », déclare Tony Samp, responsable de la politique en matière d’IA au sein du cabinet d’avocats DLA. Cornemuseur. « Maintenant, le Congrès souhaite être perturbateur et aller plus vite. »
Le sénateur Thune sous les projecteurs
L’un des personnages clés qui façonnent la législation sur l’IA en 2025, ce sera le sénateur républicain John Thune du Dakota du Sud, qui s’intéresse vivement à la question et deviendra leader de la majorité au Sénat en janvier. En 2023, Thune, en partenariat avec Klobuchar, a introduit un facture visant à promouvoir la transparence des systèmes d’IA. Même si Thune a dénoncé l’approche « autoritaire » de l’IA en Europe, il a aussi parlé très clairement sur la nécessité d’une réglementation à plusieurs niveaux pour traiter les applications de l’IA dans les domaines à haut risque.
« J’espère qu’il y aura des résultats positifs quant au fait que le leader de la majorité au Sénat soit l’un des rares républicains du Sénat les plus engagés sur la politique technologique en général », a déclaré Winters. « Cela pourrait conduire à davantage d’actions dans des domaines tels que la vie privée des enfants et la confidentialité des données. »
L’impact de Trump
Bien entendu, l’année prochaine, le Sénat devra s’inspirer du président Trump en matière d’IA. On ne sait pas exactement ce que Trump pense de la technologie, et il aura de nombreux conseillers de la Silicon Valley avec différentes idéologies de l’IA en compétition pour son oreille. (Marc Andreessen, par exemple, souhaite que l’IA soit développée comme le plus vite possibletandis que Musk a mis en garde contre les risques existentiels de la technologie.)
Alors que certains s’attendent à ce que Trump aborde l’IA uniquement dans une perspective de déréglementation, Alexandra Givens, PDG du Center for Democracy & Technology, souligne que Trump a été le premier président à émettre un Décret exécutif sur l’IA en 2020, qui s’est concentré sur l’impact de l’IA sur les personnes et sur la protection de leurs droits civils et de leur vie privée. « Nous espérons qu’il pourra continuer dans ce cadre et que cela ne devienne pas une question partisane qui s’effondre selon les lignes de parti », dit-elle.
En savoir plus: Ce que la victoire de Donald Trump signifie pour l’IA
Les États pourraient agir plus vite que le Congrès
Faire adopter quoi que ce soit au Congrès sera une tâche ardue, comme toujours. Les législatures des États pourraient donc montrer la voie en élaborant leur propre législation sur l’IA. Les États de gauche, en particulier, pourraient tenter de s’attaquer à certains aspects des risques liés à l’IA que le Congrès, dominé par les Républicains, ne risque pas de toucher, notamment les préjugés raciaux et sexistes des systèmes d’IA, ou leur impact environnemental.
Le Colorado, par exemple, a adopté une loi cette année, réglementer l’utilisation de l’IA dans des scénarios à haut risque comme la sélection des demandes d’emploi, de prêts et de logement. « Il s’attaque à ces utilisations à haut risque tout en restant léger », explique Givens. « C’est un modèle incroyablement attrayant. » Au Texas, un législateur d’État a récemment introduit son propre projet de loi calqué sur celui-ci, qui sera examiné par leur législature l’année prochaine. Pendant ce temps, New York envisagera une facture limiter la construction de nouveaux centres de données et les obliger à déclarer leur consommation d’énergie.