Un nouveau projet de loi interdirait aux mineurs d’utiliser des compagnons IA

Un nouveau projet de loi interdirait aux mineurs d’utiliser des compagnons IA


Si vous ou quelqu’un que vous connaissez vivez une crise de santé mentale ou envisagez de vous suicider, appelez ou envoyez un SMS au 988. En cas d’urgence, appelez le 911 ou demandez des soins à un hôpital local ou à un prestataire de santé mentale. Pour les ressources internationales, Cliquez ici.

Un nouveau projet de loi présenté aujourd’hui au Congrès obligerait toute personne possédant, exploitant ou permettant l’accès à des chatbots IA aux États-Unis de vérifier l’âge de ses utilisateurs et, si les utilisateurs s’avèrent mineurs, de leur interdire d’utiliser des compagnons IA.

La loi GUARD, présentée par les sénateurs Josh Hawley, républicain du Missouri, et Richard Blumenthal, démocrate du Connecticut, vise à protéger les enfants dans leurs interactions avec l’IA. « Ces chatbots peuvent manipuler les émotions et influencer le comportement de manière à exploiter les vulnérabilités développementales des mineurs », indique le projet de loi.

Le projet de loi intervient après que Hawley ait présidé une audience du sous-comité judiciaire du Sénat. examiner the Harm of AI Chatbots le mois dernier, au cours duquel le comité a entendu le témoignage des parents de trois jeunes hommes qui ont commencé à s’automutiler ou à se suicider après avoir utilisé des chatbots d’OpenAI et Character.AI. Hawley a également lancé un enquête dans les politiques d’IA de Meta en août, suite à la publication de documents internes permettant aux chatbots de « engager un enfant dans des conversations romantiques ou sensuelles ».

Le projet de loi définit les « compagnons IA » de manière large, pour couvrir tout chatbot IA qui « fournit des réponses adaptatives et humaines aux entrées de l’utilisateur » et « est conçu pour encourager ou faciliter la simulation d’interactions interpersonnelles ou émotionnelles, d’amitié, de camaraderie ou

communication thérapeutique. » Elle pourrait donc s’appliquer aussi bien aux fournisseurs de modèles frontières comme OpenAI et Anthropic (les créateurs de ChatGPT et Claude), qu’à des entreprises comme Caractère.ai et Replika, qui fournissent des chatbots IA qui prétendent être des personnages spécifiques.

Cela nécessiterait également des mesures de vérification de l’âge allant au-delà de la simple saisie d’une date de naissance, exigeant une « pièce d’identité émise par le gouvernement » ou « toute autre méthode commercialement raisonnable » permettant de déterminer avec précision si un utilisateur est un mineur ou un adulte.

Concevoir ou rendre accessibles des chatbots qui présentent un risque de solliciter, d’encourager ou d’inciter des mineurs à avoir un comportement sexuel, ou qui encouragent ou contraignent « le suicide, l’automutilation non suicidaire ou la violence physique ou sexuelle imminente », serait également érigé en infraction pénale et pourrait imposer aux entreprises une amende pouvant aller jusqu’à 100 000 $.

« Nous sommes encouragés par l’introduction récente de la loi GUARD et apprécions le leadership des sénateurs Hawley et Blumenthal dans cet effort », lit-on dans une déclaration signée par une coalition d’organisations, dont la Young People’s Alliance, le Tech Justice Law Project et l’Institute for Families and Technology. Notant que « ce projet de loi fait partie d’un mouvement national visant à protéger les enfants et les adolescents des dangers des chatbots compagnons », la déclaration propose que le projet de loi renforce sa définition des compagnons de l’IA et qu’il « se concentre sur la conception des plateformes, interdisant aux plateformes d’IA d’utiliser des fonctionnalités qui maximisent l’engagement au détriment de la sécurité et du bien-être des jeunes ».

Le projet de loi exigerait également que les chatbots IA rappellent périodiquement à tous les utilisateurs qu’ils ne sont pas humains et qu’ils divulguent qu’ils ne « fournissent pas de services médicaux, juridiques, financiers ou psychologiques ».

Plus tôt ce mois-ci, le gouverneur de Californie Gavin Newsom a signé la loi SB243, une loi cela exige également que les sociétés d’IA opérant dans l’État mettent en œuvre des mesures de protection pour les enfants, notamment en établissant des protocoles pour identifier et lutter contre les idées suicidaires et l’automutilation, et en prenant des mesures pour empêcher les utilisateurs de s’automutiler. La loi est ensemble pour entrer en vigueur le 1er janvier 2026.

En septembre, OpenAI a annoncé qu’il était créer un « système de prédiction de l’âge » qui serait automatiquement redirigé vers une version de ChatGPT adaptée aux adolescents. Pour les mineurs, « ChatGPT sera formé pour ne pas faire de discours coquets si on le lui demande, ni s’engager dans des discussions sur le suicide ou l’automutilation, même dans un contexte d’écriture créative », a écrit la société. « Et si un utilisateur de moins de 18 ans a des idées suicidaires, nous tenterons de contacter les parents de l’utilisateur et, si nous ne le pouvons pas, nous contacterons les autorités en cas de danger imminent. » Le même mois, la société roulé des « contrôles parentaux », permettant aux parents de contrôler l’expérience de leurs enfants avec le produit. Le contrôle parental était également introduit par Meta pour leurs modèles d’IA plus tôt ce mois-ci.

En août, la famille d’un adolescent qui s’est suicidé a lancé une action en justice contre OpenAI, arguant que l’entreprise avait assoupli les garanties qui auraient empêché ChatGPT de s’engager dans des conversations sur l’automutilation – une « décision intentionnelle » de « donner la priorité à l’engagement », selon l’un des avocats de la famille.

Commentaires

Pas encore de commentaires. Pourquoi ne pas débuter la discussion?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *