L’ancien principe qui peut nous aider à repérer les contrefaçons d’IA

L’ancien principe qui peut nous aider à repérer les contrefaçons d’IA


Vous n’avez pas besoin d’une technologie avancée pour tromper les gens en ligne. Nous a montré à plus de 3 000 lycéens une vidéo granuleuse montrant des agents électoraux jetant des bulletins de vote pour truquer une élection. Une légende apposée, en caractères rouges et en majuscules, a suffi à tromper les étudiants en leur faisant croire à une fraude électorale américaine, même si les images provenaient de Russie. Seuls trois étudiants l’ont compris.

Nous avons longtemps averti que les contrefaçons bon marché étaient plus dangereuses que les deepfakes : presque aussi efficaces mais beaucoup plus faciles à réaliser. Lors des dernières élections, même avec les outils d’IA à la disposition des masses, il était vidéos de la vieille école collé avec du ruban adhésif numérique qui a alimenté les débats sur l’aptitude du président Joe Biden à servir.

Aujourd’hui, l’ère des contrefaçons bon marché touche à sa fin. Viral Les deep fakes réalisés avec de nouveaux outils vidéo marquent un terrain informationnel encore plus dangereux. Grâce à des produits tels que Veo 3 de Google, Sora 2 d’OpenAI et Vibes de Meta, le slop de l’IA est désormais si facile à produire qu’il se métastase sur nos écrans, aidé par la vente en gros des plateformes. retraite de la vérification des faits. Pour naviguer sur Internet d’aujourd’hui, nous avons besoin des conseils de la sagesse ancienne : l’accent séculaire mis par les musulmans, les juifs, les bouddhistes et d’autres confessions sur la centralité de la réputation.

Les musulmans fervents retracent les paroles de Mahomet à travers une « chaîne de narration » ou « isnad ». Les juifs religieux interprètent les enseignements talmudiques dans le contexte du rabbin qui les a prêchés. Les bouddhistes tibétains transmettent oralement les principes d’une lignée allant du Bouddha à nos jours. Toutes ces traditions nous incitent à raisonner sur l’information, mais seulement après nous remontons à son origine et évaluons la réputation des sages qui se sont tenus derrière lui.

La réputation compte également dans les contextes laïques : c’est le mécanisme que nous utilisons pour prendre des décisions lorsque nous manquons de connaissances et d’expertise. Nous nous appuyons sur la réputation pour choisir un thérapeute ou un plombier, un restaurant où aller ou un hôtel à réserver. Nous demandons aux personnes en qui nous avons confiance et consultons les avis car nous reconnaissons que personne n’est susceptible de divulguer ses défauts ou ses arrière-pensées.

La réputation est cruciale dans de nombreux domaines de notre vie. Pourquoi, alors, sur Internet, la plupart des gens l’ignorent-ils ?

Notre groupe de recherche a testé la capacité de milliers de jeunes à évaluer les informations en ligne. À maintes reprises, nous les avons vu juger le contenu sans tenir compte de sa provenance. Un étudiant de la campagne de l’Ohio digne de confiance la vidéo de fraude électorale parce qu’ils pensaient que leur œil nu était capable de détecter « la fraude dans plusieurs États différents ». Un étudiant de Pennsylvanie a écrit que la vidéo « montrait clairement des gens saisissant de faux votes dans des boîtes ».

Le même schéma s’amplifie en ce qui concerne l’IA. Un enseignant qui a partagé son expérience avec 404 Médias a raconté avoir demandé à un étudiant comment il savait si les informations de ChatGPT étaient exactes. L’élève a pointé le téléphone au visage du professeur : « Regardez, c’est écrit ici ! » Nos études pilotes dans des classes de lycée et d’université indiquer une tendance similaire : de nombreux étudiants font confiance aux chatbots IA, même lorsque ces chatbots omettent le contexte sur la provenance des informations.

Trop d’internautes ne prennent pas en compte la réputation ou l’erreur Google ou ChatGPT pour des sources vérifiées plutôt que défectueuses agrégateurs. Lorsque les gens tentent d’évaluer la réputation, ils se laissent influencer par des signaux faciles à manipuler fournis par la source elle-même : point.org domaine, la langue à consonance officielle sur la page « à propos », la quantité de données quelle que soit leur qualité, ou les intuitions sur la façon dont quelque chose regarde.

Ces caractéristiques brillent comme l’or des fous. N’importe qui peut obtenir un domaine point-orgy compris les groupes haineux. Les sites négationnistes prétendent dans leurs pages à propos de « fournir des informations factuelles ». Les publications contenant des graphiques fantaisistes peuvent contenir des informations erronées nuisibles. Et les rapports suggèrent que l’IA est si réaliste qu’elle nous oblige à douter de nos propres sens : de cloner ça ressemble à nos parents hyper réalistes contrefaçons d’un incendie qui a ravagé la Space Needle de Seattle.

Ce paysage informationnel présente un choix sans issue entre la soumission et le solipsisme : ne pas se soucier de ce qui est vrai ou insister sur le fait que rien ne l’est. Le premier nous laisse vulnérables aux mauvais acteurs qui utilisent des clips réalistes comme une arme. Ce dernier nous laisse dépourvus de bonnes informations. Les deux options érodent la citoyenneté informée à une époque où elle est rare.

Voici ce que nous pouvons faire : au lieu de nous concentrer sur le contenu lui-même, demandez d’abord qui est derrière tout cela, tout comme les traditions religieuses considèrent les enseignements en fonction de celui qui les a prononcés.

Et lorsqu’ils sont utilisés habilement, les outils mêmes qui nous induisent en erreur peuvent nous aider à sortir de cette énigme. Non pas en externalisant notre réflexion vers la technologie, mais en utilisant la technologie pour établir une réputation et affiner notre réflexion.

Les trois étudiants qui ont découvert que la vidéo de fraude électorale provenait de Russie n’ont eu recours à aucune sorte de magie technique. Ils ont simplement ouvert un nouvel onglet, saisi quelques mots-clés de choix et trouvé des articles provenant de sources crédibles telles que le BBC et Snopes le démystifier. Et avec quelques indications astucieuses sur le fonctionnement des LLM et sur la façon de structurer efficacement les invites, l’IA peut réellement aide-nous en vérifiant les publications sur les réseaux sociaux et en offrant le contexte manquant.

Les principaux outils d’IA incluent des clauses de non-responsabilité jetables indiquant aux utilisateurs de vérifier les informations. « Les Gémeaux peuvent faire des erreurs, alors vérifiez-les », explique Google. « ChatGPT peut faire des erreurs. Vérifiez les informations importantes », conseille OpenAI. Mais de la génération Alpha à Les baby-boomerspresque tout le monde a du mal à vérifier les informations rencontrées.

La bonne nouvelle est que nous pouvons tous nous améliorer. Même quelques heures d’enseignement sur la manière d’évaluer la réputation peuvent faire bouger les choses, comme nous l’avons constaté dans les études que nous avons menées partout, depuis les classes du secondaire jusqu’aux États-Unis. Nebraska et Californie aux cours collégiaux en Géorgie et Texas. Avant, les étudiants faisaient confiance à leurs yeux pour déterminer si quelque chose était fiable. Après, ils ont appris à se faire une idée de la réputation de la source. Des études en Canada, Allemagne, Indeet autre part ont trouvé des résultats positifs similaires.

Lorsque nous ne pouvons plus distinguer le contenu réel du contenu généré par l’IA, il peut sembler carrément vain d’essayer de décider à quoi faire confiance. Mais nous pouvons mieux faire face à l’écosystème du savoir d’aujourd’hui en nous appuyant sur une leçon ancienne : l’importance de la réputation.

Commentaires

Pas encore de commentaires. Pourquoi ne pas débuter la discussion?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *