Image d'une manifestation où un homme tient une pancart avec écrit en anglais " Do we like bots? "

L’intelligence artificielle, trop beau pour être vrai ?


IA génératives, les nouvelles frontières de la désinformation

Nicolas Becquet, dans le cadre du Projet “On n’a que l’info qu’on se donne!”

L’essor des intelligences artificielles génératives bouleverse la manière dont nous produisons et consommons l’information. En facilitant la production de textes, de sites internet, de comptes sur les réseaux et de vidéos, à large échelle, l’IA favorise l’émergence des contenus synthétiques, c’est-à-dire des contenus créés par les machines. Un nouvel eldorado pour les fake news et les manipulateurs en tout genre.

Voici un kit de survie pour déjouer les pièges de la désinformation à l’ère des IA génératives. 

Pilule rouge ou pilule bleue ? 

Divertissement, débat de société, actualité et période électorale…, l’ombre de la désinformation et de la propagande plane en permanence sur le web et les réseaux sociaux. Parmi les contenus qui défilent sur les écrans de nos smartphones se cache toute une série de messages subliminaux et de micro-signaux visant à orienter nos opinions et nos comportements. 

Les plateformes sociales sont des lieux parfaits pour faire passer des idées en douceur, mine de rien, au moment même où nous relâchons notre vigilance, où notre cerveau se met en pause pour profiter du plaisir procuré par le divertissement et les contenus « satisfaisants ». 

La fameuse section « For you » de TikTok en est un parfait exemple, un cheval de Troie idéal pour la propagande et la manipulation à l’échelle individuelle et locale. Le défilement automatique et sans fin de vidéos nous anesthésie, il nous fait passer en pilote automatique et tient notre esprit à distance. Comme la malbouffe, c’est bon au goût, mais mauvais pour la santé. 

Dès lors, inutile de lancer de grandes campagnes à la télévision ou dans la presse, alors qu’il suffit de produire une myriade de contenus très convaincants et personnalisés, en micro-dosage, sur une multitude de plateformes. 

La mécanique de la désinformation, en bref

La propagande et la désinformation ont en commun de vouloir manipuler l’opinion publique en créant des informations mensongères, en détournant des faits avérés de leur contexte et en inventant de faux liens de causalité. Des procédés qui s’amplifient lors des conflits sociaux, des périodes électorales et des guerres. 

Que ce soit à l’échelle locale, étatique ou internationale, l’objectif est en général de décrédibiliser des citoyens, des partis politiques, des entreprises ou des États, en surfant sur la colère et le mécontentement des populations. La désinformation peut être l’initiative d’individus isolés, de réseaux complotistes ou d’États. 

Sur les réseaux sociaux, elle se matérialise principalement par des flux de publications et d’articles alimentés par des fake news, et sur le web, par des faux sites d’actualités. Le but ? Instaurer le doute et le ressentiment chez les internautes.

Cheval de Troie 3.0

Jusqu’ici très présente, mais quasi invisible, l’intelligence artificielle prend désormais la forme d’assistants numériques, celle de chatbots qui dialoguent avec nous et promettent de nous aider à organiser nos vies et à trouver les informations dont nous avons besoin, en un clin d’œil. Pour réaliser cette prouesse, ces bots ont besoin de tout savoir de nous. Comment ? En traquant tous nos faits, nos gestes et nos pensées. 

Imaginez que quelqu’un vous suive partout et tout le temps pour enregistrer et analyser vos déplacements, vos conversations publiques et privées, vos recherches, vos achats, les vidéos que vous regardez et les articles que vous lisez. Ça paraît fou, non ? Pourtant, on laisse faire, pour se simplifier la vie. Une situation qui paraîtrait intolérable si c’était un gouvernement qui nous l’imposait. Mais ici, ce « quelqu’un » prend de plus en plus la forme d’un assistant personnel à tout faire. 

La démocratisation des outils d’intelligence artificielle fournit de nouveaux outils ultra-performants pour exploiter notre vie privée. Comme les chatbots, la désinformation a besoin de nos données personnelles pour fonctionner afin de cibler des groupes d’individus, à l’aide de messages conçus sur-mesure pour eux. 

Miroir, mon beau miroir…

Par ailleurs, si toutes les réponses données sont personnalisées, il y a un risque d’enfermement dans vos croyances et vos certitudes. Les neurosciences expliquent l’attrait pour les fake news par une préférence naturelle du cerveau pour les explications, même fausses, tant qu’elles fournissent une certaine cohérence ou répondent à des préjugés existants.

Les premières IA capables d’analyser nos émotions, notre voix et nos réactions viennent de voir le jour. Elles sont ainsi en mesure d’adapter, en temps réel, leur ton, leur propos et leur argumentation. Enfin, une étude de chercheurs suisses de l’EPFL a montré qu’une IA pouvait être deux fois plus efficace qu’un humain pour faire changer d’avis quelqu’un sur une question précise, lors d’une conversation.

En compilant toutes nos données personnelles, l’IA est donc capable de nous donner les réponses qu’on attend, des réponses ultra-personnalisées. Alors quand il s’agit de nous recommander un t-shirt ou de calculer le meilleur itinéraire pour aller au ciné, ça passe. Mais quand il s’agit de santé, de travail, de politique ou de religion, c’est une autre affaire. Pourtant, ça fonctionne de la même manière, même si tout dépend évidemment des intentions de celui qui exploite et instrumentalise les données disponibles.

En résumé, si une machine connait tout de nous, elle dispose d’un mode d’emploi parfait pour nous influencer. Une aubaine pour ceux qui veulent exploiter nos failles et gouverner notre comportement ou nos opinions.

Promenons-nous dans les bois…

Il est également important d’avoir conscience que les chatbots et les assistants IA ne sont pas des technologies « neutres », mais des produits hautement culturels et politiques. Qu’ils soient développés aux États-Unis, en Europe ou en Chine, ils répondent à des normes et des valeurs spécifiques. Leurs concepteurs ajoutent des couches de supervision, c’est-à-dire qu’ils choisissent les sources d’informations et définissent des règles pour encadrer le comportement de la machine et les réponses qu’elle peut ou non fournir.

Le ChatGPT américain est, par exemple, accusé d’être woke et consensuel. Ernie Bot, son équivalent chinois, est accusé d’être autoritaire, anti-démocratique et de pratiquer la censure. 

Les outils d’intelligence artificielle véhiculent donc une vision du monde et filtrent leurs réponses en fonction de paramètres prédéfinis. En les utilisant, vous acceptez de chausser les lunettes de quelqu’un d’autre, qu’il s’agisse d’une entreprise ou d’un État. Quand c’est pour obtenir la recette des crêpes, ok, mais quand il s’agit de questions plus sensibles, qui ont un impact sur votre vie, cela devient beaucoup plus problématique.


Dis Jamy, ça fonctionne comment l’IA ?

Pour bien s’informer et rester libre de ses choix, il faut être en mesure d’esquiver les tentatives de manipulation. Il faut donc commencer par comprendre comment fonctionne l’intelligence d’artificielle générative et quelle est son influence sur les infos que nous consommons. 

Les IA génératives sont…

… des machines, elles fonctionnent avec une logique statistique. Elles ne comprennent pas ce qu’elles disent, elles calculent des probabilités avant de donner une réponse. La qualité de l’information qu’elles délivrent dépend de la nature et de la qualité des données qu’elles ont ingurgitées et des limites définies par les programmateurs : ce qu’elles peuvent dire ou pas.

… des baratineuses professionnelles et des comédiennes hors pair. Ce sont des programmes informatiques très convaincants et persuasifs qui sont entraînés pour imiter les comportements humains. Mais n’oubliez jamais, ce ne sont que des machines.

… très fortes pour automatiser des tâches, faire des recherches dans d’immenses quantités de données et personnaliser les réponses en fonction de l’utilisateur et du contexte.

Mais, les IA génératives ne sont…

… pas des moteurs de recherche ou des sources d’information fiables. ChatGPT fait beaucoup d’erreurs, car il est conçu pour interagir avec les humains, pas pour fournir des réponses factuelles. Il a des connaissances impressionnantes, mais on ne peut pas totalement lui faire confiance. Il donne des résultats probables et vraisemblables. 

… ni neutres, ni impartiales. Elles sont programmées par des humains qui ont des intentions précises, qu’elles soient commerciales, politiques ou culturelles. 

… pas des êtres vivants dotés d’une personnalité ou d’une conscience. Même si elles prétendent l’inverse, elles ne ressentent rien, elles n’ont pas conscience d’elles-mêmes. Elles ont une connaissance théorique et statistique du monde, mais elles n’ont pas d’expérience sensible de notre réalité d’humain. 

… pas des journalistes. Elles ne sont pas capables de faire la différence entre le vrai ou le faux, la réalité et la fiction, ce qui moral ou pas, juste ou injuste. 

Et tout est devenu flou

Lors des premiers pas des IA génératives, il était relativement facile de dire si une image avait été créée par une machine. Des mains avec six doigts ou des incohérences dans la position d’un personnage permettaient de démasquer la tricherie. Une année s’est écoulée et il est devenu impossible de dire avec certitude si une photo a été prise avec un smartphone ou générée par une IA. Idem avec les textes, les sites web, les profils d’utilisateurs, les sites de média, les commentaires et maintenant les vidéos. Les influenceurs 100% artificiels sont suivis par des millions de personnes sur les réseaux sociaux. 

Créer un deepfake est devenu un jeu d’enfant. Les célébrités ne sont plus les seules victimes, Monsieur et Madame Tout-le-monde sont également la cible d’arnaques et de campagnes de dénigrement.

Que se passera-t-il quand ces avatars ultra-réalistes serviront la cause de la désinformation et des fake news, 24h sur 24, 7 jours sur 7. Dans un monde dans lequel l’illusion est parfaite, les deepfake deviennent des armes très puissantes pour tromper les gens. 

Vers une ère d’incertitude informationnelle

Produits en quantité industrielle, les contenus synthétiques promettent d’envahir le web et de semer le doute. Impossible dès lors de faire la différence entre ce qui est vrai et ce qui ne l’est pas. La fin d’une réalité partagée par le plus grand nombre. 

Dans un tel contexte, à qui faire encore confiance ? Comment savoir si l’on est manipulé ou non ? Comment prendre une décision en connaissance de cause si on entend tout et son contraire et que chacun se renferme dans ses croyances et ses certitudes.

Cette situation pourrait aboutir à un grand désordre informationnel qui provoquerait, à son tour, une crise de confiance généralisée. Quand on ne peut plus rien croire, impossible de se faire une opinion. On est alors privé de sa capacité de penser, de juger et d’agir. Les conditions ne sont dès lors plus réunies pour vivre en société. Le rêve des politiciens populistes et des autocrates qui comptent sur la méfiance et la haine de l’autre pour asseoir leur pouvoir.

Alors, on danse…

Pour bien s’informer et rester libre de vos choix, voici quelques conseils : 

  • Vous avez un doute ? Vérifiez la source, recoupez l’info et demandez-vous à qui elle profite. 
  • Constituez-vous un catalogue de sources de confiance.
  • Certifier les faits, c’est un métier. Les journalistes sont les mieux placés pour filtrer la désinformation. 
  • Cultivez votre esprit critique, restez ouvert à la contradiction et essayez de penser contre vous-même.
  • Protéger vos données personnelles et réfléchissez bien avant d’en donner l’accès à un service tiers.

• Nicolas Becquet, journaliste

Tenez-vous au courant
de l'actualité du Mundaneum

Fondation
Henri La Fontaine

Contact

Rue de Nimy, 76 - 7000 Mons, Belgique
Téléphone : (0032) 065 31 53 43
Email : info@mundaneum.be
B.C.E.0451.247.562

Infos pratiques

Horaires

Accessibilité/PBS

Tarifs

Panier0
Il n'y a pas d'articles dans le panier !
Continuer les achats
0