Vous pensiez confier votre veille d’actualité à un assistant d’intelligence artificielle sans risque ? Prenez une grande inspiration (et gardez votre sens critique à portée de main). Une grande étude menée par les radios et télévisions publiques européennes sonne l’alerte : quand il s’agit d’informer, les IA ont encore un sérieux chat dans la gorge !
Quand l’IA prend l’humour pour argent comptant… et inversement
Confondre chronique satirique et information solide, inventer des dates ou recycler des détails fictifs : voilà le menu (peu glorieux) qu’offrent, presque une fois sur deux, les principaux assistants d’intelligence artificielle comme ChatGPT. L’étude, coordonnée par l’Union européenne de radio-télévision (UER) et basée sur des travaux préalables de la BBC, ne fait pas dans le sensationnalisme : 45 % des réponses produites par ces IA comportaient au moins un problème important, peu importe la langue ou le pays interrogé.
Vingt-deux médias publics issus de dix-huit pays (la plupart européens) ont roulé leurs manches. Entre fin mai et début juin, chacun a posé les mêmes questions d’actualité aux assistants IA, en leur demandant de trouver les réponses dans leurs propres contenus. Un contrôle technique grandeur nature pour mesurer la fiabilité de nos nouveaux oracles numériques.
Quand le pape meurt deux fois… Le festival des boulettes
- Question piège : « Qui est le pape ? » ChatGPT (au groupe finlandais Yle), Copilot et Gemini (aux médias néerlandais NOS et NPO) l’ont joué sûr : « François. » Petit problème… François était déjà décédé et son successeur, Léon XIV, avait pris la relève. Retour direct à la case Vatican !
- Autre perle : interrogé par Radio France sur un prétendu salut nazi d’Elon Musk lors de l’investiture de Donald Trump aux États-Unis, Gemini a affirmé que le milliardaire avait « une érection du bras droit ». L’assistant avait pris au pied de la lettre la chronique satirique de l’humoriste Charline Vanhoenacker. L’humour n’a donc pas encore trouvé de case spécifique dans l’algorithme.
Mais le champion toute catégorie du faux-pas, c’est Gemini, qui affiche les pires résultats du peloton : dans trois quarts de ses réponses analysées, les chercheurs détectent des « problèmes importants » — plus du double de ses concurrents directs. Sa faiblesse majeure ? Son incapacité chronique à citer correctement la source d’une information. Un défaut gênant, avouons-le, pour qui prétend remettre les pendules de l’actualité à l’heure.
Quelles conséquences pour notre rapport à l’information ?
Jean Philip De Tender, directeur général adjoint de l’UER, et Pete Archer, chargé de l’IA à la BBC, ne mâchent pas leurs mots en conclusion de l’enquête : « Les assistants IA ne sont toujours pas une manière fiable de consommer l’information ». Message limpide, même pour une IA… qui invente encore parfois la météo et les gagnants du Tour de France.
Pourtant, l’utilisation de ces outils pour s’informer n’a jamais été aussi répandue, surtout chez les jeunes. D’après un rapport mondial publié en juin par l’institut Reuters, 15 % des moins de 25 ans les consultent chaque semaine pour obtenir un résumé de l’actualité. De quoi réaffirmer l’importance d’une vigilance citoyenne !
- Quand on lit une réponse d’IA, ne jamais oublier de vérifier les faits via plusieurs sources.
- Se méfier des détails trop croustillants ou des affirmations qui paraissent absurdes : l’IA a parfois un humour involontaire très développé !
- Pour les médias comme pour le public, garder une distance critique demeure la clé.
En somme : si vous vouliez déléguer votre actualité du jour à votre assistant numérique, attendez un peu (et continuez de préférer la curiosité au pilotage automatique). L’IA progresse, certes, mais elle a encore des progrès à faire pour ne plus prendre la satire pour de l’info, ou confondre réalité et fiction…
