IA et fiabilité de l’information : la RTBF et l’UER tirent la sonnette d’alarme
                      Les assistants d’intelligence artificielle sont-ils des sources fiables pour s’informer ? Une vaste étude européenne coordonnée par l’Union européenne de radio-télévision (UER) et menée avec la BBC, à laquelle la RTBF a activement participé, révèle que non. Près d’une réponse sur deux produites par les grands modèles conversationnels contient une erreur significative.
Une étude d’envergure européenne
Lancée lors de l’Assemblée générale de l’UER à Naples, cette recherche transnationale réunit 22 radiodiffuseurs publics de 18 pays, dont la RTBF, la VRT, la BBC, Radio France ou encore la Deutsche Welle. Ensemble, ils ont testé quatre grands assistants, ChatGPT, Copilot, Gemini et Perplexity, sur 30 questions d’actualité, pour un total de près de 3 000 réponses analysées par 250 journalistes professionnels.
Les résultats sont préoccupants : 45% des réponses contiennent au moins une erreur importante, 31% présentent des problèmes de sourcing (citations manquantes, trompeuses ou incorrectes) et 20% des inexactitudes factuelles, notamment des hallucinations, des informations périmées ou des contextes déformés. Gemini, l’assistant de Google, obtient les pires scores avec 76% de réponses problématiques.
La RTBF en première ligne pour évaluer l’impact sur l’information
Côté belge francophone, la RTBF a mené sa propre analyse des résultats. Ses équipes ont constaté que 8% des réponses testées contenaient une inexactitude majeure, un taux inférieur à la moyenne européenne mais jugé « déjà beaucoup trop élevé » par Yves Thiran, coordinateur du projet pour la RTBF : « Cette étude confirme qu’on ne peut pas faire confiance aujourd’hui aux modèles de langage pour fournir une information fiable. Une relecture et une validation humaine restent absolument indispensables chaque fois qu’on confie à l’IA générative une tâche dans l’univers de l’info. »
Au-delà des erreurs factuelles, les journalistes de la RTBF ont aussi relevé des approximations, des oublis de contexte et une mise à niveau problématique des sources, où un site officiel est parfois traité au même rang qu’un blog personnel. Autrement dit, les IA génératives reproduisent la forme du journalisme (clarté, structure, ton convaincant) sans en maîtriser les fondements éditoriaux : vérification, hiérarchisation, contextualisation.
L’UER alerte sur un danger systémique pour la confiance du public
Pour Liz Corbin, directrice de l’information de l’UER, le problème dépasse les simples erreurs ponctuelles : « Ces défaillances ne sont pas des incidents isolés. Elles sont systémiques, mondiales et multilingues, et représentent un danger pour la confiance du public. Quand les gens ne savent plus à quoi se fier, ils finissent par ne plus rien croire. »
Selon le Digital News Report 2025 de l’Institut Reuters, 7% des internautes s’informent déjà via des assistants IA, et 15% des moins de 25 ans. Ces chiffres montrent à quel point la question n’est plus théorique. L’UER appelle les régulateurs européens et nationaux à renforcer la surveillance de ces technologies et à faire appliquer les lois sur l’intégrité de l’information et les services numériques.
Vers un cadre commun pour une IA plus responsable
En parallèle, la BBC et l’UER élaborent un « News Integrity in AI Assistants Toolkit », un guide de bonnes pratiques destiné à améliorer la manière dont les assistants IA traitent les contenus d’actualité. Ce document, qui sera mis à disposition des développeurs et des rédactions, dresse la liste des erreurs les plus fréquentes, propose des recommandations concrètes et encourage la collaboration entre le secteur technologique, les médias et les régulateurs.
La VRT, également participante à l’étude, souligne pour sa part qu’elle maintient la protection de ses contenus d’actualité vis-à-vis des assistants IA, estimant que la fiabilité reste insuffisante. Plus d’informations sur les initiatives de la VRT en matière d’IA dans notre article en néerlandais.
À lire aussi
        À lire plus tard
Vous devez être inscrit pour ajouter cet article à votre liste de lecture
S'inscrire Déjà inscrit ? Connectez-vous
        
        
        
        