L’édito de Fabrice Grosfilley : l’intelligence artificielle pour s’informer

Dans son édito de ce mardi 17 juin 2025, Fabrice Grosfilley revient sur l’utilisation de l’intelligence artificielle dans le milieu de l’information.

Faites-vous davantage confiance à un journaliste ou à ChatGPT pour vous informer ? C’est la question que j’aurais envie de vous poser ce matin, à la lecture d’un rapport publié par l’institut Reuters sur les sources d’information. L’institut Reuters, c’est un centre d’étude sur le journalisme rattaché à l’université d’Oxford, en Angleterre. Chaque année, il publie un rapport sur l’information numérique, qui est considéré comme un outil de référence pour tous ceux qui s’intéressent à l’univers des médias.

La grande nouveauté mise en avant par ce rapport cette année, c’est donc l’arrivée des robots conversationnels comme ChatGPT dans le domaine de l’information. Ces outils d’intelligence artificielle commencent à être utilisés pour s’informer, en particulier par les jeunes. D’après une enquête en ligne réalisée pour le compte de l’institut auprès de 97 000 personnes dans 48 pays, 12 % des moins de 35 ans, et 15 % des moins de 25 ans, disent utiliser ces outils pour s’informer chaque semaine.  12 %, 15 %… vous allez me dire que c’est relativement faible — le pourcentage global n’est d’ailleurs que de 7 % si l’on prend l’ensemble de la population — mais le fait que ces chiffres soient justement plus élevés chez les jeunes indique l’émergence d’une nouvelle tendance.

Parmi les outils les plus connus, c’est ChatGPT (de l’entreprise américaine OpenAI) qui est le plus utilisé, devant Gemini de Google et Llama de Meta. Ce que demandent les utilisateurs à leur outil d’intelligence artificielle, c’est de personnaliser la présentation des informations. Il s’agit, par exemple, de résumer des articles pour les rendre plus rapides à lire (ce que demandent 27 % des utilisateurs), de les traduire (pour un utilisateur sur quatre), de faire des recommandations (21 %) ou encore de répondre à des questions sur l’actualité (18 %). Ces pratiques posent vraiment question. Si vous demandez à une intelligence artificielle de vous faire un résumé de l’actualité, vous ne savez pas où elle va aller puiser ses données. Quelle sera donc la matière première qui servira à fabriquer la réponse ? Sans identification des sources, vous n’avez aucune garantie sur la véracité des informations. On ajoutera qu’en Belgique, les éditeurs de presse n’ont pas signé d’accord avec les outils d’intelligence artificielle, qui ne veulent pas rémunérer leur production. C’est comme si l’intelligence artificielle était donc en partie aveugle ou sourde sur ce qui se passe chez nous.

J’ai d’ailleurs fait le test ce matin, en demandant à ChatGPT quelles étaient les cinq grandes informations de ce mardi matin en Région bruxelloise. En première position, ChatGPT a mis la mobilisation pour Gaza. C’est une information qui remonte à dimanche, alors que nous sommes mardi. En trois lignes, deux imprécisions : les chiffres de participation sont flous — de 75.000 à 100.000 personnes — alors que les organisateurs ont annoncé au moins 110.000. Et l’organisateur cité par ChatGPT est l’opération 11.11.11, alors qu’il s’agissait en réalité d’un collectif d’organisations dont 11.11.11 faisait partie.  En deuxième position, ChatGPT a classé le pique-nique de la Bourse… qui remonte à lundi dernier. En troisième position, un forum sur la technologie durable organisé sur le site de Tour & Taxis. Et en quatrième position, la visite d’un ancien ministre pakistanais qui sera aujourd’hui à Bruxelles.  Bon… il n’y a pas photo : si vous voulez vraiment de l’information bruxelloise, ce n’est pas encore sur ChatGPT que vous allez pouvoir la trouver.

Il n’empêche que la pratique existe, et qu’elle va s’amplifier. Demain, certains jeunes n’utiliseront plus que l’intelligence artificielle pour s’informer. Ils ne passeront plus par la presse en ligne, ni par la radio, ni la télévision, et encore moins par la presse écrite. Le pire, c’est que — toujours selon cette étude de l’institut Reuters — les personnes qui ont participé à cette enquête « restent sceptiques quant à l’utilisation de l’IA dans le domaine de l’information et préfèrent que les humains continuent à jouer un rôle ». Ils craignent que l’information produite principalement par l’IA soit « moins transparente » et « moins digne de confiance ».

C’est le grand paradoxe de l’intelligence artificielle et des robots conversationnels. On sait qu’ils sont imparfaits, qu’ils nous répondent parfois complètement à côté de la plaque, qu’ils développent un point de vue américano-centré sur le monde, qu’ils peuvent volontairement ou involontairement nous conditionner. Mais ils sont malgré tout tellement pratiques qu’on va quand même les utiliser.

Un peuple mal informé, c’est un peuple qu’on peut aisément manipuler. « L’ignorance du peuple nous garantit de sa soumission », avait dit Catherine II de Russie. Et Condorcet, mathématicien et philosophe français, avait eu cette sentence : « Même sous la Constitution la plus libre, un peuple ignorant est un esclave. »  Demain, nous risquons donc d’être les esclaves des robots conversationnels. C’est pour cela qu’il est peut-être temps d’imposer des règles à OpenAI, à Google, et aux autres. Que parmi ces règles figure l’obligation de puiser l’information à des sources fiables et traçables serait, à notre humble avis, un minimum.

Fabrice Grosfilley

Partager l'article

17 juin 2025 - 11h58
Modifié le 17 juin 2025 - 11h58

BX1
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.

Plus d'informations sur nos mentions légales