Le Conseil de presse se penche sur l’IA dans les salles de rédaction
Constatant l’utilisation grandissante de l’intelligence artificielle (IA) dans les salles de rédaction, le Conseil de presse du Québec (CPQ) a récemment ajouté un nouveau principe à son guide de déontologie journalistique afin d’encadrer son utilisation et s’assurer de la qualité de l’information transmise au public.
« L’intelligence artificielle peut être extrêmement utile pour enrichir le journalisme. Mais elle peut aussi entraîner des dérives […] C’est notre rôle [au CPQ] de guider les médias et les journalistes pour [les] éviter et d’offrir un recours au public », explique en entrevue Caroline Locher, secrétaire générale du tribunal d’honneur des médias.
D’après ce nouveau principe, tout contenu médiatique généré par l’IA doit faire l’objet d’un « contrôle éditorial effectué par un humain » avant d’être diffusé au public. Ce contenu — image, texte ou élément sonore — doit être « clairement identifié comme tel » pour lever tout doute chez le public quant à la nature de l’information diffusée. L’identification doit être intégrée directement au contenu généré par l’IA afin d’« éviter tout partage sans identification » sur d’autres plateformes, précise-t-on.
« Le principe reste très large pour pouvoir coexister avec les normes que vont mettre en place les divers médias, souligne Mme Locher. Il va être réévalué dans la prochaine année, au fur et à mesure que la technologie avance. Parce qu’on le voit : ça va extrêmement vite. »
Le problème, c’est évidemment la corruption de la vérité. On sait que ces modèles comme ChatGPT inventent des choses lorsqu’ils ne trouvent pas la bonne réponse, et il y a donc un risque de s’y fier aveuglément.
Dans les faits, les salles de rédaction utilisent depuis plusieurs années des outils d’IA dans le cadre de leur travail pour collecter de l’information, faire de la contre-vérification des faits ou diffuser du contenu. En 2021, l’enquête des « Pandora Papers », du Consortium international des journalistes d’investigation, a par exemple eu recours à un algorithme capable de fouiller des millions de documents en ligne pour prouver l’existence d’évasion fiscale partout dans le monde.
Fin 2022, l’arrivée de ChatGPT a changé la donne et poussé le niveau plus loin. L’agent conversationnel d’OpenAI se base sur la technologie de compréhension du langage humain la plus récente pour générer des réponses cohérentes sur divers sujets. Et puisqu’il est accessible à tous, il peut se retrouver entre les mains de personnes malintentionnées.
« Le problème, c’est évidemment la corruption de la vérité. On sait que ces modèles comme ChatGPT inventent des choses lorsqu’ils ne trouvent pas la bonne réponse, et il y a donc un risque de s’y fier aveuglément », s’inquiète Mme Locher, qui rappelle qu’on voit aujourd’hui davantage de faux articles, de fausses images ou de fausses vidéos circuler en ligne.
Prudence au Québec
À ce jour, le CPQ n’a reçu aucune plainte concernant une publication médiatique générée par l’IA. « On n’a pas vu de dérives ici. Aux États-Unis, par contre, il y a eu le scandale des faux journalistes de la revue Sports Illustrated, les articles pleins de faussetés générés par l’IA chez CNET. En France, des médias l’utilisent pour raccourcir des articles de correspondants », indique-t-elle.
Au Québec, les médias traditionnels sont encore dans une phase d’expérimentation. La plupart utilisent déjà l’IA dans leurs salles de rédaction pour faire des retranscriptions d’entrevues, des traductions, des recherches SEO ou des publications sur les réseaux sociaux.
Certains se sont aussi aventurés un peu plus loin : depuis un an, la radio numérique de Québecor, QUB, utilise ChatGPT pour rédiger de courts textes journalistiques afin d’accompagner des extraits audio tirés d’émissions radio.
L’idée est d’améliorer l’efficacité et de libérer l’humain des tâches sans valeur ajoutée.
De son côté, Radio-Canada propose depuis quelques mois une synthèse vocale d’articles publiés sur son site Internet. « C’est une fonctionnalité en test, offerte à un pourcentage seulement de nos internautes, pour sonder s’il y a de l’appétit pour ça. […] Ça faisait longtemps qu’on voulait le proposer, pour des raisons d’accessibilité notamment, l’IA nous a permis de le faire plus rapidement », explique Crystelle Crépeau, première directrice des magazines et de l’information numérique.
Encadrement
Le diffuseur public a récemment dévoilé sa charte d’utilisation de l’IA, emboîtant le pas à La Presse, qui a publié ses lignes directrices l’automne dernier. De leur côté, Le Devoir et Québecor indiquent se pencher présentement sur la question.
Tous s’entendent et rejoignent le CPQ : prudence, rigueur et transparence sont de mise. L’idée d’avoir l’approbation d’un humain avant de publier un contenu généré par l’IA est aussi primordiale.
« L’idée est d’améliorer l’efficacité et de libérer l’humain des tâches sans valeur ajoutée. […] Mais il faut redoubler de prudence, valider et revalider, parce que les outils sont imparfaits et que le robot conversationnel a tendance à fabuler », fait remarquer le directeur du Devoir, Brian Myles.
La Presse a justement interdit à ses employés « d’utiliser des outils externes d’IA générative afin de produire des textes, photos, vidéos ou images destinés à la publication ». Et elle préfère développer à l’interne ses propres outils.
« C’est une occasion pour les médias, les journalistes, de prouver encore plus que jamais qu’ils sont des authentificateurs de la vérité, affirme l’éditeur adjoint de La Presse, François Cardinal. C’était notre métier et ça va le devenir encore plus dans les prochaines années. Le revers de la médaille, c’est cette vigilance accrue, c’est sûr. »