IA et journalisme : vers la création d’une charte au Cameroun
Réunis du 7 au 9 mai 2026 à Yaoundé, journalistes, juristes et experts IA ont posé les bases d’un code éthique au cours d’un symposium organisé. Objectif : protéger la vérité.
Le 24 avril 2026, un document attribué au recteur de Université de Yaoundé I embrase les réseaux sociaux. La note annonce un test anti-plagiat obligatoire facturé 25 000 Fcfa pour les mémoires de master et thèses de doctorat. Sur Facebook et WhatsApp, indignation et moqueries se multiplient. Trois jours plus tard, le recteur, Pr Rémy Magloire Etoua, dément publiquement : « les procédures de vérification de l’originalité des travaux de recherche demeurent strictement gratuites ». Après vérification, le communiqué s’avère être un faux généré à l’aide d’une intelligence artificielle grand public.
L’épisode agit comme un signal d’alarme. Car au Cameroun, comme dans de nombreux pays africains, l’usage de l’intelligence artificielle dans les médias progresse plus vite que les règles censées l’encadrer. Selon AfricaMedia Survey 2025, seuls 28 % des médias d’Afrique subsaharienne disposent d’une politique formelle sur l’IA. En clair, près des trois quarts des rédactions évoluent encore sans cadre précis sur l’utilisation des contenus générés artificiellement.
C’est dans ce contexte qu’a été organisé à Yaoundé, du 6 au 8 mai 2026, le Symposium national sur l’intelligence artificielle et le journalisme autour du thème : « Informer à l’ère de l’IA : vérité, éthique et responsabilité ». Journalistes, universitaires, régulateurs et experts du numérique y ont débattu des risques liés à l’automatisation de l’information, mais aussi des garde-fous nécessaires pour préserver la crédibilité des médias.
Au cœur des échanges, une question revient : comment distinguer un contenu authentique d’un texte, d’une image ou d’une vidéo générés par intelligence artificielle ? Pour Arthur Dongfack, expert en IA, certains indices reviennent fréquemment dans les productions automatisées. « Les intelligences artificielles ont des tics. Elles structurent souvent les idées de manière répétitive et utilisent abondamment le tiret cadratin, un héritage de l’anglais sur lequel elles sont majoritairement entraînées », explique-t-il. Mais au-delà du repérage des contenus artificiels, le symposium visait surtout à jeter les bases d’une future charte éthique nationale sur l’usage de l’IA dans les médias. Une charte qui contiendra plusieurs pans selon Hervé Tiwa, directeur exécutif de Med.IA Laboratory. Les organisateurs qui espèrent la finaliser d’ici juillet 2026, précise que sa signature restera facultative pour les médias.
Un chantier auquel a activement participé ADISI-Cameroun à travers l’atelier du 7 mai 2026, consacré à la transparence, l’explicabilité et la traçabilité des contenus générés par IA. Piloté par l’organisation, l’atelier a tenté de répondre à des questions concrètes : faut-il signaler l’usage de l’IA dans un article ? Comment garder une trace des modifications effectuées par des outils automatisés ? Qui porte la responsabilité d’une erreur produite par une machine ? Pour les participants, l’enjeu est devenu crucial face à la multiplication des faux contenus, des deepfakes et des manipulations numériques. L’atelier recommande notamment d’imposer plus de transparence dans les rédactions, avec la mention explicite des outils d’IA utilisés dans la fabrication d’un contenu.
Désiré Domo







