Un voyage à travers les champs de bataille éthiques d'une industrie en transition
Vincent Berthier, de Reporters sans frontières, le qualifie d'« arme contre le journalisme ». Anderson Cooper, Gayle King et Clarissa Ward en ont déjà été victimes. Les deepfakes transforment des visages dignes de confiance en instruments de désinformation. Pendant ce temps, de la Silicon Valley à Bruxelles, les rédactions se battent pour l'avenir d'une profession plus ancienne que toute technologie – et plus fragile que nous ne l'aurions jamais imaginé.
La machine parle avec votre voix

C'était une vidéo que personne n'aurait dû voir. Gayle King, la célèbre présentatrice de CBS Mornings, s'est confiée directement à la caméra sur son prétendu secret minceur : « Mesdames, honnêtement, je ne m'attendais pas à ce que ma perte de poids suscite autant de questions. Mes messages privés sur Instagram sont inondés. » Sa voix était familière, son visage bougeait naturellement ; seuls les mots ne correspondaient pas à ses lèvres. Et Gayle King n'a jamais enregistré la vidéo pour le produit minceur « Artipet ».
« J'ai publié une vidéo pour promouvoir mon émission de radio le 31 août, et ils ont manipulé ma voix et ma vidéo pour faire croire que j'en faisais la promotion », a écrit King sur Instagram. « Je n'ai jamais entendu parler de ce produit ni utilisé ce produit ! Ne vous laissez pas tromper par ces vidéos IA… »
L'expérience de King n'est plus un cas isolé. Des journalistes de médias comme CNN, CBS, BBC et VOA ont été ciblés par des deepfakes, se faisant passer pour des journalistes de renom comme Anderson Cooper, Clarissa Ward et Gayle King. Ce qui relevait autrefois de la science-fiction est désormais une réalité accessible numériquement : l'intelligence artificielle peut non seulement écrire du texte, mais aussi imiter les visages et les voix humains avec une telle perfection que même les experts peinent à détecter les faux.
Les statistiques effrayantes qui se cachent derrière : Il y a trois fois plus de deepfakes vidéo de toutes sortes et huit fois plus de deepfakes vocaux publiés en ligne cette année par rapport à la même période en 2022, rapporte DeepMedia, une société qui travaille sur des outils de détection.
Mais la révolution de l'intelligence artificielle dans le journalisme ne se limite pas au monde trouble des deepfakes. Elle imprègne tous les aspects de la production médiatique : de la génération automatisée d'articles à la curation personnalisée de contenu, de la vérification des faits en temps réel à la segmentation précise de l'audience. La question n'est plus de savoir si l'IA transformera le journalisme ; elle le fait déjà. La question cruciale est : pourrons-nous contrôler cette transformation, ou est-ce elle qui nous contrôlera ?
L'Europe construit les limites de l'avenir de l'IA
Alors que la Silicon Valley développe des systèmes d'IA à la vitesse du capital-risque, l'Europe a adopté une approche différente : la réglementation avant l'innovation. Le règlement européen sur l'IA (AI Act) constitue le premier cadre juridique global au monde pour l'IA, et entrera en vigueur le 1er août 2024. Mais pour le secteur des médias, cette avancée pionnière recèle des écueils inattendus.
La professeure Natali Helberger critique la loi sur l’IA pour avoir «généralement moins de garanties juridiques et moins d’exigences légales pour les organisations médiatiques» – une lacune notable dans une réglementation qui vise à promouvoir une IA digne de confiance.
Le problème du contrôle éditorial La question d'interprétation devient centrale de notre époque : l'article 50 du Règlement sur l'IA exige que les textes générés ou manipulés par l'IA publiés à des fins d'information publique sur des questions d'intérêt général indiquent que le contenu a été généré ou manipulé artificiellement. Mais qu'est-ce que le « contrôle éditorial » ? Et quand les consommateurs doivent-ils être explicitement informés de l'implication de l'IA ?
Les réponses à ces questions sont bien plus que des arguties académiques. Elles définissent l'avenir de la vérité dans les sociétés démocratiques.
Agnes Stenbom, experte du secteur, prévient : les organisations médiatiques ne devraient pas se fier entièrement à la loi sur l'IA, d'autant plus qu'elle est encore en cours d'élaboration, mais plutôt rechercher le dialogue et la coopération entre elles pour trouver des solutions communes.
Les algorithmes de biais

Derrière les promesses éblouissantes de la révolution de l’IA se cache une sombre vérité : les algorithmes ne sont objectifs que dans la mesure où les personnes qui les programment et les données avec lesquelles ils sont entraînés le sont. Biais – la distorsion systématique – est le spectre qui hante les rédactions européennes.
Une analyse récente de 14 publications scientifiques a identifié les biais comme la préoccupation éthique la plus courante concernant l'adoption de technologies d'IA générative dans les médias. Ces biais se manifestent sous des formes diverses, souvent subtiles :
- Biais de sélection dans la sélection des sujets d’actualité : Quelles histoires sont classées comme « importantes » par les algorithmes ?
- Biais de confirmation causé par les systèmes de recommandation algorithmiques : Les systèmes d’IA renforcent-ils les chambres d’écho existantes ?
- Distorsions démographiques : Quelles voix sont entendues et lesquelles sont ignorées ?
Un exemple concret tiré de la pratique : Si un système d’IA a été formé principalement avec des textes de journalistes blancs et masculins de pays occidentaux, il considérera cette perspective comme « normale » et sous-représentera ou interprétera systématiquement les autres points de vue.
La population allemande est particulièrement sceptique à cet égard. Une étude représentative menée par l'Artificial Intelligence Opinion Monitor (MeMo:KI) auprès de 1 035 participants a révélé que l'utilisation de l'IA dans les rédactions est perçue d'un œil très critique. Les personnes interrogées constatent peu d'amélioration de la qualité journalistique grâce à l'IA et la majorité sont favorables à une réglementation stricte.
La Charte de Paris : un manifeste pour la survie

En novembre 2023, 32 experts de 20 pays se sont réunis à Paris pour créer ce que beaucoup considéraient comme impossible : un consensus éthique mondial sur l’IA dans le journalisme. Présidée par la journaliste et lauréate du prix Nobel de la paix Maria Ressa, la commission a élaboré la Charte de Paris sur l’IA et le journalisme, première référence éthique internationale de ce type.
Maria Ressa met en garde de toute urgence : « L’intelligence artificielle pourrait rendre des services remarquables à l’humanité, mais elle a clairement le potentiel d’accroître la manipulation des esprits à une échelle jamais vue auparavant dans l’histoire. »
La charte établit dix principes fondamentaux qui devraient servir de boussole à travers les tempêtes éthiques de la révolution de l'IA :
- L’éthique doit guider les décisions technologiques dans les médias
- La prise de décision humaine doit rester au centre des décisions éditoriales
- Les médias doivent aider la société à faire la distinction entre le contenu authentique et le contenu synthétique
- Les médias doivent participer à la gouvernance mondiale de l’IA
« En tant que gardiens essentiels du droit à l’information, les journalistes, les médias et les groupes de soutien journalistique devraient jouer un rôle actif dans la gouvernance des systèmes d’IA », stipule la charte.
Mais les belles paroles ne suffiront pas. Le véritable défi réside dans la mise en œuvre, et dans la question de savoir si un secteur qui lutte déjà pour sa survie économique peut mobiliser les ressources et la volonté nécessaires pour privilégier les normes éthiques aux gains d'efficacité à court terme.
Les médias allemands dans l'expérience de l'IA
Alors que les débats internationaux font rage, les entreprises de médias allemandes expérimentent déjà l’avenir. La maison d'édition Spiegel est considéré comme un pionnier et utilise l'IA depuis des années dans diverses applications éditoriales : du doublage et de la transcription de textes à l'évaluation des contributions des utilisateurs. L'utilisation de générateurs d'images comme Midjourney pour les articles de couverture sur « La Fin de la Vérité » a été particulièrement innovante, avec une transparence totale envers les utilisateurs.
Reuters Allemagne a adopté une approche différente : avec « Fact Genie », ils ont développé un outil interne qui analyse les communiqués de presse en quelques secondes et suggère des titres à la rédaction. Sabine Wollrab, responsable du bureau de Reuters pour l'Allemagne, l'Autriche et la Suisse, souligne toutefois : « La confiance est l'un de nos atouts. Reuters est une marque très fiable. Et nous ne voulons pas vendre cela au détriment de l'IA. »
Le Frankfurter Allgemeine Zeitung montre à quoi peut ressembler l'intégration sélective de l'IA : elle utilise l'IA spécifiquement pour l'optimisation des activités numériques, le doublage, la transcription et l'archivage, mais exclut catégoriquement les contributions originales avec du texte généré par l'IA.
Le Poste rhénane:Un assistant assisté par l'IA gère les appels des clients 24 heures sur 24 et a fait de l'entreprise l'un des opérateurs de centres d'appels les plus efficaces du secteur des médias, rapporte Margret Seeger, directrice de l'édition numérique et responsable de l'IA au sein du groupe Rheinische Post Media.
Les hallucinations des machines
La caractéristique la plus inquiétante des systèmes d'IA modernes est peut-être leur tendance à l'« hallucination » : la génération d'informations apparemment plausibles, mais factuellement erronées. Cette tendance remet fondamentalement en cause les principes fondamentaux du journalisme, tels que la véracité et l'exactitude.
Un exemple récent : En décembre, la correspondante de CNN, Clarissa Ward, est apparue à la télévision pendant 12 minutes pour raconter avoir rencontré un prisonnier à Damas, la capitale syrienne, après la chute du dictateur Bachar el-Assad. Il prétendait s'appeler Adel Ghurbal, mais des vérificateurs ont déterminé que son véritable nom était Salama Mohammad Salama, qui était en réalité lieutenant dans l'armée de l'air d'Assad.
Cet exemple montre que les frontières entre l’erreur humaine et la désinformation des machines s’estompent. Le défi est exacerbé par le fait que la responsabilité du contenu défectueux généré par l’IA reste juridiquement et éthiquement floue.
À cet égard, le Conseil de presse allemand a précisé que le Code de la presse s'applique sans restriction aux contenus assistés par IA et que la responsabilité éditoriale incombe aux humains. Mais qu'en est-il concrètement si un système d'IA produit des informations erronées qu'un rédacteur en chef surmené ne parvient pas à détecter à temps ?
La lutte pour la propriété intellectuelle
Derrière les débats éthiques, une guerre économique acharnée fait rage : la question du droit d’auteur. De nombreux éditeurs se plaignent que leurs articles ont été utilisés pour entraîner des modèles d’IA sans autorisation, ce qui soulève des questions juridiques et éthiques. Le NUJ (Syndicat national des journalistes) a explicitement déclaré que ses membres n’autorisent pas l’utilisation de leurs œuvres protégées par le droit d’auteur pour l’entraînement de l’IA.
Felix Simon, chercheur à l’Oxford Internet Institute, a identifié un « déséquilibre de pouvoir familier » entre les éditeurs de presse et les entreprises technologiques, qui est exacerbé par l’adoption de l’IA. Les entreprises de médias qui produisent du contenu depuis des décennies se retrouvent désormais dans la situation où leur travail est utilisé, sans compensation, pour former des systèmes qui pourraient potentiellement les rendre obsolètes.
C’est un paradoxe aux proportions kafkaïennes : l’industrie censée démocratiser l’information est menacée par sa propre production.
Les emplois à l'ère des algorithmes

Les inquiétudes concernant l'emploi ne sont pas infondées. Une enquête récente menée auprès de professionnels des médias révèle que 57,2 % des journalistes craignent que l'IA ne remplace davantage d'emplois dans les années à venir. 21 % des journalistes interrogés déclarent déjà avoir perdu leur emploi suite à la mise en œuvre de l'IA.
Un exemple choquant en Pologne : La station de radio polonaise OFF Radio Krakow a provoqué un tollé international en octobre 2024 lorsqu'elle a licencié une douzaine de journalistes et les a remplacés par des présentateurs générés par l'IA. La station a même diffusé une « interview » de la regrettée lauréate du prix Nobel Wisława Szymborska, décédée en 2012.
Mateusz Demski, un journaliste licencié, a lancé une pétition contre le « remplacement des employés par l'intelligence artificielle ». Plus de 23 000 personnes ont signé la pétition. Après seulement une semaine de manifestations intenses, la chaîne a annulé l'« expérimentation » prévue pour trois mois – un cas rare d'opposition publique à l'instauration d'une IA.
Mais cette crainte dépasse les simples préoccupations liées à l'emploi. Cette évolution s'accompagne d'une préoccupation plus fondamentale concernant la perte d'identité humaine et d'autonomie dans le journalisme, exprimée par plus de 60 % des personnes interrogées.
Que signifie pour une démocratie le fait que les voix qui informent ses citoyens ne soient plus humaines ?
La confiance du public : un contrat social rompu ?
Le public allemand réagit avec un scepticisme marqué à la révolution de l'IA dans les médias. Le rapport 2024 de l'Institut Reuters sur l'actualité numérique confirme cette tendance : la moitié des Allemands interrogés se sentent mal à l'aise face aux informations principalement générées par l'IA.
Particulièrement remarquable : Même les jeunes adultes, qui sont généralement plus ouverts aux informations générées par l’IA, considèrent les informations politiques provenant de sources d’IA avec le même scepticisme que les répondants plus âgés.
Un constat inquiétant montre que les gens se méfient généralement des sources d'information, qu'un article soit rédigé par une IA ou par un journaliste. Cela met en évidence une crise de confiance plus profonde, qui dépasse largement le débat sur l'IA.
La question centrale est : Les médias peuvent-ils regagner la confiance en étant plus transparents sur leur utilisation de l’IA, ou la transparence accroît-elle paradoxalement la méfiance ?
Perspectives internationales : leçons du monde
En Indonésie Cette étude offre aux rédactions un éclairage précieux sur les défis du journalisme semi-automatisé. Une analyse documentaire des cinq dernières années a révélé que si l'IA peut accroître l'efficacité, elle présente des déficits importants en termes de qualité du contenu. L'étude souligne la nécessité de former les journalistes à une utilisation responsable de l'IA.
Aux États-Unis Une étude approfondie menée par le Tow Center for Digital Journalism de l’Université Columbia, qui a interrogé plus de 130 journalistes de 35 entreprises de médias, montre que l’ouverture aux technologies de l’IA est motivée non seulement par les améliorations techniques, mais aussi par la pression du marché et l’espoir de nouveaux modèles commerciaux.
La leçon : L’adoption de l’IA n’est pas un phénomène purement technique, mais un phénomène profondément économique et culturel.
Perspectives d'avenir : la prochaine étape de l'évolution

Florian Schmidt, de l'équipe de vérification des faits de l'APA, prédit que les images et vidéos générées par l'IA seront à peine reconnaissables en tant que telles d'ici quelques mois. Le journaliste scientifique Ranga Yogeshwar prévient que « pour la première fois dans l'histoire de l'humanité, le langage n'est plus le monopole de l'homme ».
Cette évolution a des implications fondamentales pour la démocratie, l’économie et la jurisprudence. Si la communication authentique ne peut plus être distinguée de la communication synthétique, nous devons repenser l’ensemble de nos systèmes de recherche de la vérité.
Certains estiment que jusqu’à 90 % du contenu en ligne pourrait être généré de manière synthétique d’ici 2026. Dans un tel monde, le rôle du journalisme ne disparaîtra pas : il évoluera fondamentalement, devenant un conservateur de l’authenticité dans un océan de synthétique.
Recommandations d'action : Une boussole à travers la tempête
Des recommandations concrètes d’action peuvent être tirées de l’expérience internationale et des résultats scientifiques :
Pour les entreprises de médias :
- Mise en œuvre de normes de transparence strictes : Toute utilisation de l’IA doit être clairement signalée
- Investissement dans l’éducation : Formation continue des journalistes à l'utilisation de l'IA
- Cadres éthiques : Élaboration de lignes directrices internes pour l'utilisation de l'IA
- L'humain dans la boucle : Assurer le contrôle humain sur toutes les décisions éditoriales
Pour les régulateurs :
- Clarification de la loi sur l'IA : Clarification des termes « contrôle éditorial » et obligations de transparence
- Coordination internationale : Collaboration dans l'élaboration de normes mondiales
- Mécanismes d’application : Application effective des réglementations existantes
Pour la société :
- Éducation aux médias : Formation à la reconnaissance du contenu généré par l'IA
- Conscience critique : Interroger les sources d'information
- Soutenir les médias de haute qualité : Des décisions de consommation conscientes
Épilogue : Le moment de la décision
Nous sommes à un tournant historique. La prolongation de la période de mise en œuvre de la loi européenne sur l'IA jusqu'en 2027 pourrait s'avérer problématique, car les dommages causés par une utilisation non réglementée de l'IA pourraient devenir irréversibles.
L’avenir du journalisme ne sera pas déterminé par l’utilisation de l’IA, mais plutôt par la manière responsable et éthique dont cette intégration sera réalisée. L’élaboration de lignes directrices éthiques solides, la formation continue des professionnels des médias et une sensibilisation accrue du public sont essentielles pour maintenir la confiance du public et garantir la fonction démocratique du journalisme.
Vincent Berthier de Reporters sans frontières résume la situation : Les deepfakes sont une « arme contre le journalisme » car ils sapent la confiance dans les médias et exploitent la fiabilité de ces derniers à des fins de désinformation.
L'ironie de l'histoire : une technologie qui promettait de nous apporter un savoir infini pourrait bien annoncer la fin de la vérité. Il nous appartient à tous – journalistes, technologues, régulateurs et citoyens – de veiller à ce que cela n'arrive pas.
La bataille pour l'avenir de la vérité a commencé. De quel côté êtes-vous ?
Cet article s'appuie sur une analyse complète des études universitaires actuelles, des rapports sectoriels et des approches réglementaires internationales. Toutes les sources ont été vérifiées et mises à jour en fonction des évolutions actuelles.
Ressources et liens supplémentaires
Règlement européen :
- Loi européenne sur l'IA – Règlement officiel
- Implications de la loi sur l'IA pour les médias – Panel AlgoSoc
- Dispositions relatives à la transparence dans la loi sur l'IA – Internet Policy Review
Normes internationales :
- Charte de Paris sur l'IA et le journalisme – Reporters sans frontières
- Lignes directrices pour une mise en œuvre responsable de l'IA – Conseil de l'Europe
Problème de deepfake :
- Les deepfakes, une arme contre le journalisme – Voice of America
- Incidents de deepfakes impliquant des célébrités – Institut Poynter
Paysage médiatique allemand :
- Intégration de l'IA dans les médias allemands – WAN-IFRA
- Conseil de presse allemand sur l'IA – Newsroom.at
Études de cas internationales :
- Expérience d'IA sur une station de radio polonaise – CNN Business
- Adoption de l'IA dans les rédactions américaines – Nieman Lab