Un viaggio attraverso i campi di battaglia etici di un settore in transizione
Vincent Berthier di Reporter Senza Frontiere la definisce "un'arma contro il giornalismo". Anderson Cooper, Gayle King e Clarissa Ward ne sono già state vittime. I deepfake trasformano volti affidabili in strumenti di disinformazione. Nel frattempo, le redazioni, dalla Silicon Valley a Bruxelles, si battono per il futuro di una professione che è più antica di qualsiasi tecnologia e più fragile di quanto avessimo mai immaginato.
La macchina parla con la tua voce

Era un video che nessuno avrebbe dovuto vedere. Gayle King, la stimata conduttrice di CBS Mornings, ha parlato direttamente alla telecamera del suo presunto segreto per perdere peso: "Ragazze, sinceramente, non mi aspettavo che la mia perdita di peso suscitasse così tante domande. I miei messaggi diretti su Instagram sono inondati". La sua voce suonava familiare, il suo viso si muoveva naturalmente – solo che le parole non corrispondevano ai movimenti delle sue labbra. E Gayle King non ha mai registrato il video per il prodotto dietetico "Artipet".
"Ho pubblicato un video per promuovere il mio programma radiofonico il 31 agosto, e hanno manipolato la mia voce e il video per far sembrare che lo stessi promuovendo io", ha scritto King su Instagram. "Non ho mai sentito parlare di questo prodotto né l'ho mai usato! Per favore, non fatevi ingannare da questi video di intelligenza artificiale..."
L'esperienza di King non è più un caso isolato. I deepfake hanno preso di mira giornalisti di testate come CNN, CBS, BBC e VOA, impersonando giornalisti di spicco come Anderson Cooper, Clarissa Ward e Gayle King. Quella che un tempo era fantascienza è ora realtà accessibile digitalmente: l'intelligenza artificiale non solo può scrivere testi, ma anche imitare volti e voci umane in modo così perfetto che persino gli esperti hanno difficoltà a individuare il falso.
Le statistiche spaventose dietro tutto questo: Quest'anno sono stati pubblicati online il triplo dei deepfake video di tutti i tipi e l'otto volte superiore dei deepfake vocali rispetto allo stesso periodo del 2022, secondo quanto riportato da DeepMedia, un'azienda che si occupa di strumenti di rilevamento.
Ma la rivoluzione dell'intelligenza artificiale nel giornalismo non si limita al torbido mondo dei deepfake. Permea ogni aspetto della produzione giornalistica: dalla generazione automatizzata di articoli alla cura personalizzata dei contenuti, dal fact-checking in tempo reale alla segmentazione precisa del pubblico. La domanda non è più se l'intelligenza artificiale trasformerà il giornalismo: lo sta già facendo. La domanda cruciale è: saremo in grado di controllare questa trasformazione o sarà lei a controllare noi?
L'Europa sta costruendo i confini del futuro dell'intelligenza artificiale
Mentre la Silicon Valley sviluppa sistemi di intelligenza artificiale alla velocità del capitale di rischio, l'Europa ha adottato un approccio diverso: la regolamentazione prima dell'innovazione. Il Regolamento UE sull'intelligenza artificiale (AI Act) è il primo quadro giuridico completo al mondo per l'intelligenza artificiale, che entrerà in vigore il 1° agosto 2024. Ma per il settore dei media, questa conquista pionieristica nasconde insidie inaspettate.
La professoressa Natali Helberger critica l'AI Act perché offre "in generale meno garanzie legali e meno requisiti legali per le organizzazioni dei media", una lacuna notevole in una normativa che mira a promuovere un'intelligenza artificiale affidabile.
Il problema del controllo editoriale sta diventando la questione interpretativa centrale del nostro tempo: l'articolo 50 del Regolamento sull'IA prevede che i testi generati o manipolati dall'IA, pubblicati a scopo di informazione pubblica su questioni di interesse pubblico, debbano indicare che il contenuto è stato generato o manipolato artificialmente. Ma cosa si intende esattamente per "controllo editoriale"? E quando i consumatori devono essere informati esplicitamente del coinvolgimento dell'IA?
Le risposte a queste domande vanno oltre i cavilli accademici. Definiscono nientemeno che il futuro della verità nelle società democratiche.
Agnes Stenbom, esperta del settore, avverte: le organizzazioni dei media non dovrebbero affidarsi completamente all'AI Act, soprattutto perché è ancora in fase di sviluppo, ma piuttosto cercare il dialogo e la cooperazione tra loro per trovare soluzioni comuni.
Gli algoritmi del bias

Dietro le promesse abbaglianti della rivoluzione dell'intelligenza artificiale si nasconde una cruda verità: gli algoritmi sono oggettivi tanto quanto lo sono le persone che li programmano e i dati con cui vengono addestrati. Pregiudizio – la distorsione sistematica – è lo spettro che infesta le redazioni editoriali d’Europa.
Una recente analisi di 14 pubblicazioni scientifiche ha individuato nei pregiudizi la preoccupazione etica più comune riguardo all'adozione di tecnologie di intelligenza artificiale generativa nelle organizzazioni mediatiche. Questi pregiudizi si manifestano in forme diverse, spesso subdole:
- Bias di selezione nella selezione degli argomenti delle notizie: Quali storie vengono classificate come “importanti” dagli algoritmi?
- Bias di conferma causato dai sistemi di raccomandazione algoritmica: I sistemi di intelligenza artificiale rafforzano le camere di risonanza esistenti?
- Distorsioni demografiche: Quali voci vengono ascoltate e quali ignorate?
Un esempio concreto tratto dalla pratica: Se un sistema di intelligenza artificiale è stato addestrato principalmente con testi di giornalisti maschi e bianchi provenienti da paesi occidentali, considererà questa prospettiva come "normale" e sistematicamente sottorappresenterà o interpreterà male altri punti di vista.
La popolazione tedesca è particolarmente scettica su questo aspetto. Uno studio rappresentativo dell'Artificial Intelligence Opinion Monitor (MeMo:KI) condotto su 1.035 partecipanti ha rilevato che l'uso dell'IA nelle redazioni è visto con grande critica. Gli intervistati vedono scarsi miglioramenti nella qualità del giornalismo grazie all'IA e la maggioranza è favorevole a una regolamentazione più rigorosa.
La Carta di Parigi: un manifesto per la sopravvivenza

Nel novembre 2023, 32 esperti provenienti da 20 paesi si sono riuniti a Parigi per creare ciò che molti consideravano impossibile: un consenso etico globale sull'intelligenza artificiale nel giornalismo. Presieduta dal premio Nobel per la pace e giornalista Maria Ressa, la commissione ha elaborato la Carta di Parigi sull'intelligenza artificiale e il giornalismo, il primo punto di riferimento etico internazionale del suo genere.
Maria Ressa avverte con urgenza: "L'intelligenza artificiale potrebbe fornire servizi straordinari all'umanità, ma ha chiaramente il potenziale per aumentare la manipolazione delle menti su una scala mai vista prima nella storia."
La carta stabilisce dieci principi fondamentali che dovrebbero fungere da bussola attraverso le tempeste etiche della rivoluzione dell'intelligenza artificiale:
- L’etica deve guidare le decisioni tecnologiche nei media
- Il processo decisionale umano deve rimanere al centro delle decisioni editoriali
- I media devono aiutare la società a distinguere tra contenuti autentici e sintetici
- I media devono partecipare alla governance globale dell’intelligenza artificiale
"In qualità di custodi essenziali del diritto all'informazione, i giornalisti, le testate giornalistiche e i gruppi di supporto ai giornalisti dovrebbero svolgere un ruolo attivo nella governance dei sistemi di intelligenza artificiale", afferma la carta.
Ma le belle parole da sole non bastano. La vera sfida sta nell'attuazione, e nel chiedersi se un settore già in lotta per la propria sopravvivenza economica possa raccogliere le risorse e la volontà di dare priorità agli standard etici rispetto agli incrementi di efficienza a breve termine.
I media tedeschi nell'esperimento dell'intelligenza artificiale
Mentre infuriano i dibattiti internazionali, le aziende mediatiche tedesche stanno già sperimentando il futuro. La casa editrice Spiegel è considerato un pioniere e utilizza l'intelligenza artificiale da anni in diverse applicazioni editoriali: dal doppiaggio e dalla trascrizione dei testi alla valutazione dei contributi degli utenti. Particolarmente innovativo è stato l'utilizzo di generatori di immagini come Midjourney per gli articoli di copertina di "The End of Truth", con la massima trasparenza verso gli utenti.
Reuters Germania ha adottato un approccio diverso: con "Fact Genie", ha sviluppato uno strumento interno che analizza i comunicati stampa in pochi secondi e suggerisce i titoli alla redazione. Sabine Wollrab, responsabile dell'ufficio Reuters per Germania, Austria e Svizzera, sottolinea tuttavia: "La fiducia è uno dei nostri punti di forza. Reuters è un marchio molto affidabile. E non vogliamo svenderlo per l'intelligenza artificiale".
La Frankfurter Allgemeine Zeitung mostra come può presentarsi l'integrazione selettiva dell'intelligenza artificiale: utilizza l'intelligenza artificiale specificatamente per l'ottimizzazione del business digitale, il doppiaggio, la trascrizione e l'archiviazione, ma esclude categoricamente i contributi originali con testo generato dall'intelligenza artificiale.
IL Rheinische Post: Un assistente supportato dall'intelligenza artificiale gestisce le chiamate dei clienti 24 ore su 24 e ha reso l'azienda uno degli operatori di call center più efficienti nel settore dei media, afferma Margret Seeger, direttrice dell'editoria digitale e responsabile dell'intelligenza artificiale presso il Rheinische Post Media Group.
Le allucinazioni delle macchine
Forse la caratteristica più inquietante dei moderni sistemi di intelligenza artificiale è la loro tendenza all'"allucinazione", ovvero la generazione di informazioni apparentemente plausibili ma di fatto errate. Questa tendenza mette in discussione principi giornalistici fondamentali come la veridicità e l'accuratezza.
Un esempio recente: A dicembre, la corrispondente della CNN Clarissa Ward è apparsa in televisione per 12 minuti per riferire di aver incontrato un prigioniero nella capitale siriana, Damasco, dopo la destituzione del dittatore Bashar al-Assad. L'uomo ha affermato di chiamarsi Adel Ghurbal, ma i fact-checking hanno stabilito che il suo vero nome era Salama Mohammad Salama, in realtà tenente dell'aeronautica militare di Assad.
Questo esempio dimostra che i confini tra errore umano e disinformazione delle macchine si stanno assottigliando. La sfida è aggravata dal fatto che la responsabilità per i contenuti difettosi generati dall'intelligenza artificiale rimane poco chiara sia dal punto di vista legale che etico.
A questo proposito, il Consiglio della Stampa Tedesco ha chiarito che il Codice della Stampa si applica senza restrizioni ai contenuti supportati dall'IA e che la responsabilità editoriale rimane in capo agli esseri umani. Ma cosa significa questo in pratica se un sistema di IA produce disinformazione che un redattore oberato di lavoro non riesce a individuare tempestivamente?
La lotta per la proprietà intellettuale
Dietro i dibattiti etici, infuria un'aspra guerra economica: la questione del copyright. Molti editori lamentano che i loro articoli siano stati utilizzati per addestrare modelli di intelligenza artificiale senza autorizzazione, sollevando questioni sia legali che etiche. Il NUJ (National Union of Journalists) ha dichiarato esplicitamente che i suoi membri non autorizzano l'uso delle loro opere protette da copyright per l'addestramento di intelligenza artificiale.
Felix Simon, ricercatore presso l'Oxford Internet Institute, ha individuato un "noto squilibrio di potere" tra editori di notizie e aziende tecnologiche, che viene aggravato dall'adozione dell'intelligenza artificiale. Le aziende mediatiche che producono contenuti da decenni si trovano ora nella posizione di vedere il loro lavoro utilizzato, senza alcun compenso, per addestrare sistemi che potrebbero potenzialmente renderli obsoleti.
È un paradosso di proporzioni kafkiane: l'industria che dovrebbe democratizzare l'informazione è minacciata dalla sua stessa produzione.
Lavori nell'era degli algoritmi

Le preoccupazioni relative all'occupazione non sono infondate. Un recente sondaggio tra i professionisti dei media ha rilevato che il 57,2% dei giornalisti teme che l'IA sostituirà più posti di lavoro nei prossimi anni. Già il 21% dei giornalisti intervistati dichiara di aver perso il lavoro a causa dell'implementazione dell'IA.
Un esempio scioccante dalla Polonia: La stazione radiofonica polacca OFF Radio Krakow suscitò scalpore a livello internazionale nell'ottobre 2024 quando licenziò circa una dozzina di giornalisti e li sostituì con presentatori generati dall'intelligenza artificiale. L'emittente ha addirittura trasmesso un'“intervista” con la defunta premio Nobel Wisława Szymborska, scomparsa nel 2012.
Mateusz Demski, un giornalista licenziato, ha lanciato una petizione contro la "sostituzione dei dipendenti con l'intelligenza artificiale". Oltre 23.000 persone hanno firmato la petizione. Dopo solo una settimana di intense proteste, l'emittente ha annullato l'"esperimento" previsto di tre mesi – un raro caso di opposizione pubblica che ha annullato l'implementazione di un'intelligenza artificiale.
Ma la paura va oltre le semplici preoccupazioni lavorative. Questo sviluppo va di pari passo con una preoccupazione più profonda per la perdita di identità umana e di autonomia nel giornalismo, espressa da oltre il 60% degli intervistati.
Cosa significa per una democrazia quando le voci che informano i suoi cittadini non sono più umane?
Fiducia pubblica: un contratto sociale infranto?
Il pubblico tedesco reagisce con marcato scetticismo alla rivoluzione dell'intelligenza artificiale nei media. Il Reuters Institute Digital News Report 2024 conferma questa tendenza: metà degli intervistati tedeschi si sente a disagio con le notizie generate prevalentemente dall'intelligenza artificiale.
Particolarmente degno di nota: Anche i giovani adulti, che in genere sono più aperti alle notizie generate dall'intelligenza artificiale, accolgono le informazioni politiche provenienti da fonti di intelligenza artificiale con lo stesso scetticismo degli intervistati più anziani.
Una scoperta preoccupante mostra che le persone generalmente diffidano delle fonti di informazione, indipendentemente dal fatto che un articolo sia stato scritto da un'IA o da un giornalista umano. Questo indica una crisi di fiducia più profonda che va ben oltre il dibattito sull'IA.
La domanda centrale è: I media possono riconquistare la fiducia diventando più trasparenti riguardo all'uso dell'intelligenza artificiale, oppure la trasparenza aumenta paradossalmente la sfiducia?
Prospettive internazionali: lezioni dal mondo
In Indonesia Offre alle redazioni preziose informazioni sulle sfide del giornalismo semi-automatico. Una revisione della letteratura degli ultimi cinque anni ha rilevato che, sebbene l'intelligenza artificiale possa aumentare l'efficienza, permangono carenze significative nella qualità dei contenuti. Lo studio sottolinea la necessità di formare i giornalisti all'uso responsabile dell'intelligenza artificiale.
Negli Stati Uniti Uno studio completo del Tow Center for Digital Journalism presso la Columbia University, che ha intervistato oltre 130 giornalisti di 35 aziende del settore media, dimostra che l'apertura alle tecnologie di intelligenza artificiale è determinata non solo dai miglioramenti tecnici, ma anche dalla pressione del mercato e dalla speranza di nuovi modelli di business.
La lezione: L'adozione dell'intelligenza artificiale non è un fenomeno puramente tecnico, ma profondamente economico e culturale.
Prospettive future: la prossima fase dell'evoluzione

Florian Schmidt del team di fact-checking dell'APA prevede che immagini e video generati dall'intelligenza artificiale saranno difficilmente riconoscibili come tali entro pochi mesi. Il giornalista scientifico Ranga Yogeshwar avverte che "per la prima volta nella storia umana, il linguaggio non è più un monopolio umano".
Questo sviluppo ha implicazioni fondamentali per la democrazia, l'economia e la giurisprudenza. Se non è più possibile distinguere la comunicazione autentica dalla comunicazione sintetica, dobbiamo ripensare tutti i nostri sistemi di ricerca della verità.
Alcuni stimano che entro il 2026 fino al 90% dei contenuti online potrebbe essere generato sinteticamente. In un mondo del genere, il ruolo del giornalismo non scomparirà, ma cambierà radicalmente, diventando un custode dell'autenticità in un oceano di contenuti sintetici.
Raccomandazioni per l'azione: una bussola nella tempesta
Raccomandazioni concrete per l’azione possono essere ricavate dall’esperienza internazionale e dai risultati scientifici:
Per le aziende mediatiche:
- Implementazione di rigorosi standard di trasparenza: Ogni utilizzo dell'IA dovrebbe essere chiaramente contrassegnato
- Investimenti nell'istruzione: Formazione continua dei giornalisti sull'uso dell'IA
- Quadri etici: Sviluppo di linee guida interne per l'uso dell'IA
- Human-in-the-Loop: Garantire il controllo umano su tutte le decisioni editoriali
Per gli enti regolatori:
- Chiarimenti sulla legge sull'intelligenza artificiale: Chiarimento dei termini “controllo editoriale” e obblighi di trasparenza
- Coordinamento internazionale: Collaborazione nello sviluppo di standard globali
- Meccanismi di applicazione: Applicazione efficace delle normative vigenti
Per la società:
- Educazione ai media: Formazione sul riconoscimento dei contenuti generati dall'intelligenza artificiale
- Consapevolezza critica: Mettere in discussione le fonti di informazione
- Supporto di media di alta qualità: decisioni consapevoli del consumatore
Epilogo: Il momento della decisione
Siamo a una svolta storica. Prorogare il periodo di attuazione della legge UE sull'intelligenza artificiale fino al 2027 potrebbe rivelarsi problematico, poiché i danni causati da un utilizzo non regolamentato dell'intelligenza artificiale potrebbero diventare irreversibili.
Il futuro del giornalismo non sarà determinato dall'utilizzo dell'intelligenza artificiale, ma piuttosto da quanto responsabile ed etica sarà questa integrazione. L'elaborazione di solide linee guida etiche, la formazione continua dei professionisti dei media e una maggiore consapevolezza dell'opinione pubblica sono essenziali per preservare la fiducia del pubblico e garantire la funzione democratica del giornalismo.
Vincent Berthier di Reporter Senza Frontiere lo ha riassunto così: I deepfake sono un'“arma contro il giornalismo” perché minano la fiducia nei media e sfruttano l'affidabilità dei media per scopi di disinformazione.
L'ironia della storia: una tecnologia che prometteva di fornirci una conoscenza infinita potrebbe annunciare la fine della verità. Sta a tutti noi – giornalisti, esperti di tecnologia, autorità di regolamentazione e cittadini – garantire che ciò non accada.
La battaglia per il futuro della verità è iniziata. Da che parte stai?
Questo articolo si basa su un'analisi completa di studi accademici, report di settore e approcci normativi internazionali. Tutte le fonti sono state attentamente verificate e allineate agli sviluppi più recenti.
Risorse e ulteriori link
Normativa europea:
- Legge UE sull'intelligenza artificiale – Regolamento ufficiale
- Implicazioni dell'AI Act per i media – AlgoSoc Panel
- Disposizioni sulla trasparenza nell'AI Act – Revisione della politica di Internet
Standard internazionali:
- Carta di Parigi sull'intelligenza artificiale e il giornalismo – Reporter senza frontiere
- Linee guida per l'implementazione responsabile dell'IA - Consiglio d'Europa
Problema Deepfake:
- I deepfake come arma contro il giornalismo – Voice of America
- Incidenti di celebrità con i deepfake – Poynter Institute
Panorama mediatico tedesco:
- Integrazione dell’intelligenza artificiale nei media tedeschi – WAN-IFRA
- Consiglio stampa tedesco sull'intelligenza artificiale – Newsroom.at
Casi di studio internazionali:
- Esperimento di intelligenza artificiale per una stazione radio polacca – CNN Business
- Adozione dell'intelligenza artificiale nelle redazioni statunitensi – Nieman Lab