Articoli dell'IA senza appeal
Di Federico Boffa
L’intelligenza artificiale sta entrando rapidamente nella nostra vita quotidiana. In molti la usiamo per tradurre, per farci venire in mente idee per un viaggio, per riassumere documenti, per avere consigli su dove andare a cena. L’IA è entrata anche nelle redazioni giornalistiche e in alcuni casi è diventata autrice, o per lo meno co-autrice, di diversi articoli. In alcuni casi i lettori sono stati resi consapevoli, e la sua introduzione è diventata oggetto di un vero e proprio esperimento. In altri, invece, si è trattato di un ingresso surrettizio, del quale i lettori sono stati tenuti all’oscuro.
In entrambi i casi, si tratta di un problema, anche se con diversi livelli di gravità. L’utilizzo nascosto dell’IA non rispetta l’esigenza basilare dei lettori di conoscere la fonte dell’articolo. Si tratta di un’esigenza abbondantemente suffragata dai dati: non solo i lettori vogliono in larga maggioranza (il 75%, secondo uno studio riferito agli Stati Uniti effettuato da Baringa Management Consulting) sapere se gli articoli sono generati dall’IA. Una maggioranza netta (due terzi secondo lo studio) non apprezza articoli interamente scritti dall’AI mentre più della metà considera un aspetto critico anche l’utilizzo dell’IA come strumento di aiuto al giornalista nella fase di stesura dell’articolo. Si potrebbe pensare che chiarire l’attribuzione all’IA non serva perché i lettori la riconoscono. In realtà non è così, perché diversi studi rivelano che, di fatto, siamo sostanzialmente incapaci di distinguere se una notizia è scritta dall’IA o da un giornalista in carne e ossa.
Anche quando i lettori sono informati, la delega di un articolo all’IA è comunque problematica. L’IA, almeno per come è concepita oggi, è infatti brava a rielaborare e impacchettare le informazioni, ma non è capace a rielaborare criticamente l’evidenza. Utilizzando strumenti previsionali di tipo statistico, non ha, per sua natura, attitudine all’innovazione e alla rielaborazione critica. Molto probabilmente, se nel Quattrocento avessimo avuto Chat GPT e le avessimo chiesto se fosse la terra a girare intorno al sole o viceversa, ci avrebbe probabilmente risposto che è il Sole a girare attorno alla terra, sulla base del pensiero prevalente dell’epoca. Così, nel giornalismo, l’uso dell’IA ci potrebbe portare a una omologazione dei contenuti, con un’uniformità che appiattisce l’informazione, riducendone il livello di approfondimento e l’apporto critico. Ciò produrrebbe rischi evidenti, fra l’altro, anche per la tenuta del sistema democratico.
In questo contesto, il mese scorso si è tenuta all’Università di Bolzano la presentazione di una Carta sull’uso responsabile dell’IA, nata da una collaborazione fra Sindacato dei Giornalisti e Università di Bolzano e redatta da un gruppo di esperti di diverse discipline, tra cui l’autore di questo articolo, provenienti dal mondo giornalistico, accademico e professionale. Durante l’incontro, è emerso, fra i tanti, lo spunto, tutto sommato ottimista, del collega ingegnere Marco Montali, che ritiene che l’impatto dell’IA sul mercato del lavoro avrà due facce: positivo per i più competenti, che la utilizzeranno per aumentare la loro produttività, negativo per i meno competenti, che da essa verranno sostituiti. Nel settore dell’informazione, questo dualismo potrà essere ancora più marcato che in altri campi. La formazione diventa così ancora più cruciale per i giornalisti e per i comunicatori del futuro. Se il mondo dell’informazione vincerà questa sfida, probabilmente gli storici potranno dare un giudizio positivo sull’IA.
Questo editoriale è stato pubblicato dal quotidiano "Alto Adige".
Persone nell’articolo: Marco Montali