IA e informazione: tra promessa e responsabilità
By Marco Montali
IA e informazione: tra promessa e responsabilità
Come docente di informatica, mi capita spesso di percepire due atteggiamenti opposti nei confronti dell’intelligenza artificiale (IA): da un lato l’entusiasmo, talvolta ingenuo, per una tecnologia che sembra in grado di risolvere ogni problema; dall’altro la paura, quasi apocalittica, di macchine che prenderanno il sopravvento. La verità, come spesso accade, sta nel mezzo.
L’IA rappresenta senza dubbio una delle più grandi rivoluzioni tecnologiche del nostro tempo, paragonabile per portata all’invenzione della stampa o alla rivoluzione industriale. La sua forza sta nella capacità di elaborare enormi quantità di dati in tempi rapidissimi, riconoscere schemi nascosti, generare testi, immagini, musica, e persino supportare diagnosi mediche. Non si tratta solo di automatizzare compiti ripetitivi: l’IA promette di ampliare le nostre capacità cognitive, di renderci più veloci ed efficienti, di offrire strumenti a chi prima non aveva accesso a determinate competenze.
In università, la vediamo già all’opera nella ricerca scientifica, nell’analisi dei dati, nella traduzione automatica, fino al supporto alla didattica. Nel mondo dell’informazione, invece, il dibattito è ancora più urgente. Recentemente, sono intervenuto al convegno organizzato a Bolzano dall’Ordine dei Giornalisti e dalla FNSI, dal titolo “Il ruolo del giornalista e della formazione”. È stato in quell’occasione che è stata presentata la Carta di Bolzano su IA e informazione, un documento che intende tracciare principi condivisi e linee guida per un uso responsabile dell’intelligenza artificiale nel giornalismo. Una carta che richiama a un equilibrio: usare l’IA come strumento di supporto, senza rinunciare al cuore della professione, cioè la verifica delle fonti, la capacità critica, la responsabilità verso i lettori.
Accanto ai vantaggi, infatti, l’IA porta con sé rischi e zone d’ombra. Non è neutra: riflette i dati su cui è addestrata, con i loro pregiudizi e le loro distorsioni. Se i dati del passato sono discriminatori, anche i sistemi di IA rischiano di esserlo. Delegare troppo alle macchine può ridurre la nostra autonomia critica. È comodo chiedere a un algoritmo di scegliere la musica che ascoltiamo o il percorso più veloce da seguire; molto meno innocuo quando si tratta di decisioni sulla salute, sul credito bancario o, appunto, sulla selezione delle notizie che leggiamo ogni giorno.
Esistono poi i rischi legati alla trasparenza e alla responsabilità. Molti modelli di IA funzionano come “scatole nere”: sappiamo cosa producono, ma non sempre comprendiamo come arrivino a quel risultato. Questo rende difficile controllarli, correggere eventuali errori o attribuire responsabilità in caso di danni. Se un algoritmo suggerisce notizie false o distorte, chi ne risponde? Il giornalista che lo usa, l’editore, o lo sviluppatore del software?
Non bisogna però farsi prendere dal panico. La storia dell’informatica ci insegna che le aspettative sull’IA sono sempre state altalenanti: grandi entusiasmi seguiti da fasi di delusione, i cosiddetti “inverni dell’IA”. Quello che oggi appare come un progresso inarrestabile potrebbe rallentare o cambiare forma. Ciò che conta è sviluppare un rapporto equilibrato con questa tecnologia: non subirla, ma comprenderla, governarla e renderla strumento di crescita collettiva.
Per riuscirci servono alcune condizioni. La prima è la conoscenza: non possiamo delegare all’IA senza capirne i meccanismi di base. La seconda è l’etica: ogni applicazione deve essere valutata rispetto ai suoi effetti sociali, economici e culturali. La terza è la regolamentazione: servono norme chiare e condivise che stabiliscano limiti, diritti e doveri nell’uso di queste tecnologie. Infine, occorre una visione che formi studenti e una cittadinanza capaci di usare l’IA con spirito critico, non solo come consumatori passivi ma come attori consapevoli.
L’IA non ci sostituirà dall’oggi al domani, ma cambierà profondamente il nostro modo di lavorare, comunicare, insegnare e persino pensare. Il vero vantaggio non sarà avere macchine più intelligenti di noi, ma saperle usare per migliorare la nostra intelligenza collettiva. Il punto oscuro, invece, sarebbe arrenderci a un’idea di inevitabilità tecnologica, lasciando che siano gli algoritmi a scegliere per noi.
La Carta di Bolzano è un passo importante in questa direzione: riconosce il ruolo centrale dei giornalisti e richiama tutti – accademici, professionisti dell’informazione, cittadini – alla responsabilità condivisa. Perché il futuro dell’IA non è scritto nei codici sorgente, ma nelle decisioni che prenderemo come società. Tocca a noi renderla alleata, non padrona.