L’intelligenza artificiale sta radicalmente trasformando il panorama dell’informazione e il lavoro del giornalista. Cosa ci aspetta?
L’intelligenza artificiale, nonostante si trovi ancora in uno stadio embrionale, sta cambiando il mondo dell’informazione in modo rapido. A sostenerlo è Giuseppe Ursino, CEO di Jo Group, cluster di aziende con core business in digital transformation e consulenza dei fondi europei, in una tavola rotonda tenutasi al Centro Uffici di Corso Italia a Catania. In un’intervista a QdS.it, spiega come funziona un algoritmo, i rischi e le opportunità a esso connessi, le possibilità che l’essere umano ha di approcciarsi a tale innovazione.
I.A.: il dibattito tra gli addetti ai lavori a Catania
“Come cambia l’informazione a Catania: muore la carta stampata e arriva l’intelligenza artificiale”, questo il titolo del dibattito aperto a tutti i partecipanti – giornalisti, editori e non solo – che ha visto la contrapposizione di due tesi alternative: quella di che sostiene la necessità di mettere al bando l’intelligenza artificiale, promuovendo una visione “vecchio stampo” del giornalismo, che faccia a meno dell’algoritmo e si basi soltanto sulla verifica diretta dei fatti narrati, e quella di chi crede che la trasformazione tecnologica vada “piegata” alle esigenze del buon giornalismo, senza criminalizzare tout court i giornali online.
Ma Giuseppe Ursino e Simone Palazzo, ricercatore di Sistemi di elaborazione delle informazioni all’Università di Catania, mettono in guardia: “L’intelligenza artificiale, così come ogni innovazione tecnologica, non può essere fermata e le sue conseguenze sono oggi sconosciute. Probabilmente, non sarà l’intelligenza artificiale a togliere lavoro ai giornalisti, ma i giornalisti che la utilizzeranno saranno in grado di lavorare meglio di altri”.
Intelligenza artificiale: a che punto siamo?
Sembra ormai lontano il 1956 quando, nel corso della Conferenza di Dartmouth, venne coniato ufficialmente il termine “intelligenza artificiale” dopo svariati tentativi di simulare l’intelligenza umana attraverso le macchine. L’evento, proposto da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, introdusse tutti quei temi sui quali, ancora oggi, si confrontano gli studiosi di hard e soft science.
L’intelligenza artificiale è da anni onnipresente nella nostra vita quotidiana, diventando argomento popolare solo a seguito del lancio di Chat Gpt. Ma fino a che punto i risultati delle ricerche supportate dall’intelligenza artificiale sono affidabili?
“Io mi occupo di machine learning e di programmazione – fa sapere Simone Palazzo -. Per dirla in modo semplice, prima si utilizzavano delle macchine che restituivano dei risultati sulla base di dati inseriti dall’uomo. Oggi, invece, i dati vengono calcolati automaticamente dalla macchina dalle fonti più diverse, in tutto il mondo. La macchina poi ‘impara’, ovvero aggiusta le sue risposte, sulla base dei dati acquisiti successivamente”.
Il cambiamento è avvenuto in modo rapido. “A proposito di analisi del linguaggio, fino a 3-4 anni fa sostenevo che sarebbe passato molto più tempo per arrivare al punto in cui invece, sorprendentemente, siamo oggi – continua -. Chat Gpt è nota dal 2017 e incrocia un’enorme quantità di dati disponibili. Se la versione gratuita non è aggiornata con le ultime informazioni, le versioni a pagamento lo sono in tempo reale. Tuttavia le risposte mancano di oggettività, non sono deterministiche, ma variabili. Non possiamo affidarci ciecamente a macchine che non hanno capacità di ragionamento, ma possiamo utilizzarle per semplificare alcune attività”.
I rischi nel mondo dell’informazione
Mancanza di oggettività, incapacità di ragionamento e di valutazione di cosa sia “bene” e “male”, distanza tra il contenuto e la sua fonte (non sempre verificabile), rischio di dipendenza dal sistema artificiale per i lettori e per gli attori dell’informazione, mettono in pericolo da una parte i giornali – con i loro giornalisti ed editori – dall’altra i cittadini, possibili destinatari di informazioni distorte che potrebbero non essere più in grado di discernere.
L’ipotesi infausta di Giuseppe Ursino è che le testate locali stiano andando incontro alla morte: “Potrebbe, almeno ipoteticamente, arrivare qualcuno proveniente dall’altra parte del mondo a gestire l’informazione locale, utilizzando l’intelligenza artificiale, settata con le informazioni del posto – conclude -. A rischio, dunque, c’è la democrazia stessa, con la concreta possibilità di un’informazione interamente controllata dalle grandi potenze economiche e politiche”.
Come impedire che tutto questo accada? Si cerca ancora una soluzione concreta, nonostante nel corso degli ultimi anni tanti giornalisti abbiano provato – con le più sofisticate tecniche SEO – di “piegare” l’algoritmo a loro vantaggio, senza penalizzare la qualità dei loro servizi, ma tentando di garantir loro maggiore visibilità. Intanto Google ha da poco lanciato il chatbot Bard, la sua intelligenza artificiale messa a disposizione gratuitamente per tutti, in 125 Paesi diversi, in grado di generare testi aggiornati con informazioni quotidiane.