Il rischio di creare una macchina delle fake. “Se si parte da dati falsi, si generano errori” - QdS

Il rischio di creare una macchina delle fake. “Se si parte da dati falsi, si generano errori”

redazione

Il rischio di creare una macchina delle fake. “Se si parte da dati falsi, si generano errori”

Roberto Greco  |
martedì 20 Giugno 2023

Nel dibattito sull’IA interviene Domenico Talia, ordinario di Ingegneria informatica all’Università della Calabria

In questi ultimi mesi si è scatenato un forte dibattito sull’utilizzo dei chatbot, software che simulano ed elaborano le conversazioni umane, scritte o parlate, consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale. Guidati da algoritmi d’IA, regole automatizzate, elaborazione in linguaggio naturale (NLP) e machine learning (ML), i chatbot elaborano i dati per fornire risposte a richieste di ogni tipo. Il QdS ha intervistato Domenico Talia, professore ordinario del dipartimento di Ingegneria Informatica, Modellistica, Elettronica e Sistemistica dell’Università della Calabria.

In questo momento si fa un po’ di confusione, quando si confonde l’intelligenza artificiale con una delle sue applicazioni, ChatGPT. Ci aiuta a fare chiarezza?
“L’intelligenza artificiale ha una storia abbastanza lunga. Il termine nasce verso la metà degli anni ’50 del secolo scorso. Negli ultimi 10-20 anni le applicazioni d’intelligenza artificiale sono state tantissime, si pensi solo al riconoscimento delle immagini, della voce e alla traduzione automatica, ad esempio. La discussione che anima il dibattito in questi ultimi periodi è legata a quella che si definisce intelligenza artificiale generativa, i chatbot, nello specifico ChatGPT, che hanno fatto sorgere il maggiore interesse perché si tratta di sistemi che sono in grado di creare testo, immagini e video”.

Oltre mille imprenditori ed esperti, tra questi Musk, Wozniak, Bengio e lei, hanno chiesto di fermare lo sviluppo del sistema per definire regole condivise e protocolli di sicurezza. Ritiene che si rischi una deriva non controllabile oppure che la maggior parte della popolazione non sia ancora pronta?
“Quell’appello non voleva mettere in stand-by lo sviluppo di questa tecnologia. Era orientato, nello specifico, all’intelligenza generativa e chiedeva di evitare di istruire nuovi sistemi sino a quando i sistemi attuali, quindi quelli basati sull’algoritmo GPT4, non fossero stati testati e validati in maniera sicura. L’appello voleva, soprattutto, far riflettere anche i governi e i parlamenti sulla necessità di regolamentare queste tecnologie che, in questo momento, sono assolutamente libere da qualsiasi regolamentazione”.

C’è forse un rischio di un’eccessiva democrazia dell’accesso all’intelligenza artificiale generativa che può causare problemi e quindi pericoli?
“In effetti questo è quanto è stato dimostrato da diversi casi accaduti nell’ultimo periodo. Lo sviluppo è stato molto veloce e la diffusione molto rapida e la gran parte delle persone non sono state educate all’utilizzo di questi sistemi e li utilizzano in maniera inconsapevole. Non sanno, ad esempio, che proprio questi sistemi generano a volte generano informazioni non vere, false o pseudo false. È delle scorse settimane il caso di un avvocato statunitense che si è fatto aiutare da ChatGPT per una difesa in tribunale e non si accorto, non avendo verificato il risultato, che il sistema ha generato una serie di riferimenti a casi precedenti falsi. Il problema, quindi, è che diverse persone utilizzano questi sistemi fidandosi ciecamente non capendo invece che, se si parte da dati falsi, o comunque errati, si generano informazioni sbagliate”.

Rischiamo che l’intelligenza artificiale diventi progettista e artefice del proprio sviluppo rischiando così di perderne il controllo?
“In effetti questo rischio ci può essere. Questi sistemi hanno una serie di caratteristiche molto particolari. Innanzitutto si alimentano di una grossa mole di dati, enormi rispetto a quanto assimilabile da un umano. Se queste informazioni provengano dal web si corre il rischio che vengano utilizzate anche informazioni non certe, non verificate. Al tempo stesso, nutrendosi anche di quanto è fornito dall’utente durante la fase d’interrogazione, ancora una volta si possono trovare ad acquisire informazioni non vere, non essendo in grado di distinguere il falso dal vero. Queste informazioni vengono utilizzate per produrre nuovi contenuti, in maniera molto veloce e acquisire nuove funzionalità e sempre più in grado di rispondere alla nostre domande, funzionalità che erano tipicamente umane e che oggi diventano della macchina. Siamo noi, in realtà, che li aiutiamo a diventare sempre più ‘capaci’. ChatGTP non capisce il significato dei testi che elabora, ma riesce a fornirci testi che per noi hanno significato. Le nostre conferme o i dati aggiuntivi che gli forniamo aiutano il sistema a evolversi”.

Ha messo in evidenza, tra i tanti, un pericolo, quello della scomposizione dei rapporti sociali tradizionali e ha fatto riferimento alla figura dello sciame digitale indicato da Han. Ce ne vuole parlare?
Il punto è che noi quotidianamente, sempre di più, interagiamo con le macchine più che con le persone. Sempre più spesso le relazioni con le persone sono mediate dalle macchine, si pensi ai social, ai software di messaggistica istantanea. Le macchine non sono neutre rispetto alle relazioni con le persone, condizionano il linguaggio utilizzato grazie all’uso d’icone, emoji, abbreviazioni forzose assolutamente atipiche nel linguaggio naturale. Questo determina nuove forme di relazioni tra le persone, relazioni condizionate ma che per noi diventano naturali. In realtà gli sviluppatori di questi sistemi stanno regolando le relazioni sociali permettendo una facile manipolazione degli utenti, creando informazioni realizzate ad hoc, determinando gli orientamenti tramite quanto è veicolato. Lo ‘sciame’ è governato attraverso questi dispositivi. In realtà i diversi social sono già intrisi di algoritmi di intelligenza artificiale che analizzano i comportamenti delle persone e determinano l’ordine delle notizie che devono vedere, e questa è una forma di manipolazione”.

Ci siamo concentrando, in questo periodo, sull’intelligenza artificiale generativa ma, in realtà, l’intelligenza artificiale ci mette a disposizione anche dei vantaggi, proprio grazie alla grossa mole di dati che è in grado di analizzare e gestire. Questa capacità può essere di supporto alla ricerca?
“Assolutamente. È chiaro che ci stiamo concentrando sui rischi derivanti da questa nuova tecnologia. Ma è indubbio che ci aiuterà a risolvere problemi. Pensiamo al settore medicale, il cosiddetto settore della “life science”. La sequenziazione del genoma, la scoperta di nuovi farmaci, l’analisi di grandi quantità di dati su determinate patologie è effettuata tramite l’analisi dei cosiddetti ‘big data’ con tecniche di apprendimento automatico. Tutte le scienze si stanno ristrutturando a partire da tecniche d’intelligenza artificiale. La stessa fisica utilizza oggi il ‘machine learning’ per studiare e analizzare l’universo. L’obiettivo è cercare che i benefici siano massimizzati e i rischi minimizzati”.

Tag:

Articoli correlati

0 commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Commenta

Ediservice s.r.l. 95126 Catania - Via Principe Nicola, 22

P.IVA: 01153210875 - Cciaa Catania n. 01153210875


SERVIZIO ABBONAMENTI:
servizioabbonamenti@quotidianodisicilia.it
Tel. 095/372217

DIREZIONE VENDITE - Pubblicità locale, regionale e nazionale:
direzionevendite@quotidianodisicilia.it
Tel. 095/388268-095/383691 - Fax 095/7221147

AMMINISTRAZIONE, CLIENTI E FORNITORI
amministrazione@quotidianodisicilia.it
PEC: ediservicesrl@legalmail.it
Tel. 095/7222550- Fax 095/7374001
Change privacy settings
Quotidiano di Sicilia usufruisce dei contributi di cui al D.lgs n. 70/2017