Intelligenza artificiale, i tanti interrogativi della nuova frontiera tecnologica - QdS

Intelligenza artificiale, i tanti interrogativi della nuova frontiera tecnologica

redazione

Intelligenza artificiale, i tanti interrogativi della nuova frontiera tecnologica

Roberto Greco  |
martedì 20 Giugno 2023

Una grande opportunità per automatizzare i processi ripetitivi, consentendo agli esseri umani di concentrarsi su compiti più creativi, ma troppe insidie e già l’Ue ha messo a punto un regolamento

Parlando d’intelligenza artificiale – l’Ai – è impossibile non ricordare la preveggenza di Isac Asimov, Arthur C. Clarke, Stanley Kubrik, Ridley Scott e altri che hanno portato, nelle pagine dei libri e sui grandi schermi, narrazioni futuribili che fanno parte del nostro immaginario collettivo. Hal9000, il supercomputer di bordo della nave spaziale Discovery, o David, l’androide fanciullo in grado di provare sentimenti, hanno, forse, di nuovo turbato i nostri sonni quando il termine intelligenza artificiale è diventato di uso, e consumo, comune.

Si tratta sicuramente di una delle tecnologie più innovative degli ultimi anni, che ha rivoluzionato molte industrie e settori. In termini tecnici, l’Ai è un ramo dell’informatica che permette la programmazione e progettazione di sistemi sia hardware che software che permettono di dotare le macchine di determinate caratteristiche che vengono considerate tipicamente umane quali, ad esempio, le percezioni visive, spazio-temporali e decisionali. Si tratta cioè, non solo d’intelligenza intesa come capacità di calcolo o di conoscenza di dati astratti, ma anche e soprattutto di tutte quelle differenti forme d’intelligenza che sono riconosciute dalla teoria di Gardner, e che vanno dall’intelligenza spaziale a quella sociale, da quella cinestetica a quella introspettiva. Il suo funzionamento si basa su algoritmi e tecniche di apprendimento automatico che le permettono di analizzare i dati e prendere decisioni intelligenti senza l’intervento umano.

L’AI è abbondantemente utilizzata anche nel quotidiano

Molti credono che l’uso di sistemi intelligenti sia relegato a particolari élite informatiche senza pensare che, invece, l’AI è abbondantemente utilizzata anche nel quotidiano. Ad esempio, i vari strumenti di riconoscimento vocale che sono regolarmente utilizzati, dagli smartphone ai sistemi di sicurezza, si basano su algoritmi tipici dell’AI, in particolare quelli relativi all’apprendimento automatico, così come l’analisi degli interessi degli utenti dei social finalizzate a proposte personalizzate. I campi di applicazione sono oramai molteplici, dalla medicina alla logistica, dall’industria automobilistica alla finanza. Nel settore medicale, ad esempio, l’ AI può essere utilizzata per analizzare grandi quantità di dati di pazienti al fine di supportare la diagnostica riguardante malattie e prevedere risultati di trattamento. Nell’industria automobilistica, invece, è utilizzata per sviluppare veicoli autonomi che possono guidare in modo sicuro e intelligente.

Si tratta però di una tecnologia che non è priva di sfide e preoccupazioni. La principale di queste riguarda il rischio di sostituzione dell’uomo con la macchina non solo nelle fasi esecutive ma, e soprattutto, decisionali. Si teme, inoltre, che il massiccio utilizzo d’AI nei cicli produttivi possa portare alla perdita di posti di lavoro e alla sostituzione degli esseri umani con sistemi automatizzati, cosa che in realtà è già realtà nelle grosse catene di montaggio che oggi lavorano con l’uomo che si occupa della supervisione e non delle fasi esecutive. Non secondari sono gli aspetti etici. Risulta evidente che gli algoritmi di apprendimento automatico possono essere influenzati da pregiudizi inconsci insiti nei dati di addestramento, il che potrebbe portare a decisioni discriminatorie e creare disuguaglianze. L’AI, tuttavia, rappresenta una grande opportunità perché può portare all’automazione di processi ripetitivi, consentendo agli esseri umani di concentrarsi su compiti più creativi e di alto livello.

Per garantire che l’AI sia utilizzata in modo responsabile ed equo, è fondamentale che i responsabili delle decisioni lavorino insieme ai professionisti dell’AI e alla società civile al fine di sviluppare norme etiche e regolamentari per il suo uso. Soprattutto nell’ultimo periodo, il problema della mancanza di una legislazione che ne normi utilizzo e diffusione, è stato oggetto di alcune polemiche scaturite da una serie di eventi che hanno evidenziato il problema. Nelle scorse settimane la cronaca ci ha raccontato che, negli Stati Uniti, una donna di 36 anni ha “generato” e “sposato” il marito ideale e che un test sperimentale ha evidenziato come un drone guidato da un algoritmo programmato da un’AI, per distruggere un obiettivo potrebbe ribellarsi agli ordini di un operatore ed eliminarlo, pur di completare la missione iniziale.

Sempre negli Stati Uniti degno di nota è anche il “Latest Defence Intelligence” del 12/9/2022. Prevede che l’AI muterà profondamente le caratteristiche, ma non la natura dei conflitti armati fino a che, verso il 2070, potrebbero apparire macchine quasi completamente autonome dagli operatori, ponendo nuovi problemi etici e di comando e controllo e imponendo nuovi rischi. L’impatto dell’AI è molto più ampio di quello dei cosiddetti “killer Robots” perché investe l’essenza della condotta strategica e tattica delle operazioni militari, soprattutto nel campo delle informazioni. Consente di effettuare previsioni non solo sulle possibilità, ma anche sulle intenzioni dell’avversario. Agisce anche nel campo della propaganda e della disinformazione con l’ineguagliata capacità di analisi dei Big Data e di condizionamento delle opinioni pubbliche, come messo in rilievo dall’importanza che ha avuto Internet nelle primavere arabe.

In Italia, invece, la Polizia di Stato ha implementato il progetto “Giove”, primo sistema di “polizia predittiva” basato sull’AI destinato alle questure di tutta Italia per “prevenire e reprimere” i reati a maggior impatto sociale. Nei giorni scorsi Paul McCartney ha dichiarato di aver impiegato l’AI per contribuire alla creazione di quello che definisce “l’ultimo disco dei Beatles”, spiegando che la tecnologia di “machine learning” è stata utilizzata per estrarre la voce di John Lennon da un vecchio demo, in modo da poter completare la canzone.

La cosidetta AI generativa

Le maggiori polemiche, però, si sono scatenate nei confronti della cosiddetta AI generativa, quella basata sui chatbot. Si tratta di un software progettato per simulare una conversazione con un essere umano generando un testo o creare immagini. Anche in questo caso, le problematiche di analisi del fenomeno vengono dal lontano, esattamente dal 1950 quando Alan Turing pubblicò un articolo dal titolo “Computing Machinery and Intelligence”, in cui propose un criterio che oggi è definito “test di Turing”, in grado di determinare se una macchina è in grado di pensare o meno. Per soddisfare questo criterio il software deve fingere di essere umano affinché, in una conversazione in tempo reale, l’interlocutore non sia in grado di distinguere, basandosi solo sul contenuto della conversazione, se stia conversando con un programma o con un essere umano.

Nell’autunno del 2022, la società OpenAI ha lanciato il suo chatbot ChatGPT, oggi basato sul modello GPT-4 dell’azienda. ChatGPT era uno dei chatbot più avanzati al momento del lancio ed è considerato una pietra miliare nello sviluppo dell’AI conversazionale, quindi di tipo generativo. Il modello, addestrato sulla base dei cosiddetti Big Data, ha come background conoscitivo enormi quantità di conversazioni umane e può quindi comunicare con gli utenti in modo naturale ed umano. Oggi ChatGPT è utilizzato per scopi di assistenza clienti proprio perché è in grado di rispondere a domande su una vasta gamma di argomenti.

Perché alcune persone sono contrarie a ChatGPT? La risposta di ChatGPT

A questo proposito QdS ha posto una domanda a ChatGPT: perché molte persone sono contrarie all’AI? Questa la risposta ottenuta. “Ci sono diverse ragioni per cui alcune persone sono contrarie all’AI. Alcune problematiche comuni riguardano la sicurezza, la privacy, la mancanza di controllo umano sulle decisioni prese dalle macchine, la perdita di posti di lavoro e l’impatto sull’etica e i valori umani. Tuttavia, molte di queste preoccupazioni sono in gran parte basate su miti e incomprensioni. Gli sviluppatori dell’AI stanno lavorando duramente per affrontare queste difficoltà e creare un futuro in cui la tecnologia lavori per il bene dell’umanità”.

Non si può, ce lo ricorda proprio ChatGPT, dimenticare l’impatto, con saldo negativo, sui posti di lavoro e l’eliminazione di competenze professionali basse e intermedie in molti ambiti anche sulla base delle proiezioni del “World Economic Forum” in quanto rivelano che fino a un quarto dei posti di lavoro, circa il 23%, cambierà nei prossimi cinque anni, con la creazione a livello globale di 69 milioni di nuovi posti di lavoro e l’eliminazione di 83 milioni.

Molte voci si sono alzate per sollecitare una normativa che ne permettesse usi e in grado di combatterne gli abusi. A tal proposito l’Ue ha messo a punto il “regolamento europeo sull’intelligenza artificiale”, noto come AI Act, che entrerà in vigore nel 2023. La struttura complessiva della normativa applicabile uniformemente in tutti i Paesi dell’UE è oramai definita e prevede che, in caso di violazioni, le autorità preposte potranno comminare sanzioni fino a 30mln di euro o 6% del fatturato mondiale annuo. Tale normativa istituisce un quadro giuridico uniforme volto a regolare lo sviluppo, la commercializzazione e l’uso dei sistemi d’AI in conformità con i valori e i diritti costituzionali dell’Ue.

Tag:

Articoli correlati

0 commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Commenta

Ediservice s.r.l. 95126 Catania - Via Principe Nicola, 22

P.IVA: 01153210875 - Cciaa Catania n. 01153210875


SERVIZIO ABBONAMENTI:
servizioabbonamenti@quotidianodisicilia.it
Tel. 095/372217

DIREZIONE VENDITE - Pubblicità locale, regionale e nazionale:
direzionevendite@quotidianodisicilia.it
Tel. 095/388268-095/383691 - Fax 095/7221147

AMMINISTRAZIONE, CLIENTI E FORNITORI
amministrazione@quotidianodisicilia.it
PEC: ediservicesrl@legalmail.it
Tel. 095/7222550- Fax 095/7374001
Change privacy settings
Quotidiano di Sicilia usufruisce dei contributi di cui al D.lgs n. 70/2017