"L’uomo del terzo millennio è indispensabile?" e l'IA è pericolosa? La riflessione dopo le parole di Geoffrey Hinton.
L’uomo del terzo millennio è indispensabile? Chiediamocelo perché è questa la domanda alla base del contrordine compagni di Geoffrey Hinton, padre dell’intelligenza artificiale, che si è dimesso dalla cabina di comando di Google, la PlayStation del mondo.
Lui sostiene che non tanto l’idea di IA, e qui si ritorna all’ontologia della scienza, ma la sua applicazione può essere pericolosa per l’umanità. Ha avuto una crisi di coscienza Hinton, come la ebbe Ettore Majorana, il Newton di via Panisperna, che forse scomparve intuendo la devastante pericolosità degli studi atomici. La scienza in sé non è pericolosa, il suo uso sì. E chi può regolamentare l’uso di un sistema che auto-apprende e può difendersi dai tentativi di limitazioni? La fragile politica in un mondo in cui le democrazie sono fragili e le autarchie forti?
Ci saranno IA che potranno fare i medici, altre che faranno gli avvocati o i giudici, sempre in arretrato a scrivere sentenze, altre già fanno finanza o amministrazione, visto che le scelte sempre più spesso sono definite da algoritmi. Rischiano di meno le professioni manuali, a parte gli chef che possono essere sostituiti da Bimbi evoluti. In fondo l’intelligenza artificiale potrebbe sostituire molte professioni intellettuali, perché più upgradabili. Chi ha la terza media e la quinta elementare, è il paradosso, rischia meno. E quando la Meloni, o chi dopo di lei, si sarà stufata di ministri inadeguati potrebbe cooptare dei cloni artificiali molto più performanti. E se decidessero pure le scelte militari? O di intelligence come in Spectre?
Ci ricordiamo tutti benissimo il computer di bordo, vero protagonista di “2001, Odissea dello spazio” di Kubrick. Torneremo ai primati con la clava immortalati nel film con Beethoven in sottofondo?
Così è se vi pare.