OpenAI, Altman: "La regolamentazione dell'intelligenza artificiale è essenziale"
(Teleborsa) - Sull'intelligenza artificiale servono più regole perché "i rischi dell'intelligenza artificiale sono potenzialmente pericolosi come le armi nucleari". È il messaggio che Sam Altman, l'amministratore delegato di OpenAI, la società a cui fa capo ChatGPT, ha lanciato al Senato americano. "La regolamentazione dell'intelligenza artificiale è essenziale" ha detto Altman sottolineando la necessità di regole che dovranno consentire alle aziende di essere flessibili e adattarsi ai nuovi sviluppi tecnologici. Altman si è detto disponibile ad aiutare nella stesura di norme che garantiscano un equilibrio fra la sicurezza e l'accesso ai benefici della tecnologia.
"Ritengo che ci sia bisogno di nuove regole, di linee guida. Possiamo e dobbiamo lavorare insieme per identificare e gestire i potenziali rischi in modo che tutti possano godere degli enormi benefici che la nuova tecnologia offre" ha spiegato Altman ai senatori senza nascondere i suoi timori. Fra questi il possibile uso dell'intelligenza artificiale per interferire sulle elezioni. "L'IA – ha detto Altman –deve essere sviluppata su valori democratici, non è un social media e ha bisogno di un risposta diversa".
"La mia maggiore paura è che possa creare significativi danni" ha sottolineato Altman osservando come la tecnologia sia "ancora nelle fasi iniziali e possa ancora commettere degli errori". Da qui l'invito ai senatori a valutare la possibile concessione di licenze per lo sviluppo di modelli di intelligenza artificiale, senza però soffocare la crescita delle piccole start up del settore. "La pressione regolamentare dovrebbe essere su di noi, su Google e sui big – dice Altman alla sua prima apparizione a Capitol Hill –. Se questa tecnologia va male, può andare molto male. E noi vogliamo farci sentire su questo. Vogliamo lavorare con il governo per prevenire che ciò accada".
L'audizione arriva mentre Microsoft, il colosso che più ha investito in OpenAI, ha notato – secondo il report dei suoi ricercatori "Sparks of Artificial General Intelligence", pubblicato dal New York Times – come l'intelligenza artificiale sia in grado in alcuni casi di capire le cose come un essere umano.