kschwab26_NICOLAS MAETERLINCKBELGA MAGAFP via Getty Images_chatgpt Nicolas Maeterlinck/Belga Mag/AFP via Getty Images

La chiave per uno sviluppo responsabile dell'intelligenza artificiale

GINEVRA – Negli ultimi mesi, lo sviluppo dell’intelligenza artificiale (IA) ha registrato una netta accelerazione che ha visto sistemi di IA generativa come ChatGPT e Midjourney trasformare rapidamente un’ampia gamma di attività professionali e processi creativi. Ma la finestra di opportunità per orientare lo sviluppo di questa potente tecnologia verso un impiego che minimizzi i rischi e massimizzi i vantaggi sta per chiudersi.

Le capacità basate sull’intelligenza artificiale si collocano in un continuum evolutivo in cui i sistemi di IA generativa come GPT-4 (l’ultima versione di ChatGPT) appartengono alla fase più avanzata. Poiché appaiono come quelli più promettenti e possono nascondere le insidie più pericolose, tali sistemi meritano un’attenta analisi da parte di soggetti pubblici e privati.    

Sostanzialmente, tutti i progressi della tecnologia hanno avuto effetti sia positivi che negativi sulla società. Da un lato, hanno sostenuto la produttività economica e la crescita del reddito, aumentato l’accesso alle tecnologie dell’informazione e della comunicazione, e migliorato l’aspettativa di vita delle persone e il benessere in generale. Dall’altro, però, hanno prodotto una delocalizzazione dei lavoratori, una stagnazione dei salari, un aumento delle disuguaglianze e una crescente concentrazione di risorse nelle mani di singole persone e aziende.   

L’intelligenza artificiale non è diversa. I sistemi di IA generativa dischiudono una serie di  opportunità in aree quali la progettazione di prodotti, la creazione di contenuti, la ricerca farmaceutica e la sanità, l’istruzione personalizzata e l’ottimizzazione energetica. Allo stesso tempo, però, possono rivelarsi gravemente destabilizzanti, e persino dannosi, per le nostre economie e società.  

I rischi già collegati all’intelligenza artificiale avanzata, e quelli ragionevolmente prevedibili, sono considerevoli. Oltre a una diffusa riorganizzazione dei mercati del lavoro, i sistemi basati sugli LLM, cioè i modelli linguistici di grandi dimensioni, possono aumentare la diffusione della disinformazione e perpetuare dannosi pregiudizi. L’IA generativa minaccia inoltre di inasprire le disparità economiche e potrebbe arrivare addirittura a rappresentare un rischio esistenziale per il genere umano. 

Secondo alcuni, questo è un motivo per frenare la ricerca sull’intelligenza artificiale. Il mese scorso, più di mille esperti di tecnologia IA, da Elon Musk a Steve Wozniak, hanno firmato una lettera aperta in cui si raccomanda ai laboratori IA di “sospendere immediatamente” l’addestramento dei sistemi più potenti di GPT-4 per almeno sei mesi. Tale pausa, secondo i firmatari, servirebbe a definire e implementare una serie di protocolli di sicurezza comuni “rigorosamente verificati e monitorati da esperti indipendenti”.   

Subscribe to PS Digital
PS_Digital_1333x1000_Intro-Offer1

Subscribe to PS Digital

Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.

Subscribe Now

La lettera aperta, e l’acceso dibattito che ne è scaturito, evidenziano la necessità urgente, da parte dei soggetti interessati, di avviare un processo ad ampio raggio finalizzato al raggiungimento di un consenso su linee guida comuni per lo sviluppo e l’attuazione dei sistemi IA avanzati. Tale obiettivo deve tenere conto di problemi quali l’automatizzazione e la delocalizzazione dei posti di lavoro, il divario digitale e la concentrazione di controllo su beni e risorse tecnologiche, come i dati e la potenza di calcolo. E una delle priorità fondamentali dovrà essere l’impegno costante a eliminare bias di sistema nell’addestramento IA, così che modelli come ChatGPT non finiscano per riprodurli o persino esacerbarli.   

Stanno già emergendo proposte per una governance dell’intelligenza artificiale e dei servizi digitali, compreso negli Stati Uniti e nell’Unione europea, e anche organizzazioni come il World Economic Forum stanno dando un loro contributo in tal senso. Nel 2021, il Forum ha lanciato la Global Coalition for Digital Safety, un’alleanza tra le parti interessate tesa a contrastare i contenuti online dannosi e a favorire lo scambio di buone prassi per regolamentare la sicurezza online. Il Forum ha poi dato vita alla Digital Trust Initiative, con il fine di garantire che tecnologie avanzate come l’IA siano sviluppate avendo innanzitutto in mente gli interessi del pubblico. 

Il Forum sta ora sollecitando con urgenza una collaborazione tra pubblico e privato per affrontare le sfide che hanno accompagnato la comparsa dell’IA generativa e per costruire un consenso sullo sviluppo e la diffusione futuri di questa tecnologia. Per agevolare il processo, il Forum, in collaborazione con AI Commons – un’organizzazione non profit impegnata per il bene comune e sostenuta da professionisti IA, mondo accademico e Ong – terrà un vertice mondiale sull’intelligenza artificiale generativa a San Francisco il 26-28 aprile. Le parti interessate si confronteranno sull’impatto della tecnologia su imprese, società e pianeta, e lavoreranno insieme per individuare soluzioni volte a mitigare le esternalità negative e a ottenere risultati più sicuri, sostenibili ed equi.   

Che ci piaccia o no, l’IA generativa è destinata a cambiare il mondo. In questo momento cruciale del suo sviluppo, un approccio collaborativo è fondamentale per consentirci di fare  il possibile perché avvenga in linea con i nostri interessi e valori condivisi.

https://prosyn.org/xtk1jqFit