GINEVRA – Negli ultimi mesi, lo sviluppo dell’intelligenza artificiale (IA) ha registrato una netta accelerazione che ha visto sistemi di IA generativa come ChatGPT e Midjourney trasformare rapidamente un’ampia gamma di attività professionali e processi creativi. Ma la finestra di opportunità per orientare lo sviluppo di questa potente tecnologia verso un impiego che minimizzi i rischi e massimizzi i vantaggi sta per chiudersi.
Le capacità basate sull’intelligenza artificiale si collocano in un continuum evolutivo in cui i sistemi di IA generativa come GPT-4 (l’ultima versione di ChatGPT) appartengono alla fase più avanzata. Poiché appaiono come quelli più promettenti e possono nascondere le insidie più pericolose, tali sistemi meritano un’attenta analisi da parte di soggetti pubblici e privati.
Sostanzialmente, tutti i progressi della tecnologia hanno avuto effetti sia positivi che negativi sulla società. Da un lato, hanno sostenuto la produttività economica e la crescita del reddito, aumentato l’accesso alle tecnologie dell’informazione e della comunicazione, e migliorato l’aspettativa di vita delle persone e il benessere in generale. Dall’altro, però, hanno prodotto una delocalizzazione dei lavoratori, una stagnazione dei salari, un aumento delle disuguaglianze e una crescente concentrazione di risorse nelle mani di singole persone e aziende.
L’intelligenza artificiale non è diversa. I sistemi di IA generativa dischiudono una serie di opportunità in aree quali la progettazione di prodotti, la creazione di contenuti, la ricerca farmaceutica e la sanità, l’istruzione personalizzata e l’ottimizzazione energetica. Allo stesso tempo, però, possono rivelarsi gravemente destabilizzanti, e persino dannosi, per le nostre economie e società.
I rischi già collegati all’intelligenza artificiale avanzata, e quelli ragionevolmente prevedibili, sono considerevoli. Oltre a una diffusa riorganizzazione dei mercati del lavoro, i sistemi basati sugli LLM, cioè i modelli linguistici di grandi dimensioni, possono aumentare la diffusione della disinformazione e perpetuare dannosi pregiudizi. L’IA generativa minaccia inoltre di inasprire le disparità economiche e potrebbe arrivare addirittura a rappresentare un rischio esistenziale per il genere umano.
Secondo alcuni, questo è un motivo per frenare la ricerca sull’intelligenza artificiale. Il mese scorso, più di mille esperti di tecnologia IA, da Elon Musk a Steve Wozniak, hanno firmato una lettera aperta in cui si raccomanda ai laboratori IA di “sospendere immediatamente” l’addestramento dei sistemi più potenti di GPT-4 per almeno sei mesi. Tale pausa, secondo i firmatari, servirebbe a definire e implementare una serie di protocolli di sicurezza comuni “rigorosamente verificati e monitorati da esperti indipendenti”.
Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.
Subscribe Now
La lettera aperta, e l’acceso dibattito che ne è scaturito, evidenziano la necessità urgente, da parte dei soggetti interessati, di avviare un processo ad ampio raggio finalizzato al raggiungimento di un consenso su linee guida comuni per lo sviluppo e l’attuazione dei sistemi IA avanzati. Tale obiettivo deve tenere conto di problemi quali l’automatizzazione e la delocalizzazione dei posti di lavoro, il divario digitale e la concentrazione di controllo su beni e risorse tecnologiche, come i dati e la potenza di calcolo. E una delle priorità fondamentali dovrà essere l’impegno costante a eliminare bias di sistema nell’addestramento IA, così che modelli come ChatGPT non finiscano per riprodurli o persino esacerbarli.
Stanno già emergendo proposte per una governance dell’intelligenza artificiale e dei servizi digitali, compreso negli Stati Uniti e nell’Unione europea, e anche organizzazioni come il World Economic Forum stanno dando un loro contributo in tal senso. Nel 2021, il Forum ha lanciato la Global Coalition for Digital Safety, un’alleanza tra le parti interessate tesa a contrastare i contenuti online dannosi e a favorire lo scambio di buone prassi per regolamentare la sicurezza online. Il Forum ha poi dato vita alla Digital Trust Initiative, con il fine di garantire che tecnologie avanzate come l’IA siano sviluppate avendo innanzitutto in mente gli interessi del pubblico.
Il Forum sta ora sollecitando con urgenza una collaborazione tra pubblico e privato per affrontare le sfide che hanno accompagnato la comparsa dell’IA generativa e per costruire un consenso sullo sviluppo e la diffusione futuri di questa tecnologia. Per agevolare il processo, il Forum, in collaborazione con AI Commons – un’organizzazione non profit impegnata per il bene comune e sostenuta da professionisti IA, mondo accademico e Ong – terrà un vertice mondiale sull’intelligenza artificiale generativa a San Francisco il 26-28 aprile. Le parti interessate si confronteranno sull’impatto della tecnologia su imprese, società e pianeta, e lavoreranno insieme per individuare soluzioni volte a mitigare le esternalità negative e a ottenere risultati più sicuri, sostenibili ed equi.
Che ci piaccia o no, l’IA generativa è destinata a cambiare il mondo. In questo momento cruciale del suo sviluppo, un approccio collaborativo è fondamentale per consentirci di fare il possibile perché avvenga in linea con i nostri interessi e valori condivisi.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
While both the American and Chinese Gilded Ages raised material standards of living for hundreds of millions of people, their endemic corruption produced radically unequal and unsustainable growth. Ultimately, both periods offer cautionary tales about unbridled crony capitalism, not models for blind emulation.
explains how corruption both drove the country's GDP growth and sowed the seeds for its current economic problems.
Since taking power in 2014, Prime Minister Narendra Modi and his ruling Bharatiya Janata Party have stoked Hindu nationalism, hollowed out India’s democracy, and overseen an economy that is probably performing far worse than official figures suggest. And yet Modi and the BJP are genuinely popular, making them likely – though not certain – to emerge victorious when the ongoing parliamentary election concludes in June.
GINEVRA – Negli ultimi mesi, lo sviluppo dell’intelligenza artificiale (IA) ha registrato una netta accelerazione che ha visto sistemi di IA generativa come ChatGPT e Midjourney trasformare rapidamente un’ampia gamma di attività professionali e processi creativi. Ma la finestra di opportunità per orientare lo sviluppo di questa potente tecnologia verso un impiego che minimizzi i rischi e massimizzi i vantaggi sta per chiudersi.
Le capacità basate sull’intelligenza artificiale si collocano in un continuum evolutivo in cui i sistemi di IA generativa come GPT-4 (l’ultima versione di ChatGPT) appartengono alla fase più avanzata. Poiché appaiono come quelli più promettenti e possono nascondere le insidie più pericolose, tali sistemi meritano un’attenta analisi da parte di soggetti pubblici e privati.
Sostanzialmente, tutti i progressi della tecnologia hanno avuto effetti sia positivi che negativi sulla società. Da un lato, hanno sostenuto la produttività economica e la crescita del reddito, aumentato l’accesso alle tecnologie dell’informazione e della comunicazione, e migliorato l’aspettativa di vita delle persone e il benessere in generale. Dall’altro, però, hanno prodotto una delocalizzazione dei lavoratori, una stagnazione dei salari, un aumento delle disuguaglianze e una crescente concentrazione di risorse nelle mani di singole persone e aziende.
L’intelligenza artificiale non è diversa. I sistemi di IA generativa dischiudono una serie di opportunità in aree quali la progettazione di prodotti, la creazione di contenuti, la ricerca farmaceutica e la sanità, l’istruzione personalizzata e l’ottimizzazione energetica. Allo stesso tempo, però, possono rivelarsi gravemente destabilizzanti, e persino dannosi, per le nostre economie e società.
I rischi già collegati all’intelligenza artificiale avanzata, e quelli ragionevolmente prevedibili, sono considerevoli. Oltre a una diffusa riorganizzazione dei mercati del lavoro, i sistemi basati sugli LLM, cioè i modelli linguistici di grandi dimensioni, possono aumentare la diffusione della disinformazione e perpetuare dannosi pregiudizi. L’IA generativa minaccia inoltre di inasprire le disparità economiche e potrebbe arrivare addirittura a rappresentare un rischio esistenziale per il genere umano.
Secondo alcuni, questo è un motivo per frenare la ricerca sull’intelligenza artificiale. Il mese scorso, più di mille esperti di tecnologia IA, da Elon Musk a Steve Wozniak, hanno firmato una lettera aperta in cui si raccomanda ai laboratori IA di “sospendere immediatamente” l’addestramento dei sistemi più potenti di GPT-4 per almeno sei mesi. Tale pausa, secondo i firmatari, servirebbe a definire e implementare una serie di protocolli di sicurezza comuni “rigorosamente verificati e monitorati da esperti indipendenti”.
Subscribe to PS Digital
Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.
Subscribe Now
La lettera aperta, e l’acceso dibattito che ne è scaturito, evidenziano la necessità urgente, da parte dei soggetti interessati, di avviare un processo ad ampio raggio finalizzato al raggiungimento di un consenso su linee guida comuni per lo sviluppo e l’attuazione dei sistemi IA avanzati. Tale obiettivo deve tenere conto di problemi quali l’automatizzazione e la delocalizzazione dei posti di lavoro, il divario digitale e la concentrazione di controllo su beni e risorse tecnologiche, come i dati e la potenza di calcolo. E una delle priorità fondamentali dovrà essere l’impegno costante a eliminare bias di sistema nell’addestramento IA, così che modelli come ChatGPT non finiscano per riprodurli o persino esacerbarli.
Stanno già emergendo proposte per una governance dell’intelligenza artificiale e dei servizi digitali, compreso negli Stati Uniti e nell’Unione europea, e anche organizzazioni come il World Economic Forum stanno dando un loro contributo in tal senso. Nel 2021, il Forum ha lanciato la Global Coalition for Digital Safety, un’alleanza tra le parti interessate tesa a contrastare i contenuti online dannosi e a favorire lo scambio di buone prassi per regolamentare la sicurezza online. Il Forum ha poi dato vita alla Digital Trust Initiative, con il fine di garantire che tecnologie avanzate come l’IA siano sviluppate avendo innanzitutto in mente gli interessi del pubblico.
Il Forum sta ora sollecitando con urgenza una collaborazione tra pubblico e privato per affrontare le sfide che hanno accompagnato la comparsa dell’IA generativa e per costruire un consenso sullo sviluppo e la diffusione futuri di questa tecnologia. Per agevolare il processo, il Forum, in collaborazione con AI Commons – un’organizzazione non profit impegnata per il bene comune e sostenuta da professionisti IA, mondo accademico e Ong – terrà un vertice mondiale sull’intelligenza artificiale generativa a San Francisco il 26-28 aprile. Le parti interessate si confronteranno sull’impatto della tecnologia su imprese, società e pianeta, e lavoreranno insieme per individuare soluzioni volte a mitigare le esternalità negative e a ottenere risultati più sicuri, sostenibili ed equi.
Che ci piaccia o no, l’IA generativa è destinata a cambiare il mondo. In questo momento cruciale del suo sviluppo, un approccio collaborativo è fondamentale per consentirci di fare il possibile perché avvenga in linea con i nostri interessi e valori condivisi.