Intelligenza Artificiale stop
Hi Tech,  Tecnologia

Intelligenza Artificiale stop: la lettera di Musk e altri

In una lettera aperta pubblicata online un pool di esperti e addetti ai lavori di alto calibro chiede un momentaneo stop allo sviluppo dell’Intelligenza Artificiale, che in un prossimo futuro potrebbe costituire una preoccupante fonte di pericolo per l’umanità.

A rivelare il carattere tutt’altro che conservatore di questo appello sono alcuni dei nomi che compaiono fra i firmatari, personalità molto coinvolte nello sviluppo dell’IA: l’imprenditore Elon Musk, il co-fondatore di Apple Steve Wozniak, il saggista Yuval Noah Harari e gli informatici Yoshua Bengio e Steve Russell.

Intelligenza Artificiale: un passo verso il futuro

L’Intelligenza Artificiale rappresenta la direzione evolutiva del progresso umano. Ne è convinto Elon Musk, che nel 2015, insieme a Sam Altman, ha fondato l’organizzazione senza scopo di lucro OpenAI, prefiggendosi di creare un’IA open source, con brevetti liberi e aperti al pubblico. Dalla collaborazione fra l’imprenditore e l’informatico è derivata ChatGPT, il primo software (in questo caso una chatbox capace di interloquire con l’utente) che ha permesso di sperimentare le potenzialità di questa nuova tecnologia.

Compresone il potenziale, altre aziende si sono avvicinate a questo tipo di ricerca: Elon Musk stesso, dal 2018, ha iniziato a sviluppare forme di IA in autonomia. Inoltre, è del 7 febbraio scorso la notizia che Microsoft ha deciso di investire 10 miliardi di euro nella OpenAI, per battere la concorrenza (in particolare quella di Google).

Verso quale tipo di futuro?

Ora però sono proprio le menti che hanno guidato lo sviluppo dell’Intelligenza Artificiale a chiedere una pausa, dopo aver visto non solo i vantaggi, ma anche i pericoli che si accompagnano a una simile tecnologia. In particolare, hanno fatto scalpore le foto relative all’arresto di Donald Trump e al piumino di Papa Francesco, create da software “intelligenti” e ritenute veritiere da moltissimi utenti del web.

Risale al 27 marzo, inoltre, la pubblicazione di un rapporto Europol in cui si evidenziano alcune criticità connesse all’uso di ChatGPT, facilmente passibile di sfruttamento a scopi criminali. In particolare – sostiene l’ufficio europeo – potrebbe facilitare la generazione di email di phishing prive di errori ortografici e grammaticali, garantire l’anonimato a terroristi e adescatori e permettere di creare testi di propaganda e disinformazione.

Preoccupazioni in merito a possibili usi criminali dell’IA erano già stati espressi in un post del 19 febbraio da Sam Altman, secondo cui i vantaggi connessi all’utilizzo dell’IA sono tali da non giustificare un’interruzione del progresso; i rischi tuttavia – continua – sono tali da ingenerare una grande cautela nella creazione e diffusione di questa tecnologia.

La lettera aperta

La lettera aperta pubblicata online parte dall’assunto che l’Intelligenza Artificiale può rappresentare un grande cambiamento nella storia dell’umanità, motivo per cui va pianificata e gestita con cure e risorse adeguate. Tuttavia – si nota subito dopo – questo non è ciò che sta accadendo al momento, quando pare che neppure i creatori stessi siano in grado di controllare appieno le forme di IA cui hanno dato vita.

E, dal momento che l’Intelligenza Artificiale sta diventando competitiva anche in azioni di natura generale e gli uomini stanno demandando quante più attività possibili alla tecnologia (senza rendersi conto che, assieme a dette attività, rinunciano anche a una parte della propria responsabilità e libertà di scelta), sono sorte spontanee delle domande: «Dovremmo lasciare le macchine inondare i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Sviluppare menti non-umane che potrebbero eventualmente essere più numerose di noi, vincerci in astuzia, renderci obsoleti e sostituirci? Dovremmo rischiare la perdita di controllo della nostra civiltà?».

Intelligenza Artificiale stop
L’arresto di Trump e il piumino del Papa, due recenti casi di disinformazione.

La risposta, ovviamente, è «no». Per questo molti scienziati chiedono a ogni laboratorio e ricercatore indipendente che sia impegnato nello sviluppo di forme di IA di fermarsi per almeno 6 mesi. E – ove ciò non avvenga – richiedono anche che siano gli stati sovrani a intervenire, imponendo moratorie su qualsiasi software più potente di GPT-4, ultima versione di ChatGPT, che ha già fatto riflettere sui pericoli derivanti da un suo uso improprio.

La comunità scientifica tutta dovrebbe, auspicabilmente, sfruttare questo lasso di tempo per sviluppare insieme dei protocolli di sicurezza condivisi, sottoposti alla supervisione e al controllo di esperti indipendenti esterni alle singole aziende coinvolte. E, solo quando si sarà certi di una piena gestibilità dei possibili rischi, si riprenderà lo sviluppo. Per «godere di una lunga estate di IA, e non precipitarsi impreparati verso un autunno».

Leggi anche:

Il Metaverso: flop o potenziale futuro? Intelligenza Artificiale stop

Sondaggio Twitter, per gli utenti Elon Musk deve dimettersi da CEO

Low Form la mostra dall’Intelligenza Artificiale

Enciclopedia della moda 2023: da oggi disponibile la nuova edizione

Editor: Leonardo Santarelli

Vuoi ricevere Mam-e direttamente nella tua casella di posta? Iscriviti alla Newsletter, ti manderemo un’email a settimana con il meglio del nostro Magazine.

CLICCA QUI PER SAPERNE DI PIÙ!