Intelligenza artificiale: la più grande minaccia per l’uomo

1435
intelligenza-artificiale

Secondo il filosofo Nick Bostrom, dell’Università di Oxford, il più grande pericolo per l’umanità sarebbe rappresentato dall’evoluzione dell’intelligenza artificiale, ben più dei cambiamenti climatici.

I cambiamenti climatici potrebbero non essere il più grande capovolgimento al quale l’umanità assisterà nel corso di questo secolo. Un’altra minaccia, a detta di Nick Bostrom, graverebbe sul futuro degli esseri umani: l’intelligenza artificiale. Il professore di filosofia di Oxford, considerato uno dei massimi conoscitori a livello mondiale riguardo l’AI, ritiene che la tecnologia potrebbe rivelarsi distruttiva, se condotta senza etica.

Il lavoro di Bostrom è stato appoggiato sia da Elon Musk, noto per le sue opinioni apocalittiche sull’AI, sia da Bill Gates, cauto sostenitore di questa branca della tecnologia. Il paragone con i cambiamenti climatici potrebbe sembrare azzardato viste le attuali condizioni del pianeta ma è voluto ed ha uno scopo, ossia far comprendere quanto peso possa avere uno sviluppo negativo dell’intelligenza artificiale sul futuro degli esseri umani.

intelligenza-artificiale
Nick Bostrom

 AI indifferenti agli obiettivi umani

Nella maggior parte dei film di fantascienza che trattano l’argomento, l’intelligenza artificiale è rappresentata come dei robot o dei computer malvagi. In realtà con questo termine ci si riferisce anche a degli “innocui” chip che nella realtà potrebbero davvero arrecare danno all’essere umano. In che modo? Non serve necessariamente essere “cattivi” come i robot rappresentati nei film; come ha spiegato Bostrom basterebbe soltanto che le intelligenze artificiali siano indifferenti agli obiettivi umani. Ogni entità intelligente, sia essa umano o artificiale, ha degli obiettivi, seppur pre-programmati. Se le AI diventassero sufficientemente efficienti nel perseguire i propri obiettivi, per quanto apparentemente innocui, potrebbero persino danneggiare le persone, anche se inavvertitamente.

intelligenza-artificiale

L’esempio delle graffette

Bostrom, in un articolo del 2003, ha spiegato questo suo timore portando l’esempio di un’AI ipotetica che ha come unico obiettivo quello di massimizzare la produzione di graffette. Un compito apparentemente innocuo, ma se questa AI fosse capace di riprogrammarsi per migliorare la sua intelligenza (realtà già possibile) potrebbe innovare anche il modo di ottimizzare la produzione. Potrebbe persino arrivare a “trasformare prima tutta la Terra e poi aumentare le porzioni di spazio occupate da impianti di produzione di graffette”, ha spiegato Bostrom. Un comportamento che ha una sua logica per l’AI ma non in linea con gli obiettivi umani, e che potrebbe finire col danneggiare le persone. Non si tratterebbe di una macchina cattiva, solo indifferente ad obiettivi che non sono i suoi. Già solo questo aspetto, a detta dell’esperto, potrebbe essere una minaccia concreta verso l’umanità.

intelligenza-artificiale

Fake news e sorveglianza, minaccia reale

Bostrom ha inoltre illustrato come uno dei modi più pericolosi in cui l’intelligenza artificiale può produrre effetti negativi è attraverso i sistemi di informazione; basti pensare alla selezione di notizie che confermano false credenze e pregiudizi delle persone o software che agiscono come sistemi di sorveglianza degli utenti. In quest’ultimo caso sono già emersi molti dubbi e perplessità; molte persone si domandano se aziende come Microsoft, Apple e Amazon possano vendere tecnologie avanzate e potenzialmente pericolose ad organismi governativi. Nel maggio scorso, in effetti, l’American Civil Liberties ha dichiarato che Amazon avrebbe venduto il suo programma Rekognition alle agenzie di polizia e governative per impiegarlo nel settore della sorveglianza pubblica e per l’identificazione di “persone d’interesse”. Un’arma a doppio taglio.

intelligenza-artificiale

Programmare l’AI per non nuocere all’essere umano

Per il filosofo, la sfida più grande che si dovrà affrontare per scongiurare ogni possibile minaccia sta nel controllare l’intelligenza artificiale programmandola in modo che si allinei agli obiettivi umani. “Le prime difficoltà saranno di natura tecnica, ossia come trovare un modo per sviluppare l’AI in maniera controllata”, ha spiegato Bostrom. “Supponendo di risolverle” – ha precisato – “gli obiettivi successivi saranno le difficoltà sociali relative alla creazione di un ordine mondiale che sia al servizio del bene comune”. Ma le grandi compagnie tecnologiche sono davvero in linea con quest’ultimo obiettivo?

intelligenza-artificiale

Possiamo fidarci dei colossi tecnologici?

Amazon, Google e Apple sono delle aziende all’avanguardia nel campo nell’intelligenza artificiale ma molti studiosi ritengono che in realtà non stiano sviluppando un’AI compatibile con gli obiettivi umani. In questo senso Bostrom non è molto positivo. Sebbene si sia confrontato con alcune figure che lavorano in seno a queste aziende e abbia notato come fossero “preoccupate e impegnate a rendere l’AI sicura e compatibilenon è ancora chiaro come si possa agire per realizzare questo obiettivo. E ha concluso: “Sarebbe troppo aspettarsi che ogni azienda tecnologica se ne venga fuori con il proprio quadro etico per il controllo dell’IA”.

E i governi?

A tutt’oggi non esistono delle proposte politiche concrete su come i governi dovrebbero intervenire in questo campo. La verità è che non è ancora chiaro cosa potrebbero fare. La prima cosa da fare, secondo Bostrom, sarebbe allargare il dibattito e “avere nei governi più persone esperte in intelligenza artificiale”. Quale futuro ci attende, quindi?

Il Team di BreakNotizie

 

Leggi anche:

Milioni di indirizzi e-mail rubati: nella lista potrebbe esserci anche il vostro

Sicurezza informatica: sempre più nazioni ricorrono ai cyber- armamenti

Facebook disattiva due intelligenze artificiali “fuori controllo” rivolta dei robot in atto?