Cerca
Close this search box.

Il magazine dedicato alla sicurezza e all'innovazione tecnologica

Cerca
Close this search box.

di:  

L'intelligenza artificiale ed i suoi rischi

L’intelligenza artificiale e i suoi rischi

Il “padrino” dell’intelligenza artificiale, Geoffrey Hinton, lascia Google per parlare liberamente dei rischi dell’IA che ha contribuito a creare: «Presto sarà meglio di noi».

La notizia

Geoffrey Hinton, il “padrino dell’IA”, che si è recentemente dimesso da Google, ha espresso preoccupazioni sui potenziali danni dell’IA. La decisione di Hinton rappresenta un momento significativo per l’industria tecnologica, che si trova in una fase cruciale. L’IA viene infatti vista come la chiave del futuro, con scoperte in campi che vanno dalla ricerca farmacologica all’istruzione.

Tuttavia, cresce anche il timore che l’IA possa rappresentare una minaccia per l’umanità. Questo perché potrebbe essere utilizzata per la disinformazione, la delocalizzazione dei posti di lavoro e lo sviluppo di armi realmente autonome.

Di intelligenza artificiale su queste pagine abbiamo parlato diverse volte, approfondendone i vari aspetti. Trovate gli articoli a riguardo qui.

Chi è Geoffrey Hinton

Geoffrey Hinton progetta algoritmi di apprendimento automatico. Il suo obiettivo è scoprire una procedura di apprendimento che sia efficiente nel trovare strutture complesse in grandi insiemi di dati ad alta dimensionalità, e dimostrare che è così che il cervello impara a vedere.

È stato uno dei ricercatori che ha introdotto l’algoritmo di backpropagation, e il primo a utilizzare la backpropagation per l’apprendimento di word embeddings. I suoi altri contributi alla ricerca sulle reti neurali includono le macchine di Boltzmann, le rappresentazioni distribuite, le reti neurali a ritardo temporale, le miscele di esperti, l’apprendimento variazionale, i prodotti di esperti e le reti di credenza profonde. Il suo gruppo di ricerca a Toronto ha compiuto importanti scoperte nell’apprendimento profondo (deep learning) che hanno rivoluzionato il riconoscimento vocale e la classificazione degli oggetti.

Hinton ha conseguito la laurea in Psicologia sperimentale a Cambridge nel 1970 e il dottorato in Intelligenza artificiale a Edimburgo nel 1978. Ha svolto attività di post-dottorato presso la Sussex University e la University of California San Diego, e ha trascorso cinque anni come membro della facoltà presso il dipartimento di Informatica della Carnegie-Mellon University.

In seguito è diventato fellow del Canadian Institute for Advanced Research, e si è trasferito al Dipartimento di Informatica dell’Università di Toronto. Dal 1998 al 2001 ha creato l’unità di neuroscienze computazionali Gatsby presso l’University College di Londra, per poi tornare all’Università di Toronto. Dal 2004 al 2013 è stato direttore del programma “Neural Computation and Adaptive Perception”, finanziato dal Canadian Institute for Advanced Research. Nel 2013 Google ha acquisito la startup di Hinton che si occupa di reti neurali, DNNresearch, nata dalle sue ricerche all’Università di Toronto. È stato Vicepresidente e Engineering Fellow di Google fino al 2023.

Le sue dimissioni da Google, unite all’allarme che ha lanciato sui “pericoli” dell’IA, hanno fatto in breve il giro del mondo, e sollevato curiosità (e polemiche) sulla questione.

L’intelligenza artificiale è pericolosa perché gli esseri umani sono pericolosi?

Gran parte dei progressi compiuti negli ultimi anni nel campo dell’intelligenza artificiale e delle reti neurali sono dovuti al lavoro fondamentale svolto da Geoffrey Hinton. Negli ultimi dieci anni circa, Hinton ha lavorato a Google. Di recente ha lasciato l’azienda (come appena ricordato) in parte per poter parlare onestamente del lavoro della sua vita, e non è tutto positivo.

In un’intervista al New York Times, Hinton esprime la preoccupazione che l’intelligenza artificiale possa causare gravi problemi alla società. È particolarmente allarmato dalla velocità con cui si stanno evolvendo i chatbot di IA come ChatGPT e il Bard di Google. Hinton pensava che fossimo lontani decenni dalla costruzione di una macchina più intelligente di noi, ma non crede più che abbiamo tutto questo tempo.

Ma che aspetto ha l’IA maligna? È un robot che cerca di sterminare l’umanità a causa di un difetto di programmazione? Probabilmente no, e anche se siamo tutti colpevoli di aver scherzato su Skynet, questa visione fantascientifica dell’IA può distrarre dalla possibilità reale che l’IA permetta ai nostri simili di fare più danni dei Terminator. Basta guardare a ciò che le persone stanno già facendo con l’IA per capire dove potremmo essere diretti. “È difficile capire come si possa impedire a persone cattive di usarla per fare cose cattive“, ha dichiarato Hinton al Times.

I sistemi di IA, per ora, non desiderano nulla per se stessi. Eseguono gli ordini di un padrone umano, ma possiedono un patrimonio di conoscenze. La vera minaccia di un’IA senza limiti è il modo in cui le persone impiegano queste conoscenze per manipolare, disinformare e sorvegliare.

L’intelligenza artificiale potrebbe presto superare il livello di informazioni di un cervello umano?

Negli ultimi anni, l’intelligenza artificiale ha fatto enormi progressi grazie all’impiego di tecniche di apprendimento automatico (machine learning) e di reti neurali. In molti casi, l’IA è riuscita a superare le prestazioni umane in diverse attività, come il riconoscimento di immagini e il gioco degli scacchi. Ciò ha portato molti esperti di tecnologia e scienze a chiedersi se l’IA potrà mai superare l’intelligenza umana in generale.

Innanzitutto, è importante notare che “intelligenza” è un concetto complesso e sfuggente, che non è facilmente quantificabile. Non esiste un metodo univoco per misurare l’intelligenza di un individuo o di un sistema. Per questo motivo, è difficile stabilire se l’AI supererà mai l’intelligenza umana in senso assoluto.

Detto questo, ci sono alcune aree in cui l’IA ha già dimostrato di poter superare le prestazioni umane. Ad esempio, l’AI può elaborare e analizzare enormi quantità di dati in modo molto più rapido ed efficiente rispetto all’uomo. Inoltre, l’IA è in grado di apprendere e migliorare costantemente le sue prestazioni attraverso l’esperienza e il feedback.

Il cervello umano, al contrario, ha alcune limitazioni intrinseche. Ad esempio, il nostro cervello è soggetto a errori e distorsioni cognitivi, come la memoria selettiva o l’effetto Dunning-Kruger. Inoltre, il cervello umano può elaborare solo una certa gamma di informazioni simultaneamente.

Ci sono alcuni esperti che sostengono che, sebbene l’IA possa superare le prestazioni umane in alcune attività specifiche, non riuscirà mai a replicare l’intelligenza generale e la creatività umana. Questo perché la nostra intelligenza è il risultato di un’interazione complessa tra diverse aree del cervello, tra cui l’emisfero sinistro e destro, e di una combinazione di fattori biologici, ambientali e culturali.

In ogni caso, è chiaro che l’IA sta diventando sempre più sofisticata, e che il suo impatto sulla società e sull’economia sarà enorme.

È importante che i governi, le aziende e la società nel suo complesso adottino una visione responsabile dell’IA, e che si impegnino a garantire che questa tecnologia sia utilizzata per il bene comune e non per fini egoistici o distruttivi.

In conclusione, il superamento dell’intelligenza umana da parte dell’AI è un tema complesso e dibattuto, ma è chiaro che la tecnologia sta facendo progressi incredibili in questo senso. Sarà interessante vedere come la società risponderà a questa sfida e come gestirà le implicazioni sociali ed economiche dell’AI sempre più sofisticata.

Il “padrino” dell’intelligenza artificiale avrebbe dovuto esprimersi prima

Le preoccupazioni di Hinton sono certamente sensate, ma sarebbero state più efficaci se fossero arrivate diversi anni prima, quando altri ricercatori che non avevano una pensione su cui contare stavano suonando gli stessi campanelli d’allarme.

In un tweet Hinton ha cercato di chiarire come il New York Times abbia descritto le sue motivazioni, preoccupato che l’articolo suggerisse che avesse lasciato Google per criticarlo. “In realtà me ne sono andato per poter parlare dei pericoli dell’IA senza considerare l’impatto su Google“, ha detto. “Google ha agito in modo molto responsabile“.

Anche se l’importanza di Hinton nel campo potrebbe averlo isolato dalle ripercussioni, l’episodio evidenzia un problema cronico nella ricerca sull’IA: le grandi aziende tecnologiche hanno una tale presa sulla ricerca sull’IA che molti dei loro scienziati hanno paura di esprimere le loro preoccupazioni per timore di danneggiare le loro prospettive di carriera.

Perché Hinton non ha parlato prima? Lo scienziato ha rifiutato di rispondere alle domande. Ma sembra che fosse preoccupato per l’IA da tempo, anche negli anni in cui i suoi colleghi si battevano per un approccio più cauto alla tecnologia. Un articolo del 2015 del New Yorker lo descrive mentre parla con un altro ricercatore di IA a una conferenza di come i politici potrebbero usare l’IA per terrorizzare le persone. Alla domanda sul perché stesse ancora facendo ricerca, Hinton rispose: “Potrei fornirvi le solite argomentazioni, ma la verità è che la prospettiva della scoperta è troppo dolce“. Era un’eco deliberata della famosa descrizione di J. Robert Oppenheimer del fascino “tecnicamente dolce” del lavoro sulla bomba atomica.

Si spera che la partenza di Hinton e i suoi avvertimenti ispirino altri ricercatori di grandi aziende tecnologiche a parlare delle loro preoccupazioni.

Molti ricercatori di IA sembrano accettare con fatalismo il fatto che si possa fare ben poco per arginare la marea dell’IA generativa, ora che è stata liberata nel mondo. Come mi ha detto il cofondatore di Anthropic Jared Kaplan in un’intervista pubblicata di recente, “il gatto è fuori dal sacco“.

Ma se i ricercatori di oggi sono disposti a parlare ora, finché è importante, e non poco prima di andare in pensione, probabilmente ne trarremo tutti beneficio.

CONDIVI QUESTO ARTICOLO!

Iscriviti alla newsletter

    La tua email *

    Numero di cellulare

    Nome *

    Cognome *

    *

    *

    Inserisci sotto il seguente codice: captcha