banner

Blog

Aug 27, 2023

L'oscuro segreto nel cuore dell'intelligenza artificiale

L'anno scorso, una strana macchina a guida autonoma è stata lanciata sulle strade tranquille della contea di Monmouth, nel New Jersey. Il veicolo sperimentale, sviluppato dai ricercatori del produttore di chip Nvidia, non sembrava diverso dalle altre auto autonome, ma era diverso da qualsiasi cosa dimostrata da Google, Tesla o General Motors, e mostrava la crescente potenza dell'intelligenza artificiale. L'auto non ha seguito una singola istruzione fornita da un ingegnere o da un programmatore. Invece, si basava interamente su un algoritmo che aveva imparato a guidare guardando un essere umano farlo.

Far sì che un'auto guidasse in questo modo è stata un'impresa impressionante. Ma è anche un po' inquietante, perché non è del tutto chiaro come l'auto prenda le sue decisioni. Le informazioni provenienti dai sensori del veicolo passano direttamente a un'enorme rete di neuroni artificiali che elaborano i dati e quindi forniscono i comandi necessari per azionare il volante, i freni e altri sistemi. Il risultato sembra corrispondere alle risposte che ti aspetteresti da un conducente umano. Ma cosa succederebbe se un giorno facesse qualcosa di inaspettato: si schiantasse contro un albero o si fermasse davanti a un semaforo verde? Allo stato attuale delle cose, potrebbe essere difficile scoprirne il motivo. Il sistema è così complicato che anche gli ingegneri che lo hanno progettato potrebbero avere difficoltà a isolare il motivo di ogni singola azione. E non puoi chiederlo: non esiste un modo ovvio per progettare un sistema del genere in modo che possa sempre spiegare perché ha fatto quello che ha fatto.

La mente misteriosa di questo veicolo indica un problema incombente con l'intelligenza artificiale. La tecnologia AI alla base dell'auto, nota come deep learning, si è rivelata molto potente nel risolvere i problemi negli ultimi anni ed è stata ampiamente utilizzata per attività come la didascalia delle immagini, il riconoscimento vocale e la traduzione linguistica. Ora c’è la speranza che le stesse tecniche siano in grado di diagnosticare malattie mortali, prendere decisioni commerciali da milioni di dollari e fare innumerevoli altre cose per trasformare interi settori.

Ma questo non accadrà, o non dovrebbe accadere, a meno che non troviamo modi per rendere tecniche come il deep learning più comprensibili per i loro creatori e responsabili nei confronti dei loro utenti. Altrimenti sarà difficile prevedere quando potrebbero verificarsi dei fallimenti, ed è inevitabile che si verifichino. Questo è uno dei motivi per cui l'auto di Nvidia è ancora sperimentale.

Vengono già utilizzati modelli matematici per determinare chi concede la libertà condizionale, chi ha l'approvazione per un prestito e chi viene assunto per un lavoro. Se si potesse accedere a questi modelli matematici, sarebbe possibile comprenderne il ragionamento. Ma le banche, le forze armate, i datori di lavoro e altri stanno ora rivolgendo la loro attenzione ad approcci di apprendimento automatico più complessi che potrebbero rendere del tutto imperscrutabile il processo decisionale automatizzato. Il deep learning, il più comune di questi approcci, rappresenta un modo fondamentalmente diverso di programmare i computer. "È un problema che è già rilevante e lo sarà molto di più in futuro", afferma Tommi Jaakkola, professore al MIT che lavora sulle applicazioni dell'apprendimento automatico. "Che si tratti di una decisione di investimento, di una decisione medica o magari di una decisione militare, non bisogna fare affidamento solo su un metodo 'scatola nera'."

Si sostiene già che poter interrogare un sistema di intelligenza artificiale su come sia giunto alle sue conclusioni sia un diritto legale fondamentale. A partire dall’estate del 2018, l’Unione Europea potrebbe richiedere che le aziende siano in grado di fornire agli utenti una spiegazione per le decisioni prese dai sistemi automatizzati. Ciò potrebbe essere impossibile, anche per sistemi che sembrano relativamente semplici in superficie, come le app e i siti Web che utilizzano il deep learning per pubblicare annunci o consigliare brani. I computer che gestiscono questi servizi si sono programmati da soli e lo hanno fatto in modi che non riusciamo a comprendere. Persino gli ingegneri che creano queste app non riescono a spiegare completamente il loro comportamento.

Ciò solleva domande sconcertanti. Con l’avanzare della tecnologia, potremmo presto superare una soglia oltre la quale l’utilizzo dell’intelligenza artificiale richiede un atto di fede. Certo, nemmeno noi esseri umani possiamo sempre spiegare veramente i nostri processi mentali, ma troviamo modi per fidarci e valutare intuitivamente le persone. Ciò sarà possibile anche con macchine che pensano e prendono decisioni in modo diverso da come farebbe un essere umano? Non abbiamo mai costruito prima d'ora macchine che funzionano in modi che i loro creatori non capiscono. Quanto bene possiamo aspettarci di comunicare e andare d'accordo con macchine intelligenti che potrebbero essere imprevedibili e imperscrutabili? Queste domande mi hanno portato in un viaggio all’avanguardia della ricerca sugli algoritmi di intelligenza artificiale, da Google ad Apple e in molti luoghi intermedi, incluso un incontro con uno dei grandi filosofi del nostro tempo.

CONDIVIDERE