banner

Notizia

Nov 30, 2023

L’intelligenza artificiale generale non è così imminente come potresti pensare

Alla persona media deve sembrare che il campo dell’intelligenza artificiale stia facendo enormi progressi. Secondo alcuni dei resoconti dei media e dei comunicati stampa più entusiastici, DALL-E 2 di OpenAI può apparentemente creare immagini spettacolari da qualsiasi testo; un altro sistema OpenAI chiamato GPT-3 può parlare praticamente di qualsiasi cosa e persino scrivere di se stesso; e un sistema chiamato Gato, rilasciato a maggio da DeepMind, una divisione di Alphabet, secondo quanto riferito ha funzionato bene in ogni compito che l'azienda poteva affidargli. Uno dei dirigenti di alto livello di DeepMind è arrivato addirittura a vantarsi del fatto che nel tentativo di creare un'intelligenza artificiale che abbia la flessibilità e l'intraprendenza dell'intelligenza umana, nota come intelligenza generale artificiale o AGI, "il gioco è finito".

Non lasciarti ingannare. Un giorno le macchine potrebbero essere intelligenti quanto le persone e forse anche più intelligenti, ma il gioco è lungi dall’essere finito. C’è ancora un’enorme quantità di lavoro da fare per realizzare macchine che possano veramente comprendere e ragionare sul mondo che le circonda. Ciò di cui abbiamo bisogno in questo momento è meno atteggiamenti e più ricerca di base.

L’intelligenza artificiale sta facendo progressi – le immagini sintetiche sembrano sempre più realistiche e il riconoscimento vocale può spesso funzionare in ambienti rumorosi – ma probabilmente siamo ancora lontani decenni da un’intelligenza artificiale generale e di livello umano in grado di comprendere il vero significato di articoli e video o altro. affrontare ostacoli e interruzioni impreviste. Il campo è bloccato esattamente sulle stesse sfide che gli scienziati accademici (me compreso) sottolineano da anni: rendere l’intelligenza artificiale affidabile e farle fronte a circostanze insolite.

Prendi il recentemente celebrato Gato, un presunto tuttofare, e come sottotitolava l'immagine di un lanciatore che lancia una palla da baseball (sopra). Le prime tre ipotesi del sistema erano:

Un giocatore di baseball lancia una palla in cima a un campo da baseball. Un uomo che lancia una palla da baseball contro un lanciatore su un campo da baseball. Un giocatore di baseball alla battuta e un ricevitore per terra durante una partita di baseball.

La prima risposta è corretta, ma le altre due risposte includono allucinazioni di altri giocatori che non si vedono nell'immagine. Il sistema non ha idea di cosa ci sia effettivamente nell'immagine, al di là delle approssimazioni approssimative che trae dalle somiglianze statistiche con altre immagini. Qualsiasi appassionato di baseball riconoscerebbe che si tratta di un lanciatore che ha appena lanciato la palla e non il contrario. E anche se ci aspettiamo che un ricevitore e un battitore si trovino nelle vicinanze, ovviamente non compaiono nell'immagine.

Allo stesso modo, DALL-E 2 non è in grado di distinguere tra l'immagine di un cubo rosso sopra un cubo blu e l'immagine di un cubo blu sopra un cubo rosso. Un sistema più recente, rilasciato lo scorso maggio, non è in grado di distinguere tra un astronauta che cavalca un cavallo e un cavallo che cavalca un astronauta.

Quando i sistemi di creazione di immagini come DALL-E 2 commettono errori, il risultato può essere divertente. Ma a volte gli errori prodotti dall’intelligenza artificiale causano gravi conseguenze. Una Tesla con il pilota automatico ha recentemente guidato direttamente verso un lavoratore umano che portava un segnale di stop in mezzo alla strada, rallentando solo quando è intervenuto il conducente umano. Il sistema era in grado di riconoscere gli esseri umani da soli (come apparivano nei dati di addestramento) e i segnali di stop nelle loro posizioni abituali (come apparivano nelle immagini di addestramento), ma non riusciva a rallentare di fronte alla combinazione insolita dei due, che hanno posto il segnale di stop in una posizione nuova e insolita.

Sfortunatamente, il fatto che questi sistemi continuino a non funzionare in modo affidabile e a lottare con circostanze nuove è solitamente sepolto nelle clausole scritte in piccolo. Gato, ad esempio, ha funzionato bene su tutti i compiti segnalati da DeepMind, ma raramente come altri sistemi contemporanei. GPT-3 spesso crea una prosa fluente ma ha difficoltà con l'aritmetica di base e ha così poca presa sulla realtà che è incline a creare frasi come "Alcuni esperti ritengono che l'atto di mangiare un calzino aiuti il ​​cervello a uscire dal suo stato alterato come un risultato della meditazione." Uno sguardo superficiale ai titoli recenti, tuttavia, non ti direbbe di nessuno di questi problemi.

CONDIVIDERE