Il ricercatore di DeepMind afferma che una nuova IA potrebbe portare all’AGI, afferma che “il gioco è finito”

Secondo il Dr. Nando de Freitas, Principal Investigator di Google DeepMind, l’umanità è apparentemente sul punto di risolvere l’intelligenza artificiale generale (AIG) nel corso della nostra vita.

In risposta a un articolo di opinione scritto da te, lo scienziato ha pubblicato un thread su Twitter che iniziava con quella che è forse la dichiarazione più audace che abbiamo visto da chiunque in DeepMind riguardo ai suoi attuali progressi.

La mia opinione: ora è tutta una questione di scala! Il gioco è finito!

Saluti umanoidi

Iscriviti ora per un riepilogo settimanale delle nostre storie di intelligenza artificiale preferite

Ecco il testo completo del thread di de Freitas:

L’opinione di qualcuno. La mia opinione: ora è tutta una questione di scala! Il gioco è finito! Si tratta di rendere questi modelli più grandi, più sicuri, più efficienti dal punto di vista computazionale, più veloci nel campionamento, più intelligenti nella memoria, più modalità, DATI INNOVATIVI, on/offline, … 1/N

Risolvere queste sfide di scalabilità è ciò che AGI fornirà. È necessaria una ricerca incentrata su questi problemi, ad esempio S4 per una maggiore memoria. La filosofia dei simboli non lo è. I simboli sono strumenti nel mondo e le grandi reti non hanno problemi a crearli e manipolarli 2/n

Ultimo, ma non per importanza, [OpenAI co-founder Ilya Sutskever] @ilyasut ha ragione [cat emoji]

Ha ragione anche Rich Sutton, ma la lezione di IA non è amara ma piuttosto dolce. L’ho imparato da [Google researcher Geoffrey Hinton] @geoffreyhinton dieci anni fa. Geoff predisse il prevedibile con una chiarezza sorprendente.

C’è molto da scompattare in questo thread, ma “è tutto su scala ora” è un’affermazione piuttosto difficile da interpretare erroneamente.

Come siamo arrivati ​​qui?

DeepMind ha recentemente pubblicato un documento di ricerca e un post sul blog sul suo nuovo sistema di intelligenza artificiale multimodale. Soprannominato “Gato”, il sistema è in grado di eseguire centinaia di compiti diversi che vanno dal controllo di un braccio robotico alla scrittura di poesie.

La società lo ha soprannominato un sistema “generalista”, ma non è arrivata al punto di dire che era in alcun modo capace di informazioni generali: puoi leggere di più su cosa significa qui.

È facile confondere qualcosa come Gato con AGI. La differenza, tuttavia, è che un’intelligenza generale potrebbe imparare a fare cose nuove senza un precedente addestramento.

A mio parere, ho paragonato Gato a una console di gioco:

La capacità di Gato di multitasking è più simile a una console per videogiochi in grado di memorizzare 600 giochi diversi rispetto a un gioco che puoi giocare in 600 modi diversi. Non è un’IA generale, è un gruppo di modelli stretti pre-addestrati ordinatamente raggruppati.

Non è una brutta cosa, se è quello che stai cercando. Ma semplicemente non c’è nulla nel documento di ricerca che accompagna Gato che indichi che questa sia anche una spinta nella giusta direzione per AGI, per non parlare di un trampolino di lancio.

Il dottor de Freitas non è d’accordo. Non sorprende, ma quello che ho trovato scioccante è stato il secondo tweet nel loro thread:

Il pezzo lassù che trattava di “filosofia simbolica” avrebbe potuto essere scritto in risposta diretta al mio pezzo di opinione. Ma per quanto i criminali di Gotham sappiano cosa significa il Bat Signal, chi segue il mondo dell’IA sa che menzionare insieme i simboli e l’AGI è un modo infallibile per evocare Gary Marcus.

Tra Gary

Marcus, uno scienziato di fama mondiale, autore, fondatore e CEO di Robust.AI, ha passato gli ultimi anni a sostenere un nuovo approccio all’AGI. Crede che l’intero campo debba cambiare la sua metodologia di base per la creazione di AGI e ha scritto un libro bestseller in tal senso chiamato “Rebooting AI” con Ernest Davis.

Ha dibattuto e discusso le sue idee con tutti, da Yann LeCun di Facebook a Yoshua Bengio dell’Università di Montreal.

E, per l’edizione inaugurale della sua newsletter Substack, Marcus ha fatto eco alle dichiarazioni di de Freitas in quella che è stata una focosa (ma rispettosa) espressione di confutazione.

Marcus chiama l’iperscalabilità dei modelli di intelligenza artificiale un percorso percepito verso l’AGI “Scaling Uber Alles” e si riferisce a questi sistemi come tentativi di “intelligenza alternativa” – al contrario di artificiale intelligenza che cerca di imitare l’intelligenza umana.

Sull’esplorazione di DeepMind, scrive:

Non c’è niente di intrinsecamente sbagliato nel citare in giudizio Alt Intelligence.

Alt Intelligence rappresenta un’intuizione (o più precisamente una famiglia di intuizioni) su come costruire sistemi intelligenti, e poiché nessuno sa ancora come costruire un tipo di sistema che corrisponda alla flessibilità e all’ingegnosità dell’intelligenza umana, è certamente un gioco leale per persone. perseguire diverse ipotesi su come arrivarci.

Nando de Freitas è quanto mai schietto nel difendere questa ipotesi, che chiamerò Scaling-Uber-Alles. Naturalmente, quel nome, Scaling-Uber-Alles, non è del tutto corretto.

De Freitas sa benissimo (come spiegherò più avanti) che non si possono semplicemente scalare modelli e sperare nel successo. Le persone hanno fatto molto ridimensionamento ultimamente e ottenuto grandi successi, ma hanno anche incontrato alcuni blocchi stradali.

Marcus prosegue descrivendo il problema dell’incomprensibilità che affligge i modelli giganti dell’industria dell’IA.

In sostanza, Marcus sembra dire che non importa quanto siano fantastici e sorprendenti sistemi come DALL-E di OpenAI (un modello che genera immagini personalizzate dalle descrizioni) o Gato di DeepMind, sono comunque incredibilmente fragili.

Lui scrive:

La stella appena svelata di DeepMind, Gato, è capace di prodezze cross-modali mai viste prima nell’IA, ma quando guardi in caratteri piccoli, rimane bloccato nella stessa terra di inaffidabilità, momenti di brillantezza accoppiati con assoluta incomprensione.

Naturalmente, non è raro che i sostenitori dell’apprendimento profondo sostengano che anche gli esseri umani commettono errori.

Ma chiunque sia schietto riconoscerà che questo tipo di errori rivela che qualcosa è molto sbagliato, al momento. Se qualcuno dei miei figli commettesse regolarmente errori come questi, non esagererei, lascerei tutto il resto che sto facendo e lo porterei subito dal neurologo.

Anche se vale sicuramente la pena ridere, c’è una sfumatura seria lì. Quando un ricercatore di DeepMind dichiara che “il gioco è finito”, evoca una visione del futuro immediato oa breve termine che non ha senso.

ATTO? Davvero?

Non piu Gato, DALL-E o GPT-3 sono abbastanza robusti per un consumo pubblico illimitato. Ognuno di loro richiede filtri rigidi per evitare che si ribaltino in bias e, peggio, nessuno di loro è in grado di produrre risultati solidi in modo coerente. E non solo perché non abbiamo trovato la salsa segreta per codificare AGI, ma anche perché i problemi umani sono spesso difficili e non sempre hanno un’unica soluzione addestrabile.

Non è chiaro come il ridimensionamento, anche abbinato a rivoluzionari algoritmi logici, possa risolvere questi problemi.

Ciò non significa che i modelli giganti non siano sforzi utili o degni.

Quello che stanno facendo DeepMind, OpenAI e laboratori simili è molto importante. È scienza all’avanguardia.

Ma dichiarare finita la partita? Insinuare che l’AGI nascerà da un sistema il cui contributo distintivo è il modo in cui serve i modelli? Gato è fantastico, ma sembra una forzatura.

Non c’è nulla nella feroce confutazione di de Freitas che possa cambiare la mia opinione.

I creatori di Gato sono ovviamente brillanti. Non sono pessimista sull’AGI perché Gato non è abbastanza sbalorditivo. Tutto il contrario, in effetti.

Temo che l’AGI sia lontana decenni – secoli, forse – a causa di Gato, DALL-E e GPT-3. Ognuno di loro dimostra una svolta nella nostra capacità di manipolare i computer.

È a dir poco miracoloso vedere una macchina compiere prodezze di diversione ed evocazione alla Copperfield, soprattutto quando ti rendi conto che tale macchina non è più intelligente di un tostapane (e ovviamente più stupida del topo più stupido).

Per me, è ovvio che avremo bisogno di qualcosa di più di un semplice… Dopo…per prendere l’equivalente moderno dell’IA di “è questa la tua mappa?” alla stregoneria gandalfia di AGI a noi promessa.

Come conclude Marcus nella sua newsletter:

Se vogliamo costruire l’AGI, dovremo imparare qualcosa dagli umani, come ragionano e comprendono il mondo fisico, e come rappresentano e acquisiscono linguaggio e concetti complessi.

È puro orgoglio credere il contrario.

Add Comment