I principali scienziati informatici discutono i prossimi passi per l'IA nel 2021

481

Gli anni 2010 sono stati enormi per l'intelligenza artificiale, grazie ai progressi nel deep learning, un ramo dell'IA che è diventato fattibile a causa della crescente capacità di raccogliere, archiviare ed elaborare grandi quantità di dati. Oggi, il deep learning non è solo un argomento di ricerca scientifica, ma anche una componente chiave di molte applicazioni quotidiane.

Ma il valore di un decennio di ricerca e applicazione ha chiarito che, allo stato attuale, il deep learning non è la soluzione finale per risolvere la sfida sempre elusiva della creazione di IA a livello umano.

Di cosa abbiamo bisogno per spingere l'IA al livello successivo? Più dati e reti neurali più grandi? Nuovi algoritmi di deep learning? Approcci diversi dal deep learning?

Questo è un argomento che è stato oggetto di accesi dibattiti nella comunità AI ed è stato al centro di una discussione online Montreal.AI tenutasi la scorsa settimana. Intitolato "Dibattito sull'IA 2: far progredire l'IA: un approccio interdisciplinare", al dibattito hanno partecipato scienziati provenienti da una vasta gamma di background e discipline.

Contents

Intelligenza artificiale ibrida

Lo scienziato cognitivo Gary Marcus, che ha co-ospitato il dibattito, ha ribadito alcune delle principali carenze dell'apprendimento profondo, tra cui requisiti di dati eccessivi, scarsa capacità di trasferire la conoscenza ad altri domini, opacità e mancanza di ragionamento e rappresentazione della conoscenza.

Marcus, che è un critico schietto degli approcci di solo apprendimento profondo, ha pubblicato un documento all'inizio del 2020 in cui ha suggerito un approccio ibrido che combina algoritmi di apprendimento con software basato su regole.

Altri oratori hanno anche indicato l'intelligenza artificiale ibrida come possibile soluzione alle sfide che il deep learning deve affrontare.

"Una delle domande chiave è identificare gli elementi costitutivi dell'IA e come renderla più affidabile, spiegabile e interpretabile", ha affermato lo scienziato informatico Luis Lamb.

Lamb, che è un coautore del libro Neural-simbolic Cognitive Reasoning, ha proposto un approccio fondamentale per l'IA neurale-simbolica che si basa sia sulla formalizzazione logica che sull'apprendimento automatico.

“Usiamo la logica e la rappresentazione della conoscenza per rappresentare il processo di ragionamento che [it] è integrato con i sistemi di apprendimento automatico in modo che possiamo anche riformare efficacemente l'apprendimento neurale utilizzando macchinari di apprendimento profondo ", ha affermato Lamb.

Ispirazione dall'evoluzione

Fei-fei Li, professore di informatica alla Stanford University ed ex capo scienziato di intelligenza artificiale presso Google Cloud, ha sottolineato che nella storia dell'evoluzione, la visione è stata uno dei catalizzatori chiave per l'emergere dell'intelligenza negli esseri viventi. Allo stesso modo, il lavoro sulla classificazione delle immagini e sulla visione artificiale ha contribuito a innescare la rivoluzione del deep learning dell'ultimo decennio. Li è il creatore di ImageNet, un set di dati di milioni di immagini etichettate utilizzate per addestrare e valutare i sistemi di visione artificiale.

"Come scienziati, ci chiediamo, qual è la prossima stella polare?" Li ha detto. “Ce ne sono più di uno. Sono stato estremamente ispirato dall'evoluzione e dallo sviluppo. "

Li ha sottolineato che l'intelligenza negli esseri umani e negli animali emerge dalla percezione attiva e dall'interazione con il mondo, una proprietà che è gravemente carente negli attuali sistemi di intelligenza artificiale, che si basano su dati curati ed etichettati dagli esseri umani.

“Esiste un anello fondamentalmente critico tra percezione e attuazione che guida l'apprendimento, la comprensione, la pianificazione e il ragionamento. E questo ciclo può essere realizzato meglio quando il nostro agente di intelligenza artificiale può essere incarnato, può comporre tra azioni esplorative e di sfruttamento, è multimodale, multi-task, generalizzabile e spesso sociale ", ha detto.

Nel suo laboratorio di Stanford, Li sta attualmente lavorando alla creazione di agenti interattivi che utilizzano la percezione e l'attivazione per comprendere il mondo.

Il ricercatore di OpenAI Ken Stanley ha anche discusso delle lezioni apprese dall'evoluzione. "Ci sono proprietà dell'evoluzione in natura che sono così profondamente potenti e non sono ancora spiegate algoritmicamente perché non possiamo creare fenomeni come ciò che è stato creato in natura", ha detto Stanley. "Quelle sono proprietà che dovremmo continuare a cercare e comprendere, e quelle sono proprietà non solo nell'evoluzione ma anche in noi stessi."

Insegnamento rafforzativo

L'informatico Richard Sutton ha sottolineato che, per la maggior parte, il lavoro sull'intelligenza artificiale manca di una "teoria computazionale", un termine coniato dal neuroscienziato David Marr, rinomato per il suo lavoro sulla visione. La teoria computazionale definisce quale obiettivo un sistema di elaborazione delle informazioni cerca e perché cerca quell'obiettivo.

“Nelle neuroscienze, ci manca una comprensione di alto livello dell'obiettivo e degli scopi della mente in generale. È vero anche per l'intelligenza artificiale, forse più sorprendentemente per l'IA. C'è pochissima teoria computazionale nel senso di Marr nell'IA ", ha detto Sutton. Sutton ha aggiunto che i libri di testo spesso definiscono l'IA semplicemente come "fare in modo che le macchine facciano ciò che fanno le persone" e la maggior parte delle conversazioni attuali sull'intelligenza artificiale, compreso il dibattito tra reti neurali e sistemi simbolici, riguardano "come si ottiene qualcosa, come se avessimo già capito di cosa si tratta è che stiamo cercando di fare. "

"L'apprendimento per rinforzo è la prima teoria computazionale dell'intelligenza", ha detto Sutton, riferendosi al ramo dell'IA in cui agli agenti vengono fornite le regole di base di un ambiente e lasciati a scoprire modi per massimizzare la loro ricompensa. “L'apprendimento per rinforzo è esplicito sull'obiettivo, sul cosa e sul perché. Nell'apprendimento per rinforzo, l'obiettivo è massimizzare un segnale di ricompensa arbitrario. A tal fine, l'agente deve calcolare una politica, una funzione di valore e un modello generativo ", ha detto Sutton.

Ha aggiunto che il campo ha bisogno di sviluppare ulteriormente una teoria computazionale concordata dell'intelligenza e ha affermato che l'apprendimento per rinforzo è attualmente il candidato migliore, sebbene abbia riconosciuto che altri candidati potrebbero valere la pena esplorare.

Sutton è un pioniere dell'apprendimento per rinforzo e autore di un libro di testo fondamentale sull'argomento. DeepMind, il laboratorio di intelligenza artificiale in cui lavora, è profondamente investito nel "deep reinforcement learning", una variazione della tecnica che integra le reti neurali nelle tecniche di base per il rinforzo dell'apprendimento. Negli ultimi anni, DeepMind ha utilizzato l'apprendimento per rinforzo profondo per padroneggiare giochi come Go, scacchi e StarCraft 2.

Sebbene l'apprendimento per rinforzo abbia sorprendenti somiglianze con i meccanismi di apprendimento nel cervello umano e animale, soffre anche delle stesse sfide che affliggono l'apprendimento profondo. I modelli di apprendimento per rinforzo richiedono una formazione approfondita per apprendere le cose più semplici e sono rigidamente vincolati all'ambito ristretto su cui vengono addestrati. Per il momento, lo sviluppo di modelli di apprendimento di rinforzo profondo richiede risorse di calcolo molto costose, il che rende la ricerca nell'area limitata a società con profonde tasche come Google, che possiede DeepMind, e Microsoft, il quasi proprietario di OpenAI.

Integrare la conoscenza del mondo e il buon senso nell'IA

Lo scienziato informatico e vincitore del premio Turing Judea Pearl, meglio conosciuto per il suo lavoro sulle reti bayesiane e l'inferenza causale, ha sottolineato che i sistemi di intelligenza artificiale hanno bisogno della conoscenza del mondo e del buon senso per fare un uso più efficiente dei dati che vengono alimentati.

"Credo che dovremmo costruire sistemi che abbiano una combinazione di conoscenza del mondo insieme ai dati", ha detto Pearl, aggiungendo che i sistemi di intelligenza artificiale basati solo sull'accumulo e l'elaborazione cieca di grandi volumi di dati sono destinati a fallire.

La conoscenza non emerge dai dati, ha detto Pearl. Invece, utilizziamo le strutture innate del nostro cervello per interagire con il mondo, e usiamo i dati per interrogare e imparare dal mondo, come testimoniano i neonati, che imparano molte cose senza essere esplicitamente istruiti.

“Questo tipo di struttura deve essere implementata esternamente ai dati. Anche se riusciamo per miracolo ad apprendere quella struttura dai dati, abbiamo ancora bisogno di averla nella forma che è comunicabile con gli esseri umani ", ha detto Pearl.

Il professore dell'Università di Washington Yejin Choi ha anche sottolineato l'importanza del buon senso e le sfide che la sua assenza presenta agli attuali sistemi di IA, che si concentrano sulla mappatura dei dati di input ai risultati.

"Oggi sappiamo come risolvere un set di dati senza risolvere l'attività sottostante con il deep learning", ha affermato Choi. "Ciò è dovuto alla differenza significativa tra IA e intelligenza umana, in particolare la conoscenza del mondo. E il buon senso è uno dei pezzi mancanti fondamentali ".

Choi ha anche sottolineato che lo spazio del ragionamento è infinito e che il ragionamento stesso è un compito generativo e molto diverso dai compiti di categorizzazione per cui sono adatti gli algoritmi di apprendimento profondo e i benchmark di valutazione di oggi. “Non enumeriamo mai molto. Ragioniamo al volo, e questa sarà una delle principali sfide intellettuali fondamentali a cui possiamo pensare in futuro ", ha detto Choi.

Ma come raggiungere il buon senso e il ragionamento nell'IA? Choi suggerisce una vasta gamma di aree di ricerca parallele, inclusa la combinazione di rappresentazioni simboliche e neurali, l'integrazione della conoscenza nel ragionamento e la costruzione di parametri di riferimento che non sono solo categorizzazione.

Non conosciamo ancora il percorso completo verso il buon senso, ha detto Choi, aggiungendo: "Ma una cosa è certa è che non possiamo arrivarci semplicemente rendendo più alto l'edificio più alto del mondo. Pertanto, GPT-4, -5 o -6 potrebbero non tagliarlo. "

VentureBeat

La missione di VentureBeat è quella di essere una piazza cittadina digitale per i responsabili delle decisioni tecniche per acquisire conoscenze sulla tecnologia trasformativa e sulle transazioni.

Il nostro sito fornisce informazioni essenziali sulle tecnologie e strategie dei dati per guidarti mentre guidi le tue organizzazioni. Ti invitiamo a diventare un membro della nostra community, per accedere a:

  • informazioni aggiornate sugli argomenti di tuo interesse,
  • le nostre newsletter
  • contenuti gated leader di pensiero e accesso scontato ai nostri eventi preziosi, come Transform
  • funzionalità di rete e altro ancora.

Diventare socio