Dai robot reattivi alle macchine senzienti: i 4 tipi di intelligenza artificiale

Pin
Send
Share
Send

La visione comune e ricorrente delle ultime scoperte nella ricerca sull'intelligenza artificiale è che macchine senzienti e intelligenti sono all'orizzonte. Le macchine comprendono i comandi verbali, distinguono le immagini, guidano le auto e giocano meglio di noi. Quanto tempo può passare prima che camminino in mezzo a noi?

Il nuovo rapporto della Casa Bianca sull'intelligenza artificiale ha una visione adeguatamente scettica di quel sogno. Dice che probabilmente i prossimi 20 anni non vedranno le macchine "esibire un'intelligenza ampiamente applicabile paragonabile o superiore a quella degli umani", sebbene continui a dire che nei prossimi anni "le macchine raggiungeranno e supereranno le prestazioni umane su più e più compiti ". Ma i suoi presupposti su come si svilupperanno queste capacità hanno perso alcuni punti importanti.

Come ricercatore di intelligenza artificiale, ammetto che è stato bello avere il mio campo evidenziato al massimo livello del governo americano, ma il rapporto si è concentrato quasi esclusivamente su quello che io chiamo "il tipo noioso di intelligenza artificiale". Ha eliminato in mezza frase il mio ramo della ricerca sull'IA, su come l'evoluzione può aiutare a sviluppare sistemi di intelligenza artificiale in costante miglioramento e come i modelli computazionali possono aiutarci a capire come si è evoluta la nostra intelligenza umana.

Il rapporto si concentra su quelli che potrebbero essere chiamati strumenti di intelligenza artificiale tradizionali: machine learning e deep learning. Queste sono le tecnologie che sono state in grado di giocare a "Jeopardy!" beh, e sconfiggi i maestri Go umani nel gioco più complicato mai inventato. Questi attuali sistemi intelligenti sono in grado di gestire enormi quantità di dati e di eseguire calcoli complessi molto rapidamente. Ma mancano di un elemento che sarà la chiave per costruire le macchine senzienti che immaginiamo di avere in futuro.

Dobbiamo fare di più che insegnare alle macchine per imparare. Dobbiamo superare i confini che definiscono i quattro diversi tipi di intelligenza artificiale, le barriere che separano le macchine da noi - e noi da loro.

Tipo I AI: macchine reattive

I tipi più elementari di sistemi di intelligenza artificiale sono puramente reattivi e non hanno la capacità né di formare ricordi né di usare esperienze passate per informare le decisioni attuali. Deep Blue, il supercomputer IBM che gioca a scacchi, che ha battuto il gran maestro internazionale Garry Kasparov alla fine degli anni '90, è l'esempio perfetto di questo tipo di macchina.

Deep Blue è in grado di identificare i pezzi su una scacchiera e sapere come si muovono. Può fare previsioni su quali mosse potrebbero essere per lui e il suo avversario. E può scegliere le mosse più ottimali tra le possibilità.

Ma non ha alcun concetto del passato, né alcun ricordo di ciò che è accaduto prima. A parte una regola specifica di scacchi usata raramente contro la ripetizione della stessa mossa tre volte, Deep Blue ignora tutto prima del momento presente. Tutto ciò che fa è guardare i pezzi sulla scacchiera così com'è ora e scegliere tra le possibili mosse successive.

Questo tipo di intelligenza coinvolge il computer che percepisce direttamente il mondo e agisce su ciò che vede. Non si basa su un concetto interno del mondo. In un articolo fondamentale, il ricercatore di intelligenza artificiale Rodney Brooks ha sostenuto che dovremmo costruire solo macchine come questa. La sua ragione principale era che le persone non sono molto brave a programmare mondi simulati precisi da usare per i computer, quella che viene chiamata nella borsa di studio dell'IA una "rappresentazione" del mondo.

Le attuali macchine intelligenti di cui ci meravigliamo o non hanno un simile concetto del mondo, o ne hanno una molto limitata e specializzata per i suoi doveri particolari. L'innovazione nel design di Deep Blue non è stata quella di ampliare la gamma di possibili film considerati dal computer. Piuttosto, gli sviluppatori hanno trovato un modo per restringere la sua visione, per smettere di perseguire alcune potenziali mosse future, in base a come ha valutato il loro risultato. Senza questa capacità, Deep Blue avrebbe dovuto essere un computer ancora più potente per battere Kasparov.

Allo stesso modo, AlphaGo di Google, che ha battuto i migliori esperti Go umani, non può nemmeno valutare tutte le potenziali mosse future. Il suo metodo di analisi è più sofisticato di Deep Blue, usando una rete neurale per valutare gli sviluppi del gioco.

Questi metodi migliorano la capacità dei sistemi di intelligenza artificiale di giocare meglio con giochi specifici, ma non possono essere facilmente modificati o applicati ad altre situazioni. Queste immaginazioni computerizzate non hanno il concetto di un mondo più ampio - il che significa che non possono funzionare oltre i compiti specifici che sono assegnati e sono facilmente imbrogliati.

Non possono partecipare in modo interattivo al mondo, come un giorno immaginiamo i sistemi di intelligenza artificiale. Invece, queste macchine si comporteranno esattamente allo stesso modo ogni volta che incontrano la stessa situazione. Questo può essere molto buono per garantire che un sistema di intelligenza artificiale sia affidabile: vuoi che la tua auto autonoma sia un conducente affidabile. Ma è un male se vogliamo che le macchine si impegnino veramente e rispondano al mondo. Questi semplici sistemi di intelligenza artificiale non saranno mai annoiati, interessati o tristi.

Tipo II AI: memoria limitata

Questa classe di tipo II contiene macchine che possono guardare al passato. Le auto a guida autonoma fanno già parte di questo. Ad esempio, osservano la velocità e la direzione di altre auto. Ciò non può essere fatto in un solo momento, ma richiede piuttosto di identificare oggetti specifici e monitorarli nel tempo.

Queste osservazioni si aggiungono alle rappresentazioni preprogrammate del mondo delle auto a guida autonoma, che includono anche segnaletica di corsia, semafori e altri elementi importanti, come le curve sulla strada. Sono inclusi quando l'auto decide quando cambiare corsia, per evitare di tagliare un altro guidatore o di essere investita da un'auto vicina.

Ma queste semplici informazioni sul passato sono solo transitorie. Non vengono salvati come parte della libreria di esperienze dell'auto da cui può imparare, il modo in cui i conducenti umani compilano l'esperienza negli anni al volante.

Quindi, come possiamo costruire sistemi di intelligenza artificiale che costruiscono rappresentazioni complete, ricordano le loro esperienze e imparano a gestire nuove situazioni? Brooks aveva ragione nel dire che è molto difficile farlo. La mia ricerca sui metodi ispirati all'evoluzione darwiniana può iniziare a compensare le carenze umane lasciando che le macchine costruiscano le proprie rappresentazioni.

Tipo III AI: Teoria della mente

Potremmo fermarci qui e chiamare questo punto l'importante divisione tra le macchine che abbiamo e le macchine che costruiremo in futuro. Tuttavia, è meglio essere più specifici per discutere i tipi di rappresentazioni che le macchine devono formare e di cosa devono essere.

Le macchine della classe successiva, più avanzata, non solo formano rappresentazioni del mondo, ma anche di altri agenti o entità del mondo. In psicologia, questo si chiama "teoria della mente" - la comprensione che le persone, le creature e gli oggetti nel mondo possono avere pensieri ed emozioni che influenzano il loro comportamento.

Questo è cruciale per il modo in cui noi umani abbiamo formato le società, perché ci hanno permesso di avere interazioni sociali. Senza comprendere le motivazioni e le intenzioni reciproche e senza tener conto di ciò che qualcun altro sa di me o dell'ambiente, lavorare insieme è nella migliore delle ipotesi difficile, nella peggiore delle ipotesi impossibile.

Se i sistemi di intelligenza artificiale devono davvero camminare tra di noi, dovranno essere in grado di capire che ognuno di noi ha pensieri, sentimenti e aspettative su come saremo trattati. E dovranno adattare il loro comportamento di conseguenza.

Tipo IV AI: Autocoscienza

Il passo finale dello sviluppo dell'IA è quello di costruire sistemi in grado di formare rappresentazioni su se stessi. Alla fine, noi ricercatori dell'IA dovremo non solo comprendere la coscienza, ma costruire macchine che la possiedano.

Questa è, in un certo senso, un'estensione della "teoria della mente" posseduta dalle intelligenze artificiali di tipo III. La coscienza è anche chiamata "autocoscienza" per una ragione. ("Voglio quell'oggetto" è un'affermazione molto diversa da "So che voglio quell'oggetto"). Gli esseri coscienti sono consapevoli di se stessi, conoscono i loro stati interni e sono in grado di prevedere i sentimenti degli altri. Supponiamo che qualcuno che suona il clacson dietro di noi nel traffico sia arrabbiato o impaziente, perché è così che ci sentiamo quando suoniamo il clacson agli altri. Senza una teoria della mente, non potremmo fare questo tipo di inferenze.

Sebbene probabilmente siamo lontani dal creare macchine consapevoli di noi stessi, dovremmo concentrare i nostri sforzi verso la comprensione della memoria, dell'apprendimento e della capacità di basare le decisioni sulle esperienze passate. Questo è un passo importante per comprendere l'intelligenza umana da sola. Ed è fondamentale se vogliamo progettare o far evolvere macchine che siano più che eccezionali nel classificare ciò che vedono davanti a loro.

Arend Hintze, assistente professore di biologia integrativa e informatica e ingegneria, Michigan State University

Pin
Send
Share
Send