KDnuggets

Di Alok Aggarwal, Scry Analytics.

Ogni decennio sembra avere le sue parole d’ordine tecnologiche: abbiamo avuto i personal computer negli anni ’80; Internet e il web mondiale negli anni ’90; gli smartphone e i social media negli anni 2000; e l’intelligenza artificiale (AI) e l’apprendimento automatico in questo decennio. Tuttavia, il campo dell’IA ha 67 anni e questo è il primo di una serie di cinque articoli in cui:

  1. Questo articolo discute la genesi dell’IA e il primo ciclo di hype durante il 1950 e il 1982
  2. Il secondo articolo discute la rinascita dell’IA e i suoi risultati durante il 1983-2010
  3. Il terzo articolo discute i domini in cui i sistemi AI stanno già rivaleggiando con gli esseri umani
  4. Il quarto articolo discute l’attuale ciclo di hype nell’Intelligenza Artificiale
  5. Il quinto articolo discute su ciò che il 2018-2035 può presagire per i cervelli, menti e macchine

Introduzione

Mentre l’intelligenza artificiale (AI) è tra gli argomenti più popolari di oggi, un fatto comunemente dimenticato è che è nata nel 1950 ed è passata attraverso un ciclo di hype tra il 1956 e il 1982. Lo scopo di questo articolo è quello di evidenziare alcuni dei risultati che hanno avuto luogo durante la fase di boom di questo ciclo e spiegare ciò che ha portato alla sua fase di fallimento. Le lezioni da trarre da questo ciclo non dovrebbero essere trascurate – i suoi successi hanno formato gli archetipi per gli algoritmi di apprendimento automatico utilizzati oggi, e i suoi difetti hanno indicato i pericoli di un eccessivo entusiasmo in promettenti campi di ricerca e sviluppo.

La domanda pionieristica

Anche se i primi computer sono stati sviluppati durante la seconda guerra mondiale, ciò che sembra aver fatto veramente scattare la scintilla nel campo dell’IA è stata una domanda proposta da Alan Turing nel 1950: può una macchina imitare l’intelligenza umana? Nel suo articolo seminale, “Computing Machinery and Intelligence”, ha formulato un gioco, chiamato “imitation game”, in cui un umano, un computer e un interrogatore (umano) sono in tre stanze diverse. L’obiettivo dell’interrogatore è quello di distinguere l’umano dal computer facendo loro una serie di domande e leggendo le loro risposte scritte a macchina; l’obiettivo del computer è quello di convincere l’interrogatore che è l’umano. In un’intervista alla BBC del 1952, Turing suggerì che, entro l’anno 2000, l’interrogatore medio avrebbe avuto meno del 70% di possibilità di identificare correttamente l’umano dopo una sessione di cinque minuti.

Turing non fu l’unico a chiedere se una macchina potesse modellare la vita intelligente. Nel 1951, Marvin Minsky, uno studente laureato ispirato da precedenti ricerche di neuroscienze che indicavano che il cervello era composto da una rete elettrica di neuroni che sparavano con impulsi tutto-o-nulla, tentò di modellare computazionalmente il comportamento di un ratto. In collaborazione con lo studente laureato in fisica Dean Edmonds, ha costruito la prima macchina a rete neurale chiamata Stochastic Neural Analogy Reinforcement Computer (SNARC) . Anche se primitivo (composto da circa 300 tubi a vuoto e motori), ha avuto successo nel modellare il comportamento di un ratto in un piccolo labirinto alla ricerca di cibo.

La nozione che potrebbe essere possibile creare una macchina intelligente era davvero allettante, e ha portato a diversi sviluppi successivi. Per esempio, Arthur Samuel costruì un programma per giocare a Checkers nel 1952 che fu il primo programma di auto-apprendimento al mondo. Più tardi, nel 1955, Newell, Simon e Shaw costruirono Logic Theorist, che fu il primo programma a imitare le abilità di risoluzione dei problemi di un uomo e alla fine dimostrò 38 dei primi 52 teoremi nei Principia Mathematica di Whitehead e Russell.

L’inizio della fase del boom

Ispirato da questi successi, il giovane professore di Dartmouth John McCarthy organizzò una conferenza nel 1956 per riunire venti ricercatori pionieri e, “esplorare modi per fare una macchina che potesse ragionare come un umano, fosse capace di pensiero astratto, risoluzione di problemi e auto-miglioramento” . Fu nella sua proposta del 1955 per questa conferenza che fu coniato il termine “intelligenza artificiale” e fu in questa conferenza che l’IA ottenne la sua visione, missione e hype.

I ricercatori cominciarono presto a fare affermazioni audaci sull’incipienza di una potente intelligenza artificiale, e molti prevedevano che una macchina intelligente come un uomo sarebbe esistita in non più di una generazione. Per esempio:

  • Nel 1958, Simon e Newell dissero: “entro dieci anni un computer digitale sarà il campione mondiale di scacchi” e “entro dieci anni un computer digitale scoprirà e dimostrerà un nuovo importante teorema matematico”.
  • Nel 1961, Minsky scrisse, “entro la nostra vita le macchine potrebbero superarci nell’intelligenza generale”, e nel 1967 ribadì, “entro una generazione, sono convinto, pochi compartimenti dell’intelletto rimarranno fuori dal regno della macchina – il problema di creare ‘intelligenza artificiale’ sarà sostanzialmente risolto” .

“…entro la nostra vita le macchine potrebbero superarci nell’intelligenza generale…” – Marvin Minsky, 1961

L’AI aveva persino attirato l’attenzione di Hollywood. Nel 1968, Arthur Clarke e Stanley Kubrick produssero il film 2001: Odissea nello spazio, il cui antagonista era un computer artificialmente intelligente, HAL 9000 che esibiva creatività, senso dell’umorismo e capacità di tramare contro chiunque minacciasse la sua sopravvivenza. Questo si basava sulla convinzione di Turing, Minsky, McCarthy e molti altri che una tale macchina sarebbe esistita entro il 2000; infatti, Minsky è stato consulente per questo film e uno dei suoi personaggi, Victor Kaminski, è stato chiamato in suo onore.

Sottocampi dell’IA sono nati

Tra il 1956 e il 1982, l’entusiasmo incessante nell’IA ha portato a lavori seminali, che hanno dato vita a diversi sottocampi dell’IA che sono spiegati di seguito. Gran parte di questo lavoro ha portato ai primi prototipi della moderna teoria dell’IA.

Sistemi basati su regole

I sistemi esperti basati su regole cercano di risolvere problemi complessi implementando serie di regole “if-then-else”. Un vantaggio di tali sistemi è che le loro istruzioni (ciò che il programma dovrebbe fare quando vede “if” o “else”) sono flessibili e possono essere modificate dal codificatore, dall’utente o dal programma stesso. Tali sistemi esperti sono stati creati e utilizzati negli anni ’70 da Feigenbaum e i suoi colleghi, e molti di essi costituiscono i blocchi di base per i sistemi di IA oggi.

Apprendimento della macchina

Il campo dell’apprendimento della macchina è stato coniato da Arthur Samuel nel 1959 come “il campo di studio che dà ai computer la capacità di imparare senza essere esplicitamente programmati”. L’apprendimento automatico è un campo vasto e la sua spiegazione dettagliata va oltre lo scopo di questo articolo. Il secondo articolo di questa serie – vedi Prologo nella prima pagina e – discuterà brevemente i suoi sottocampi e le sue applicazioni. Tuttavia, di seguito diamo un esempio di un programma di apprendimento automatico, noto come rete perceptron.

“L’apprendimento automatico è il campo di studio che dà ai computer la capacità di imparare senza essere esplicitamente programmati” – Arthur Samuel, 1959

Reti di perceptron a uno e più strati

Ispirato dal lavoro di McCulloch e Pitts nel 1943 e di Hebb nel 1949, Rosenblatt nel 1957 ha introdotto la rete di perceptron come un modello artificiale di neuroni comunicanti. Questo modello è mostrato nella figura 5 e può essere brevemente descritto come segue. Uno strato di vertici, dove vengono inserite le variabili di input, è collegato a uno strato nascosto di vertici (chiamato anche perceptron), che a sua volta è collegato a uno strato di output di perceptron. Un segnale che arriva tramite una connessione da un vertice di input a un perceptron nello strato nascosto è calibrato da un “peso” associato a quella connessione, e questo peso è assegnato durante un “processo di apprendimento”. I segnali dai perceptron dello strato nascosto ai perceptron dello strato di uscita sono calibrati in modo analogo. Come un neurone umano, un perceptron “spara” se il peso totale di tutti i segnali in arrivo supera un potenziale specificato. Tuttavia, a differenza degli esseri umani, i segnali in questo modello sono trasmessi solo verso lo strato di uscita, motivo per cui queste reti sono spesso chiamate “feed-forward”. Le reti di perceptron con un solo strato nascosto di perceptron (cioè, con due strati di connessioni di bordo ponderate) sono diventate in seguito note come reti neurali artificiali “poco profonde”. Sebbene le reti superficiali avessero una potenza limitata, Rosenblatt riuscì a creare una rete di perceptron a uno strato, che chiamò Mark 1, che era in grado di riconoscere immagini di base.

Oggi, l’eccitazione riguarda le reti neurali “profonde” (due o più strati nascosti), che furono anche studiate negli anni ’60. Infatti, il primo algoritmo di apprendimento generale per le reti profonde risale al lavoro di Ivakhnenko e Lapa nel 1965 . Reti profonde come otto strati sono state considerate da Ivakhnenko nel 1971, quando ha anche fornito una tecnica per il loro addestramento.

Natural Language Processing (NLP)

Nel 1957 Chomsky ha rivoluzionato la linguistica con la grammatica universale, un sistema basato su regole per comprendere la sintassi. Questo formò il primo modello che i ricercatori potevano utilizzare per creare sistemi NLP di successo negli anni ’60, tra cui SHRDLU, un programma che lavorava con piccoli vocabolari ed era parzialmente in grado di comprendere documenti testuali in domini specifici. Durante i primi anni ’70, i ricercatori iniziarono a scrivere ontologie concettuali, che sono strutture di dati che permettono ai computer di interpretare le relazioni tra parole, frasi e concetti; queste ontologie rimangono ampiamente in uso oggi .

Riconoscimento del parlante e Speech to Text Processing

La questione se un computer potesse riconoscere il parlato fu proposta per la prima volta da un gruppo di tre ricercatori degli AT&T Bell Labs nel 1952, quando costruirono un sistema di riconoscimento di cifre isolate per un singolo parlante . Questo sistema fu notevolmente migliorato alla fine degli anni ’60, quando Reddy creò Hearsay I, un programma che aveva una bassa accuratezza ma fu uno dei primi a convertire in testo un ampio vocabolario di parlato continuo. Nel 1975, i suoi studenti Baker e Baker crearono il Dragon System, che migliorò ulteriormente Hearsay I utilizzando l’Hidden Markov Model (HMM), un modello probabilistico unificato che permetteva loro di combinare varie fonti come l’acustica, il linguaggio e la sintassi. Oggi, l’HMM rimane una struttura efficace per il riconoscimento vocale.

Image Processing and Computer Vision

Nell’estate del 1966, Minsky assunse uno studente del primo anno al MIT e gli chiese di risolvere il seguente problema: collegare una telecamera ad un computer e far descrivere alla macchina ciò che vede. Lo scopo era quello di estrarre la struttura tridimensionale dalle immagini, permettendo così ai sistemi sensoriali robotici di imitare parzialmente il sistema visivo umano. La ricerca nella visione del computer nei primi anni ’70 ha formato la base per molti algoritmi che esistono oggi, tra cui l’estrazione dei bordi dalle immagini, l’etichettatura di linee e cerchi, e la stima del movimento nei video.

Applicazioni commerciali

I progressi teorici di cui sopra hanno portato a diverse applicazioni, la maggior parte delle quali non sono state utilizzate nella pratica in quel momento, ma hanno posto le basi perché i loro derivati fossero utilizzati commercialmente in seguito. Alcune di queste applicazioni sono discusse di seguito.

Chatterbots o Chat-Bots

Tra il 1964 e il 1966, Weizenbaum creò il primo chat-bot, ELIZA, dal nome di Eliza Doolittle a cui fu insegnato a parlare correttamente nel romanzo di Bernard Shaw, Pygmalion (poi adattato nel film, My Fair Lady). ELIZA poteva effettuare conversazioni che a volte ingannavano gli utenti facendogli credere che stavano comunicando con un umano ma, come accade, ELIZA dava solo risposte standard che spesso erano senza senso. Più tardi, nel 1972, il ricercatore medico Colby creò un chatbot “paranoico”, PARRY, che era anche un programma senza senso. Ancora, in brevi giochi di imitazione, gli psichiatri non erano in grado di distinguere i vaneggiamenti di PARRY da quelli di un umano paranoico .

Robotica

Nel 1954, Devol costruì il primo robot programmabile chiamato Unimate, che fu una delle poche invenzioni di IA del suo tempo ad essere commercializzato; fu acquistato dalla General Motors nel 1961 per essere utilizzato nelle linee di assemblaggio delle automobili . Migliorando significativamente Unimate, nel 1972, i ricercatori della Waseda University costruirono il primo robot umanoide intelligente in scala reale, WABOT-1 . Anche se era quasi un giocattolo, il suo sistema di arti gli permetteva di camminare e afferrare e trasportare oggetti con le mani; il suo sistema di visione (costituito da occhi e orecchie artificiali) gli permetteva di misurare le distanze e le direzioni degli oggetti; e la sua bocca artificiale gli permetteva di conversare in giapponese. Questo portò gradualmente a un lavoro innovativo nella visione artificiale, compresa la creazione di robot che potevano impilare blocchi.

La fase del fallimento e l’inverno dell’AI

Nonostante alcuni successi, nel 1975 i programmi di AI erano in gran parte limitati a risolvere problemi rudimentali. Col senno di poi, i ricercatori si resero conto di due problemi fondamentali del loro approccio.

Potenza di calcolo limitata e costosa

Nel 1976, il supercomputer più veloce del mondo (che sarebbe costato oltre cinque milioni di dollari) era in grado di eseguire solo circa 100 milioni di istruzioni al secondo. Al contrario, lo studio di Moravec del 1976 indicava che anche le sole capacità di edge-matching e di rilevamento del movimento di una retina umana avrebbero richiesto un computer per eseguire tali istruzioni dieci volte più velocemente. Allo stesso modo, un essere umano ha circa 86 miliardi di neuroni e un trilione di sinapsi; calcoli di base utilizzando le cifre fornite in indicano che la creazione di una rete di perceptron di quelle dimensioni sarebbe costata oltre 1,6 trilioni di dollari, consumando l’intero PIL degli Stati Uniti nel 1974.

Il mistero dietro il pensiero umano

Gli scienziati non hanno capito come funziona il cervello umano e sono rimasti particolarmente ignari dei meccanismi neurologici dietro la creatività, il ragionamento e l’umorismo. La mancanza di una comprensione di ciò che precisamente i programmi di apprendimento automatico dovrebbero cercare di imitare poneva un ostacolo significativo al progresso della teoria dell’intelligenza artificiale. Infatti, negli anni ’70, gli scienziati di altri campi iniziarono persino a mettere in discussione la nozione di “imitare un cervello umano” proposta dai ricercatori di IA. Per esempio, alcuni sostenevano che se i simboli non hanno ‘significato’ per la macchina, allora la macchina non poteva essere descritta come ‘pensante’.

Alla fine divenne ovvio per i pionieri che avevano grossolanamente sottovalutato la difficoltà di creare un computer AI capace di vincere il gioco dell’imitazione. Per esempio, nel 1969, Minsky e Papert pubblicarono il libro Perceptrons, in cui indicavano le gravi limitazioni del perceptron di Rosenblatt a uno strato nascosto. Coautore di uno dei fondatori dell’intelligenza artificiale mentre attestava le carenze dei perceptron, questo libro servì come un serio deterrente verso la ricerca nelle reti neurali per quasi un decennio.

Negli anni successivi, altri ricercatori iniziarono a condividere i dubbi di Minsky nel futuro incipiente dell’IA forte. Per esempio, in una conferenza del 1977, un John McCarthy, ora molto più circospetto, notò che la creazione di una tale macchina avrebbe richiesto “scoperte concettuali”, perché “ciò che si vuole sono 1,7 Einstein e 0,3 del Progetto Manhattan, e si vogliono prima gli Einstein. Credo che ci vorranno dai cinque ai 500 anni”.

Il clamore degli anni ’50 aveva innalzato le aspettative a livelli così audaci che, quando i risultati non si materializzarono entro il 1973, i governi statunitense e britannico ritirarono i finanziamenti alla ricerca sull’IA. Anche se il governo giapponese fornì temporaneamente ulteriori finanziamenti nel 1980, divenne rapidamente disilluso alla fine degli anni ’80 e ritirò nuovamente i suoi investimenti. Questa fase di arresto (in particolare tra il 1974 e il 1982) è comunemente indicata come “l’inverno dell’IA”, in quanto fu quando la ricerca nell’intelligenza artificiale si fermò quasi completamente. Infatti, durante questo periodo e negli anni successivi, “alcuni scienziati del computer e ingegneri del software evitavano il termine intelligenza artificiale per paura di essere visti come sognatori dall’occhio selvaggio” .

“…perché quello che volete sono 1,7 Einstein e 0,3 del Progetto Manhattan, e volete prima gli Einstein. Credo che ci vorranno dai 5 ai 500 anni”. – John McCarthy, 1977

L’atteggiamento prevalente durante il periodo 1974-1982 fu molto sfortunato, poiché i pochi progressi sostanziali che ebbero luogo durante questo periodo passarono essenzialmente inosservati, e furono intrapresi sforzi significativi per ricrearli. Due di questi progressi sono i seguenti:

Il primo è la tecnica di backpropagation, che è comunemente usata oggi per addestrare in modo efficiente le reti neurali ad assegnare pesi quasi ottimali ai loro bordi. Anche se è stata introdotta da diversi ricercatori indipendentemente (ad esempio, Kelley, Bryson, Dreyfus e Ho) negli anni ’60 e implementata da Linnainmaa nel 1970, è stata principalmente ignorata. Allo stesso modo, la tesi di Werbos del 1974 che proponeva che questa tecnica potesse essere utilizzata efficacemente per l’addestramento delle reti neurali non è stata pubblicata fino al 1982, quando la fase del busto stava per finire. Nel 1986, questa tecnica è stata riscoperta da Rumelhart, Hinton e Williams, che l’hanno resa popolare mostrando la sua importanza pratica.
La seconda è la rete neurale ricorrente (RNN), che è analoga alla rete perceptron di Rosenblatt che non è feed-forward perché permette alle connessioni di andare sia verso gli strati di input che di output. Tali reti sono state proposte da Little nel 1974 come un modello biologicamente più accurato del cervello. Purtroppo, le RNN passarono inosservate fino a quando Hopfield le rese popolari nel 1982 e le migliorò ulteriormente.

Conclusione

Le caratteristiche che definiscono un ciclo di hype sono una fase di boom, quando ricercatori, sviluppatori e investitori diventano eccessivamente ottimisti e si verifica una crescita enorme, e una fase di busto, quando gli investimenti si ritirano e la crescita si riduce sostanzialmente. Dalla storia presentata in questo articolo, possiamo vedere che l’IA ha attraversato un tale ciclo durante il 1956 e il 1982.

Nata dalla visione di Turing e Minsky che una macchina potesse imitare la vita intelligente, l’IA ha ricevuto il suo nome, la sua missione e il suo hype dalla conferenza organizzata da McCarthy alla Dartmouth University nel 1956. Questo segnò l’inizio della fase di boom del ciclo di hype dell’IA. Tra il 1956 e il 1973, molti penetranti progressi teorici e pratici sono stati scoperti nel campo dell’IA, compresi i sistemi basati su regole, le reti neurali superficiali e profonde, l’elaborazione del linguaggio naturale, l’elaborazione del discorso e il riconoscimento delle immagini. Le conquiste che ebbero luogo durante questo periodo formarono gli archetipi iniziali per gli attuali sistemi di IA.

Ci fu anche una “esuberanza irrazionale” durante questa fase di boom. I pionieri dell’IA si affrettarono a fare previsioni esagerate sul futuro di forti macchine artificialmente intelligenti. Nel 1974, queste previsioni non si realizzarono e i ricercatori si resero conto che le loro promesse erano state gonfiate. A questo punto, anche gli investitori erano diventati scettici e ritirarono i finanziamenti. Questo portò ad una fase di arresto, chiamata anche l’inverno dell’IA, quando la ricerca nell’IA era lenta e persino il termine “intelligenza artificiale” veniva disprezzato. La maggior parte delle poche invenzioni durante questo periodo, come la backpropagation e le reti neurali ricorrenti, vennero largamente trascurate, e furono spesi notevoli sforzi per riscoprirle nei decenni successivi.

In generale i cicli di hype sono spade a doppio taglio, e quello esibito dall’IA tra il 1956 e il 1982 non fu diverso. Bisogna fare attenzione ad imparare da esso: i successi della sua fase di boom dovrebbero essere ricordati e apprezzati, ma il suo eccesso di entusiasmo dovrebbe essere visto con almeno un po’ di scetticismo per evitare le piene sanzioni della fase di busto. Tuttavia, come la maggior parte dei cicli di hype, i “germogli verdi” cominciano ad apparire di nuovo a metà degli anni ’80 e c’è stata una graduale rinascita della ricerca sull’AI durante il 1983 e il 2010; discuteremo questi e gli sviluppi correlati nel nostro prossimo articolo, “Resurgence of Artificial Intelligence During 1983-2010” .

I riferimenti per tutti gli articoli di questa serie possono essere trovati su www.scryanalytics.com/bibliography

Informazioni aggiuntive sulla storia dell’IA possono essere trovate in:

McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.

Russell Stuart; Norvig, Peter (2003). Intelligenza artificiale: A Modern Approach. Londra, Inghilterra: Pearson Education. ISBN 0-137-90395-2.

Bio: Dr. Alok Aggarwal, è CEO e Chief Data Scientist di Scry Analytics, Inc. In precedenza è stato all’IBM Research Yorktown Heights, ha fondato l’IBM India Research Lab ed è stato fondatore e CEO di Evalueserve che impiegava oltre 3.000 persone in tutto il mondo. Nel 2014 ha fondato Scry Analytics.

Originale. Reposted with permission.

Related

  • Deep Learning – Past, Present, and Future
  • A Brief History of Artificial Intelligence
  • Industry Predictions: Principali sviluppi di AI, Big Data, Data Science nel 2017 e tendenze per il 2018

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.