KDnuggets

De Alok Aggarwal, Scry Analytics.

Care deceniu pare să aibă cuvintele sale tehnologice la modă: am avut computere personale în anii ’80; internet și web-ul mondial în anii ’90; telefoane inteligente și social media în anii 2000; și Inteligența Artificială (AI) și Machine Learning în acest deceniu. Cu toate acestea, domeniul inteligenței artificiale are 67 de ani, iar acesta este primul dintr-o serie de cinci articole în care:

  1. Acest articol discută geneza IA și primul ciclu de hype în perioada 1950 și 1982
  2. Cel de-al doilea articol discută o revenire a IA și realizările sale în perioada 1983-2010
  3. Cel de-al treilea articol discută domeniile în care sistemele de inteligență artificială rivalizează deja cu oamenii
  4. Cel de-al patrulea articol discută despre actualul ciclu de hype în domeniul inteligenței artificiale
  5. Cel de-al cincilea articol discută cu privire la ceea ce ar putea prevesti 2018-2035 pentru creiere, mințile și mașinile

Introducere

În timp ce inteligența artificială (AI) se numără printre cele mai populare subiecte de astăzi, un fapt frecvent uitat este că aceasta s-a născut de fapt în 1950 și a trecut printr-un ciclu de hype între 1956 și 1982. Scopul acestui articol este de a evidenția unele dintre realizările care au avut loc în timpul fazei de boom a acestui ciclu și de a explica ce a dus la faza de criză a acestuia. Lecțiile care trebuie învățate din acest ciclu de hype nu trebuie trecute cu vederea – succesele sale au format arhetipurile pentru algoritmii de învățare automată utilizați astăzi, iar neajunsurile sale au indicat pericolele entuziasmului exagerat în domenii promițătoare de cercetare și dezvoltare.

Întrebarea de pionierat

Deși primele computere au fost dezvoltate în timpul celui de-al Doilea Război Mondial , ceea ce pare să fi declanșat cu adevărat domeniul IA a fost o întrebare propusă de Alan Turing în 1950 : poate o mașină să imite inteligența umană? În lucrarea sa de referință, „Computing Machinery and Intelligence”, el a formulat un joc, numit jocul de imitație, în care un om, un computer și un interogator (uman) se află în trei camere diferite. Scopul interogatorului este de a distinge omul de computer, punându-i o serie de întrebări și citindu-i răspunsurile dactilografiate; scopul computerului este de a-l convinge pe interogator că el este omul . Într-un interviu acordat BBC în 1952, Turing a sugerat că, până în anul 2000, interogatorul mediu ar avea mai puțin de 70% șanse de a identifica corect omul după o sesiune de cinci minute .

Turing nu a fost singurul care s-a întrebat dacă o mașină ar putea modela viața inteligentă. În 1951, Marvin Minsky, un student absolvent inspirat de cercetările anterioare în domeniul neuroștiințelor care indicau că creierul era compus dintr-o rețea electrică de neuroni care trag cu impulsuri de tip „totul sau nimic”, a încercat să modeleze computațional comportamentul unui șobolan. În colaborare cu studentul absolvent de fizică Dean Edmonds, a construit prima mașină cu rețea neuronală numită Stochastic Neural Analogy Reinforcement Computer (SNARC) . Deși primitivă (formată din aproximativ 300 de tuburi cu vid și motoare), aceasta a reușit să modeleze cu succes comportamentul unui șobolan într-un mic labirint în căutarea hranei.

Noțiunea că ar fi posibil să se creeze o mașină inteligentă a fost într-adevăr seducătoare și a dus la mai multe dezvoltări ulterioare. De exemplu, Arthur Samuel a construit în 1952 un program de joc de dame care a fost primul program de autoînvățare din lume . Mai târziu, în 1955, Newell, Simon și Shaw au construit Logic Theorist, care a fost primul program care a imitat abilitățile de rezolvare a problemelor unui om și care, în cele din urmă, a demonstrat 38 din primele 52 de teoreme din Principia Mathematica a lui Whitehead și Russell.

Începutul fazei de boom

Inspirat de aceste succese, tânărul profesor de la Dartmouth, John McCarthy, a organizat o conferință în 1956 pentru a aduna douăzeci de cercetători de pionierat și pentru a „explora modalități de a face o mașină care să raționeze ca un om, care să fie capabilă de gândire abstractă, de rezolvare de probleme și de autoperfecționare” . În propunerea sa din 1955 pentru această conferință a fost inventat termenul de „inteligență artificială” și a fost la această conferință unde IA și-a căpătat viziunea, misiunea și hype-ul.

Cercetătorii au început curând să facă afirmații îndrăznețe despre incipiența unei inteligențe puternice a mașinilor și mulți au anticipat că o mașină la fel de inteligentă ca un om va exista în cel mult o generație . De exemplu:

  • În 1958, Simon și Newell au spus: „în zece ani, un calculator digital va fi campionul mondial la șah” și „în zece ani, un calculator digital va descoperi și demonstra o nouă teoremă matematică importantă”.
  • În 1961, Minsky a scris: „în timpul vieții noastre, mașinile ne pot depăși în inteligența generală”, iar în 1967 a reiterat: „într-o generație, sunt convins, puține compartimente ale intelectului vor rămâne în afara domeniului mașinii – problema creării „inteligenței artificiale” va fi rezolvată în mod substanțial” .

„…în timpul vieții noastre, mașinile ne pot depăși în inteligența generală…”. – Marvin Minsky, 1961

AI a atras chiar și atenția Hollywood-ului. În 1968, Arthur Clarke și Stanley Kubrick au produs filmul 2001: O odisee spațială, al cărui antagonist era un computer inteligent artificial, HAL 9000, care prezenta creativitate, simțul umorului și capacitatea de a pune la cale un plan împotriva oricui îi amenința supraviețuirea. Acest lucru se baza pe convingerea lui Turing, Minsky, McCarthy și a multor altora că o astfel de mașină va exista până în anul 2000; de fapt, Minsky a fost consilier pentru acest film, iar unul dintre personajele sale, Victor Kaminski, a fost numit în onoarea sa.

Se nasc subdomeniile inteligenței artificiale

Între 1956 și 1982, entuziasmul nestăvilit în domeniul inteligenței artificiale a dus la lucrări seminale, care au dat naștere la mai multe subdomenii ale inteligenței artificiale, care sunt explicate mai jos. O mare parte din aceste lucrări au condus la primele prototipuri pentru teoria modernă a IA.

Sisteme bazate pe reguli

Sistemele expert bazate pe reguli încearcă să rezolve probleme complexe prin implementarea unor serii de reguli „dacă-și-apoi-și”. Un avantaj al acestor sisteme este că instrucțiunile lor (ce ar trebui să facă programul atunci când vede „if” sau „else”) sunt flexibile și pot fi modificate fie de către programator, fie de către utilizator sau de către programul însuși. Astfel de sisteme expert au fost create și utilizate în anii 1970 de către Feigenbaum și colegii săi , iar multe dintre ele constituie astăzi elementele de bază pentru sistemele de inteligență artificială.

Învățarea mașinilor

Domeniul învățării mașinilor a fost inventat de Arthur Samuel în 1959 ca fiind „domeniul de studiu care conferă calculatoarelor capacitatea de a învăța fără a fi programate în mod explicit” . Învățarea automată este un domeniu vast, iar explicarea sa detaliată depășește sfera de aplicare a acestui articol. Al doilea articol din această serie – a se vedea Prologul de pe prima pagină și – va discuta pe scurt subdomeniile și aplicațiile sale. Cu toate acestea, mai jos vom da un exemplu de program de învățare automată, cunoscut sub numele de rețea perceptron.

„Învățarea automată este domeniul de studiu care conferă calculatoarelor capacitatea de a învăța fără a fi programate în mod explicit” – Arthur Samuel, 1959

Rețele Perceptron simple și multistrat

Inspirat de lucrările lui McCulloch și Pitts în 1943 și de Hebb în 1949 , Rosenblatt a introdus în 1957 rețeaua perceptron ca model artificial de neuroni comunicanți . Acest model este prezentat în figura 5 și poate fi descris pe scurt după cum urmează. Un strat de vârfuri, în care sunt introduse variabilele de intrare, este conectat la un strat ascuns de vârfuri (numit și perceptron), care la rândul său este conectat la un strat de ieșire de perceptroni. Un semnal care vine prin intermediul unei conexiuni de la un vârf de intrare la un perceptron din stratul ascuns este calibrat printr-o „pondere” asociată cu acea conexiune, iar această pondere este atribuită în timpul unui „proces de învățare”. Semnalele de la perceptronii din stratul ascuns la perceptronii din stratul de ieșire sunt calibrate într-un mod analog. La fel ca un neuron uman, un perceptron „pornește” dacă greutatea totală a tuturor semnalelor primite depășește un potențial specificat. Cu toate acestea, spre deosebire de oameni, în acest model, semnalele sunt transmise doar către stratul de ieșire, motiv pentru care aceste rețele sunt adesea numite „feed-forward”. Rețelele de perceptroni cu un singur strat ascuns de perceptroni (adică cu două straturi de conexiuni de margine ponderate) au devenit ulterior cunoscute sub numele de rețele neuronale artificiale „superficiale”. Deși rețelele superficiale aveau o putere limitată, Rosenblatt a reușit să creeze o rețea de perceptroni cu un singur strat, pe care a numit-o creată Mark 1, care a fost capabilă să recunoască imagini de bază .

Astăzi, entuziasmul este legat de rețelele neuronale „profunde” (două sau mai multe straturi ascunse), care au fost, de asemenea, studiate în anii 1960. Într-adevăr, primul algoritm general de învățare pentru rețelele profunde datează din lucrările lui Ivakhnenko și Lapa din 1965 . Rețelele de până la opt straturi de adâncime au fost luate în considerare de Ivakhnenko în 1971, când a furnizat și o tehnică pentru antrenarea lor .

Prelucrarea limbajului natural (NLP)

În 1957 Chomsky a revoluționat lingvistica cu gramatica universală, un sistem bazat pe reguli pentru înțelegerea sintaxei . Aceasta a format primul model pe care cercetătorii l-au putut folosi pentru a crea sisteme NLP de succes în anii 1960, inclusiv SHRDLU, un program care a lucrat cu vocabulare mici și a fost parțial capabil să înțeleagă documente textuale în domenii specifice . La începutul anilor 1970, cercetătorii au început să scrie ontologii conceptuale, care sunt structuri de date care permit computerelor să interpreteze relațiile dintre cuvinte, fraze și concepte; aceste ontologii sunt utilizate pe scară largă și în prezent .

Recunoașterea vorbitorului și procesarea vorbirii în text

Întrebarea dacă un computer poate recunoaște vorbirea a fost propusă pentru prima dată de un grup de trei cercetători de la AT&T Bell Labs în 1952, când au construit un sistem de recunoaștere a cifrelor izolate pentru un singur vorbitor . Acest sistem a fost mult îmbunătățit la sfârșitul anilor 1960, când Reddy a creat Hearsay I, un program care avea o acuratețe scăzută, dar a fost unul dintre primii care a convertit în text un vocabular mare de vorbire continuă. În 1975, studenții săi Baker și Baker au creat sistemul Dragon , care a îmbunătățit și mai mult Hearsay I prin utilizarea modelului Hidden Markov Model (HMM), un model probabilistic unificat care le-a permis să combine diverse surse, cum ar fi acustica, limba și sintaxa. Astăzi, HMM rămâne un cadru eficient pentru recunoașterea vorbirii .

Prelucrarea imaginilor și viziunea computerizată

În vara anului 1966, Minsky a angajat un student în primul an de licență la MIT și i-a cerut să rezolve următoarea problemă: să conecteze o cameră de televiziune la un computer și să facă mașina să descrie ceea ce vede . Scopul era de a extrage structura tridimensională din imagini, permițând astfel sistemelor senzoriale robotice să imite parțial sistemul vizual uman. Cercetările în domeniul vederii computerizate de la începutul anilor 1970 au stat la baza multor algoritmi care există astăzi, inclusiv extragerea marginilor din imagini, etichetarea liniilor și a cercurilor și estimarea mișcării în videoclipuri .

Aplicații comerciale

Avansurile teoretice de mai sus au dus la mai multe aplicații, dintre care majoritatea nu au ajuns să fie folosite în practică la acea vreme, dar au pregătit terenul pentru ca derivatele lor să fie folosite mai târziu în scopuri comerciale. Unele dintre aceste aplicații sunt discutate mai jos.

Chatterbots sau Chat-Bots

Între 1964 și 1966, Weizenbaum a creat primul chat-bot, ELIZA, numit după Eliza Doolittle, care a fost învățată să vorbească corect în romanul lui Bernard Shaw, Pygmalion (adaptat ulterior în filmul My Fair Lady). ELIZA putea purta conversații care, uneori, îi făceau pe utilizatori să creadă că comunică cu un om, dar, din întâmplare, ELIZA nu dădea decât răspunsuri standard care, de multe ori, erau lipsite de sens . Mai târziu, în 1972, cercetătorul medical Colby a creat un chatbot „paranoic”, PARRY, care era, de asemenea, un program fără minte. Totuși, în scurte jocuri de imitație, psihiatrii nu au reușit să distingă divagațiile lui PARRY de cele ale unui om paranoic .

Robotică

În 1954, Devol a construit primul robot programabil numit, Unimate, care a fost una dintre puținele invenții de inteligență artificială din vremea sa care a fost comercializată; a fost cumpărat de General Motors în 1961 pentru a fi folosit în liniile de asamblare a automobilelor . Îmbunătățind în mod semnificativ Unimate, în 1972, cercetătorii de la Universitatea Waseda au construit primul robot umanoid inteligent la scară largă din lume, WABOT-1 . Deși era aproape o jucărie, sistemul său de membre îi permitea să meargă și să apuce, precum și să transporte obiecte cu mâinile; sistemul său de vedere (format din ochi și urechi artificiale) îi permitea să măsoare distanțele și direcțiile față de obiecte; iar gura sa artificială îi permitea să converseze în japoneză . Acest lucru a dus treptat la lucrări inovatoare în domeniul vederii automate, inclusiv la crearea de roboți care puteau stivui blocuri .

Faza de explozie și iarna IA

În ciuda unor succese, până în 1975 programele de IA erau în mare parte limitate la rezolvarea unor probleme rudimentare. Retrospectiv, cercetătorii și-au dat seama de două probleme fundamentale ale abordării lor.

Putere de calcul limitată și costisitoare

În 1976, cel mai rapid supercomputer din lume (care ar fi costat peste cinci milioane de dolari americani) era capabil să execute doar aproximativ 100 de milioane de instrucțiuni pe secundă . În schimb, studiul din 1976 al lui Moravec indica faptul că până și numai capacitățile de potrivire a marginilor și de detectare a mișcărilor ale retinei umane ar necesita un computer care să execute aceste instrucțiuni de zece ori mai repede . De asemenea, un om are aproximativ 86 de miliarde de neuroni și un trilion de sinapse; calculele de bază folosind cifrele furnizate în indică faptul că crearea unei rețele perceptron de această dimensiune ar fi costat peste 1,6 trilioane de dolari, consumând întregul PIB al SUA în 1974.

Misterul din spatele gândirii umane

Științii nu au înțeles cum funcționează creierul uman și au rămas în special inconștienți de mecanismele neurologice din spatele creativității, raționamentului și umorului. Lipsa înțelegerii a ceea ce anume ar trebui să încerce să imite programele de învățare automată a reprezentat un obstacol semnificativ în calea avansării teoriei inteligenței artificiale. De fapt, în anii 1970, oamenii de știință din alte domenii au început chiar să pună sub semnul întrebării noțiunea de „imitare a creierului uman”, propusă de cercetătorii în domeniul inteligenței artificiale. De exemplu, unii au susținut că, dacă simbolurile nu au nicio „semnificație” pentru mașină, atunci mașina nu poate fi descrisă ca fiind „gânditoare”.

În cele din urmă, a devenit evident pentru pionieri că au subestimat în mod grosolan dificultatea de a crea un computer cu inteligență artificială capabil să câștige jocul imitării. De exemplu, în 1969, Minsky și Papert au publicat cartea Perceptrons , în care au indicat limitările severe ale perceptronului cu un singur strat ascuns al lui Rosenblatt. Coautorat de unul dintre fondatorii inteligenței artificiale, atestând în același timp neajunsurile perceptronilor, această carte a servit ca un factor serios de descurajare a cercetării în domeniul rețelelor neuronale timp de aproape un deceniu .

În anii următori, alți cercetători au început să împărtășească îndoielile lui Minsky în viitorul incipient al inteligenței artificiale puternice. De exemplu, într-o conferință din 1977, un John McCarthy, acum mult mai circumspect, a remarcat că pentru a crea o astfel de mașină ar fi nevoie de „descoperiri conceptuale”, deoarece „ceea ce vrei este 1,7 Einsteini și 0,3 din Proiectul Manhattan, și îi vrei mai întâi pe Einsteini. Cred că va fi nevoie de cinci până la 500 de ani’ .

Chiar șifonarea din anii ’50 a ridicat așteptările la cote atât de îndrăznețe încât, atunci când rezultatele nu s-au materializat până în 1973, guvernele american și britanic au retras finanțarea cercetării în domeniul IA . Deși guvernul japonez a oferit temporar fonduri suplimentare în 1980, acesta a devenit rapid deziluzionat până la sfârșitul anilor 1980 și și-a retras din nou investițiile . Această fază de criză (în special între 1974 și 1982) este denumită în mod obișnuit „iarna inteligenței artificiale”, deoarece a fost perioada în care cercetarea în domeniul inteligenței artificiale s-a oprit aproape complet. Într-adevăr, în această perioadă și în anii următori, „unii oameni de știință din domeniul calculatoarelor și ingineri de software evitau termenul de inteligență artificială de teamă să nu fie văzuți ca niște visători cu ochi sălbatici” .

„…pentru că ceea ce vreți este 1,7 Einsteini și 0,3 din Proiectul Manhattan, și îi vreți mai întâi pe Einsteini. Cred că va dura între 5 și 500 de ani.” – John McCarthy, 1977

Atitudinea dominantă în perioada 1974-1982 a fost extrem de nefericită, deoarece cele câteva progrese substanțiale care au avut loc în această perioadă au trecut în esență neobservate, iar eforturi semnificative au fost depuse pentru a le recrea. Două astfel de progrese sunt următoarele:

Primul este tehnica de backpropagation, care este folosită în mod obișnuit astăzi pentru a antrena eficient rețelele neuronale în atribuirea unor ponderi aproape optime pentru marginile lor. Deși a fost introdusă de mai mulți cercetători în mod independent (de exemplu, Kelley, Bryson, Dreyfus și Ho) în anii 1960 și implementată de Linnainmaa în 1970 , a fost în principal ignorată. În mod similar, teza din 1974 a lui Werbos care propunea că această tehnică ar putea fi utilizată în mod eficient pentru antrenarea rețelelor neuronale nu a fost publicată decât în 1982, când faza de bust se apropia de sfârșit . În 1986, această tehnică a fost redescoperită de Rumelhart, Hinton și Williams, care au popularizat-o demonstrându-i semnificația practică .
Cel de-al doilea este rețeaua neuronală recurentă (RNN), care este analogă cu rețeaua perceptron a lui Rosenblatt care nu este de tip feed-forward deoarece permite conexiunilor să se îndrepte atât spre stratul de intrare cât și spre cel de ieșire. Astfel de rețele au fost propuse de Little în 1974 ca un model mai precis din punct de vedere biologic al creierului. Din păcate, RNN-urile au trecut neobservate până când Hopfield le-a popularizat în 1982 și le-a îmbunătățit în continuare .

Concluzie

Caracteristicile definitorii ale unui ciclu de hype sunt o fază de boom, când cercetătorii, dezvoltatorii și investitorii devin excesiv de optimiști și are loc o creștere enormă, și o fază de bust, când investițiile sunt retrase, iar creșterea se reduce substanțial. Din povestea prezentată în acest articol, putem vedea că IA a trecut printr-un astfel de ciclu în perioada 1956 și 1982.

Născută din viziunea lui Turing și Minsky că o mașină ar putea imita viața inteligentă, IA și-a primit numele, misiunea și hype-ul de la conferința organizată de McCarthy la Universitatea Dartmouth în 1956. Aceasta a marcat începutul fazei de boom a ciclului de hype AI. Între 1956 și 1973, au fost descoperite multe progrese teoretice și practice pătrunzătoare în domeniul IA, inclusiv sisteme bazate pe reguli, rețele neuronale superficiale și profunde, procesarea limbajului natural, procesarea vorbirii și recunoașterea imaginilor. Realizările care au avut loc în această perioadă au format arhetipurile inițiale pentru sistemele AI actuale.

Ceea ce a avut loc, de asemenea, în timpul acestei faze de boom a fost „exuberanța irațională” . Pionierii inteligenței artificiale s-au grăbit să facă predicții exagerate cu privire la viitorul mașinilor puternice și inteligente din punct de vedere artificial. Până în 1974, aceste previziuni nu s-au adeverit, iar cercetătorii și-au dat seama că promisiunile lor fuseseră umflate. Până în acest moment, investitorii au devenit și ei sceptici și au retras finanțarea. Acest lucru a dus la o fază de criză, numită și „iarna inteligenței artificiale”, în care cercetarea în domeniul inteligenței artificiale a fost lentă și chiar și termenul de „inteligență artificială” a fost respins. Cele mai multe dintre puținele invenții din această perioadă, cum ar fi backpropagation și rețelele neuronale recurente, au fost în mare parte trecute cu vederea, iar în deceniile următoare s-au depus eforturi substanțiale pentru a le redescoperi.

În general, ciclurile de hype sunt săbii cu două tăișuri, iar cel prezentat de IA între 1956 și 1982 nu a fost diferit. Trebuie avut grijă să se învețe din el: succesele fazei sale de boom ar trebui să fie amintite și apreciate, dar entuziasmul său exagerat ar trebui privit cel puțin cu un oarecare scepticism pentru a evita sancțiunile depline ale fazei de criză. Cu toate acestea, la fel ca în cazul majorității ciclurilor de hype, „lăstarii verzi” încep să apară din nou la mijlocul anilor 1980 și a avut loc o resurgență treptată a cercetării în domeniul IA în perioada 1983-2010; vom discuta aceste evoluții și altele conexe în următorul articol, „Resurgența inteligenței artificiale în perioada 1983-2010” .

Referințele pentru toate articolele din această serie pot fi găsite la www.scryanalytics.com/bibliography

Informații suplimentare despre istoria IA pot fi găsite în:

McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.

Russell Stuart; Norvig, Peter (2003). Inteligența artificială: A Modern Approach. Londra, Anglia: Pearson Education. ISBN 0-137-90395-2.

Bio: Dr. Alok Aggarwal, este CEO și Chief Data Scientist la Scry Analytics, Inc. Anterior a lucrat la IBM Research Yorktown Heights, a fondat IBM India Research Lab și a fost fondator și CEO Evalueserve, care a angajat peste 3.000 de persoane în întreaga lume. În 2014 a înființat Scry Analytics.

Original. Reluat cu permisiune.

Relații

  • Deep Learning – trecut, prezent și viitor
  • Un scurt istoric al inteligenței artificiale
  • Prediciuni pentru industrie: Principalele evoluții în materie de inteligență artificială, Big Data, știința datelor în 2017 și tendințe pentru 2018

Lasă un răspuns

Adresa ta de email nu va fi publicată.