KDnuggets

av Alok Aggarwal, Scry Analytics.

Varje årtionde tycks ha sina tekniska modeord: vi hade persondatorer på 1980-talet, Internet och den globala webben på 1990-talet, smarta telefoner och sociala medier på 2000-talet och artificiell intelligens och maskininlärning under detta årtionde. AI är dock 67 år gammalt och detta är den första av en serie på fem artiklar om detta:

  1. Denna artikel behandlar AI:s uppkomst och den första hype-cykeln under 1950 och 1982
  2. Den andra artikeln behandlar AI:s återupplivning och dess framgångar under 1983-2010
  3. Den tredje artikeln diskuterar de områden där AI-system redan konkurrerar med människor
  4. Den fjärde artikeln diskuterar den nuvarande hypecykeln inom artificiell intelligens
  5. Den femte artikeln diskuterar vad 2018-2035 kan innebära för hjärnor, hjärnor och maskiner

Introduktion

Samtidigt som artificiell intelligens (AI) är ett av dagens mest populära ämnen, är ett ofta bortglömt faktum att det faktiskt föddes 1950 och genomgick en hypecykel mellan 1956 och 1982. Syftet med den här artikeln är att lyfta fram några av de resultat som uppnåddes under högkonjunkturfasen av denna cykel och förklara vad som ledde till dess nedgångsfas. Man får inte glömma de lärdomar man kan dra av denna hypecykel – framgångarna utgjorde arketyperna för de algoritmer för maskininlärning som används i dag, och bristerna visade på farorna med överentusiasm inom lovande forsknings- och utvecklingsområden.

Den banbrytande frågan

Och även om de första datorerna utvecklades under andra världskriget var det som verkade vara den verkliga startskottet för AI-området en fråga som Alan Turing ställde 1950: Kan en maskin imitera mänsklig intelligens? I sin banbrytande artikel ”Computing Machinery and Intelligence” formulerade han ett spel, kallat imitationsspelet, där en människa, en dator och en (mänsklig) förhörsledare befinner sig i tre olika rum. Förhörsledarens mål är att skilja människan från datorn genom att ställa en rad frågor till dem och läsa deras maskinskrivna svar; datorns mål är att övertyga förhörsledaren om att det är människan. I en BBC-intervju 1952 föreslog Turing att år 2000 skulle den genomsnittliga förhörsledaren ha mindre än 70 procents chans att korrekt identifiera människan efter fem minuter.

Turing var inte den ende som frågade sig om en maskin kunde modellera intelligent liv. År 1951 försökte Marvin Minsky, en doktorand som inspirerats av tidigare neurovetenskaplig forskning som visade att hjärnan bestod av ett elektriskt nätverk av neuroner som avfyrade med allt-eller-inget-pulser, att beräkningsmässigt modellera beteendet hos en råtta. I samarbete med Dean Edmonds, doktorand i fysik, byggde han den första neurala nätverksmaskinen kallad Stochastic Neural Analogy Reinforcement Computer (SNARC) . Även om den var primitiv (den bestod av cirka 300 vakuumrör och motorer) lyckades den modellera en råttas beteende i en liten labyrint på jakt efter mat.

Tanken att det skulle vara möjligt att skapa en intelligent maskin var verkligen lockande, och den ledde till flera senare utvecklingar. Till exempel byggde Arthur Samuel 1952 ett program för att spela damspel som var världens första självlärande program. Senare, 1955, byggde Newell, Simon och Shaw Logic Theorist, som var det första programmet som efterliknade en människas problemlösningsförmåga och som så småningom skulle bevisa 38 av de första 52 satserna i Whiteheads och Russells Principia Mathematica .

Början av boomfasen

Inspirerad av dessa framgångar organiserade den unge Dartmouthprofessorn John McCarthy 1956 en konferens för att samla tjugo pionjärforskare och ”utforska sätt att göra en maskin som kunde resonera som en människa, som var kapabel till abstrakt tänkande, problemlösning och självförbättring” . Det var i hans förslag från 1955 till denna konferens som termen ”artificiell intelligens” myntades, och det var vid denna konferens som AI fick sin vision, sitt uppdrag och sin hype.

Forskare började snart göra djärva påståenden om den begynnande utvecklingen av en kraftfull maskinell intelligens, och många förutsåg att en maskin som var lika intelligent som en människa skulle existera inom högst en generation. Till exempel:

  • 1958 sade Simon och Newell: ”Inom tio år kommer en digital dator att bli världsmästare i schack” och ”Inom tio år kommer en digital dator att upptäcka och bevisa en viktig ny matematisk sats”.
  • 1961 skrev Minsky: ”Inom vår livstid kan maskiner överträffa oss när det gäller allmän intelligens”, och 1967 upprepade han: ”Inom en generation är jag övertygad om att få intellektuella områden kommer att förbli utanför maskinens område – problemet med att skapa ’artificiell intelligens’ kommer i stort sett att vara löst.” .

”…inom vår livstid kan maskiner överträffa oss när det gäller allmän intelligens…”. – Marvin Minsky, 1961

AI hade till och med fångat Hollywoods uppmärksamhet. År 1968 producerade Arthur Clarke och Stanley Kubrick filmen 2001: A Space Odyssey, vars antagonist var en artificiellt intelligent dator, HAL 9000, som uppvisade kreativitet, humor och förmåga att planera mot alla som hotade dess överlevnad. Detta baserades på Turings, Minskys, McCarthys och många andras övertygelse att en sådan maskin skulle existera år 2000. Minsky fungerade faktiskt som rådgivare för filmen och en av dess karaktärer, Victor Kaminski, är uppkallad efter honom.

Underområden inom artificiell intelligens föds

Mellan 1956 och 1982 ledde den oförminskade entusiasmen inom artificiell intelligens till banbrytande arbeten som gav upphov till flera underområden inom artificiell intelligens som förklaras nedan. Mycket av detta arbete ledde till de första prototyperna för den moderna teorin om AI.

Regelbaserade system

Regelbaserade expertsystem försöker lösa komplexa problem genom att implementera serier av ”om-då-så-else”-regler. En fördel med sådana system är att deras instruktioner (vad programmet skall göra när det ser ”if” eller ”else”) är flexibla och kan ändras antingen av kodaren, användaren eller programmet självt. Sådana expertsystem skapades och användes på 1970-talet av Feigenbaum och hans kollegor, och många av dem utgör grunden för AI-system i dag.

Maskininlärning

Maskininlärning myntades 1959 av Arthur Samuel som ”det forskningsområde som ger datorer förmågan att lära sig utan att vara uttryckligen programmerade” . Maskininlärning är ett stort område och en detaljerad förklaring ligger utanför ramen för den här artikeln. I den andra artikeln i denna serie – se Prolog på första sidan och – kommer vi att kortfattat diskutera dess delområden och tillämpningar. Nedan ger vi dock ett exempel på ett program för maskininlärning, det så kallade perceptronnätverket.

”Maskininlärning är det studieområde som ger datorer förmågan att lära sig utan att uttryckligen programmeras” – Arthur Samuel, 1959

Enkel- och flerskikts-perceptronnätverk

Inspirerad av McCullochs och Pitts arbete 1943 och Hebbs arbete 1949 introducerade Rosenblatt 1957 perceptronnätverket som en artificiell modell av kommunicerande neuroner . Denna modell visas i figur 5 och kan kortfattat beskrivas på följande sätt. Ett skikt med hörn, där ingångsvariablerna anges, är kopplat till ett dolt skikt med hörn (även kallade perceptroner), som i sin tur är kopplat till ett utgångsskikt med perceptroner. En signal som kommer via en anslutning från en ingångsvertikal till en perceptron i det dolda lagret kalibreras med en ”vikt” som är kopplad till den anslutningen, och denna vikt tilldelas under en ”inlärningsprocess”. Signaler från perceptroner i det dolda lagret till perceptroner i det utgående lagret kalibreras på motsvarande sätt. I likhet med en mänsklig neuron ”startar” en perceptron om den totala vikten av alla inkommande signaler överskrider en viss potential. Men till skillnad från människor överförs signalerna i den här modellen endast till utgångslagret, vilket är anledningen till att dessa nätverk ofta kallas ”feed-forward”. Perceptronnätverk med endast ett dolt lager av perceptroner (dvs. med två lager av viktade kantförbindelser) blev senare kända som ”grunda” artificiella neurala nätverk. Även om ytliga nätverk hade begränsad effekt lyckades Rosenblatt skapa ett perceptronnätverk med ett lager, som han kallade skapat Mark 1, som kunde känna igen grundläggande bilder .

I dag handlar spänningen om ”djupa” (två eller fler dolda lager) neurala nätverk, som också studerades på 1960-talet. Den första allmänna inlärningsalgoritmen för djupa nätverk går tillbaka till Ivakhnenko och Lapas arbete 1965 . Nätverk så djupa som åtta lager övervägdes av Ivakhnenko 1971, då han också tillhandahöll en teknik för att träna dem.

Natural Language Processing (NLP)

År 1957 revolutionerade Chomsky språkvetenskapen med den universella grammatiken, ett regelbaserat system för att förstå syntax. Detta utgjorde den första modellen som forskare kunde använda för att skapa framgångsrika NLP-system på 1960-talet, bland annat SHRDLU, ett program som arbetade med små vokabulärer och delvis kunde förstå textdokument inom specifika områden . Under det tidiga 1970-talet började forskare skriva konceptuella ontologier, som är datastrukturer som gör det möjligt för datorer att tolka relationer mellan ord, fraser och begrepp; dessa ontologier används fortfarande i stor utsträckning i dag .

Talarigenkänning och bearbetning av tal till text

Frågan om huruvida en dator skulle kunna känna igen tal föreslogs för första gången av en grupp på tre forskare vid AT&T Bell Labs 1952, när de byggde ett system för isolerad sifferigenkänning för en enda talare . Detta system förbättrades avsevärt i slutet av 1960-talet, när Reddy skapade Hearsay I, ett program som hade låg noggrannhet men var ett av de första som omvandlade kontinuerligt tal med stort vokabulär till text. År 1975 skapade hans studenter Baker och Baker Dragon-systemet , som ytterligare förbättrade Hearsay I genom att använda Hidden Markov Model (HMM), en enhetlig probabilistisk modell som gjorde det möjligt att kombinera olika källor som akustik, språk och syntax. Idag är HMM fortfarande en effektiv ram för taligenkänning.

Bildbehandling och datorseende

Sommaren 1966 anställde Minsky en förstaårsstudent vid MIT och bad honom lösa följande problem: koppla en tv-kamera till en dator och få maskinen att beskriva vad den ser . Målet var att extrahera tredimensionell struktur från bilder och därigenom göra det möjligt för sensoriska robotsystem att delvis efterlikna det mänskliga visuella systemet. Forskningen inom datorseende i början av 1970-talet utgjorde grunden för många algoritmer som finns idag, bland annat för att extrahera kanter från bilder, märka linjer och cirklar och uppskatta rörelser i videor .

Kommersiella tillämpningar

De ovan nämnda teoretiska framstegen ledde till flera tillämpningar, av vilka de flesta inte kunde användas i praktiken vid den tidpunkten, men som lade grunden för att deras avledda produkter senare skulle kunna användas kommersiellt. Några av dessa tillämpningar diskuteras nedan.

Chatterbots eller chattrobotar

Mellan 1964 och 1966 skapade Weizenbaum den första chattroboten, ELIZA, uppkallad efter Eliza Doolittle som lärde sig att tala ordentligt i Bernard Shaws roman Pygmalion (senare anpassad till filmen My Fair Lady). ELIZA kunde föra samtal som ibland lurade användarna att tro att de kommunicerade med en människa, men ELIZA gav bara standardsvar som ofta var meningslösa. Senare 1972 skapade den medicinska forskaren Colby en ”paranoid” chatbot, PARRY, som också var ett tanklöst program. I korta imitationsspel kunde psykiatrikerna ändå inte skilja PARRY:s svammel från en paranoid människas.

Robotik

1954 byggde Devol den första programmerbara roboten, kallad Unimate, som var en av de få uppfinningar av artificiell intelligens som kommersialiserades; den köptes av General Motors 1961 för att användas i bilmonteringslinjer. 1972 byggde forskare vid Waseda University 1972 världens första intelligenta humanoida robot i full skala, WABOT-1, och förbättrade Unimate avsevärt. Även om den nästan var en leksak kunde den tack vare sina lemmar gå och greppa samt transportera föremål med händerna; dess synsystem (bestående av konstgjorda ögon och öron) gjorde det möjligt för den att mäta avstånd och riktningar till föremål; och dess konstgjorda mun gjorde det möjligt för den att konversera på japanska. Detta ledde gradvis till innovativt arbete inom maskinseende, inklusive skapandet av robotar som kunde stapla block .

The Bust Phase and the AI Winter

Trots vissa framgångar var AI-programmen 1975 i stort sett begränsade till att lösa rudimentära problem. I efterhand insåg forskarna två grundläggande problem med sitt tillvägagångssätt.

Begränsad och kostsam datorkraft

År 1976 kunde världens snabbaste superdator (som skulle ha kostat över fem miljoner dollar) endast utföra cirka 100 miljoner instruktioner per sekund . Däremot visade Moravecs studie från 1976 att till och med den mänskliga näthinnans förmåga till kantmatchning och rörelsedetektering skulle kräva att en dator utförde sådana instruktioner tio gånger snabbare. På samma sätt har en människa cirka 86 miljarder neuroner och en biljon synapser; grundläggande beräkningar med hjälp av siffrorna i visar att skapandet av ett perceptronnätverk av den storleken skulle ha kostat över 1,6 biljoner US-dollar, vilket skulle ha förbrukat hela USA:s BNP 1974.

Mysteriet bakom det mänskliga tänkandet

Vetenskapsmännen förstod inte hur den mänskliga hjärnan fungerade och förblev särskilt omedvetna om de neurologiska mekanismerna bakom kreativitet, resonemang och humor. Bristen på förståelse för vad just maskininlärningsprogram ska försöka efterlikna utgjorde ett betydande hinder för att föra teorin om artificiell intelligens framåt. På 1970-talet började forskare inom andra områden till och med ifrågasätta den idé om att ”imitera en mänsklig hjärna” som föreslogs av AI-forskare. Vissa hävdade till exempel att om symboler inte har någon ”betydelse” för maskinen, så kan maskinen inte beskrivas som ”tänkande”.

Tidigare blev det uppenbart för pionjärerna att de hade underskattat svårigheten att skapa en AI-dator som kunde vinna imitationsspelet. Till exempel publicerade Minsky och Papert 1969 boken Perceptrons , där de pekade på allvarliga begränsningar i Rosenblatts perceptron med ett dolt lager. Denna bok, som var samförfattad av en av grundarna av artificiell intelligens samtidigt som den vittnade om bristerna hos perceptroner, fungerade som en allvarlig avskräckande faktor för forskning om neurala nätverk under nästan ett decennium .

Under de följande åren började andra forskare dela Minskys tvivel på den begynnande framtiden för stark artificiell intelligens. Vid en konferens 1977 noterade till exempel en numera mycket mer försiktig John McCarthy att skapandet av en sådan maskin skulle kräva ”konceptuella genombrott”, eftersom ”vad man vill ha är 1,7 Einsteins och 0,3 av Manhattanprojektet, och man vill ha Einsteins först”. Jag tror att det kommer att ta fem till 500 år.”

Hypen på 1950-talet hade höjt förväntningarna till så djärva höjder att när resultaten inte hade förverkligats 1973 drog de amerikanska och brittiska regeringarna in forskningsmedel för artificiell intelligens. Även om den japanska regeringen tillfälligt tillhandahöll ytterligare finansiering 1980 blev den snabbt desillusionerad i slutet av 1980-talet och drog tillbaka sina investeringar igen . Denna nedgångsfas (särskilt mellan 1974 och 1982) brukar kallas ”AI-vintern”, eftersom det var då forskningen inom artificiell intelligens nästan upphörde helt och hållet. Under denna tid och de följande åren undvek vissa datavetare och programvaruingenjörer termen artificiell intelligens av rädsla för att bli betraktade som vildsinta drömmare.

”…eftersom det man vill ha är 1,7 Einsteins och 0,3 av Manhattanprojektet, och man vill ha Einsteins först. Jag tror att det kommer att ta fem till 500 år.” – John McCarthy, 1977

Den förhärskande attityden under perioden 1974-1982 var mycket olycklig, eftersom de få betydande framsteg som skedde under denna period i huvudsak gick obemärkt förbi, och betydande ansträngningar gjordes för att återskapa dem. Två sådana framsteg är följande:

Den första är backpropagationstekniken, som idag ofta används för att effektivt träna neurala nätverk i att tilldela nästan optimala vikter till sina kanter. Även om den introducerades av flera forskare oberoende av varandra (t.ex. Kelley, Bryson, Dreyfus och Ho) på 1960-talet och genomfördes av Linnainmaa 1970 , har den huvudsakligen ignorerats. Werbos avhandling från 1974, som föreslog att denna teknik skulle kunna användas effektivt för att träna neurala nätverk, publicerades inte heller förrän 1982, när den stora fasen närmade sig sitt slut. År 1986 återupptäcktes tekniken av Rumelhart, Hinton och Williams, som populariserade den genom att visa dess praktiska betydelse.
Det andra är det återkommande neurala nätverket (RNN), som är analogt med Rosenblatts perceptronnät som inte är feed-forward eftersom det tillåter att anslutningar går till både ingångs- och utgångslager. Sådana nätverk föreslogs av Little 1974 som en mer biologiskt korrekt modell av hjärnan. Tyvärr gick RNNs obemärkt förbi tills Hopfield populariserade dem 1982 och förbättrade dem ytterligare.

Slutsats

De utmärkande egenskaperna för en hype-cykel är en högkonjunkturfas, när forskare, utvecklare och investerare blir överdrivet optimistiska och en enorm tillväxt äger rum, och en lågkonjunkturfas, när investeringarna dras tillbaka och tillväxten minskar avsevärt. Av den historia som presenteras i denna artikel kan vi se att AI genomgick en sådan cykel under 1956 och 1982.

Född ur Turings och Minskys vision om att en maskin skulle kunna imitera det intelligenta livet, fick AI sitt namn, sitt uppdrag och sin hype från den konferens som organiserades av McCarthy vid Dartmouth University 1956. Detta markerade början på högkonjunkturfasen av AI-hypecykeln. Mellan 1956 och 1973 upptäcktes många genomträngande teoretiska och praktiska framsteg inom AI, bland annat regelbaserade system, ytliga och djupa neurala nätverk, behandling av naturliga språk, talbehandling och bildigenkänning. De landvinningar som ägde rum under denna tid utgjorde de ursprungliga arketyperna för dagens AI-system.

Vad som också ägde rum under denna högkonjunkturfas var ”irrationell överdrift” . Pionjärerna inom AI var snabba med att göra överdrivna förutsägelser om framtiden för starka artificiellt intelligenta maskiner. År 1974 hade dessa förutsägelser inte infriats och forskarna insåg att deras löften hade varit uppblåsta. Vid denna tidpunkt hade även investerare blivit skeptiska och drog tillbaka sin finansiering. Detta resulterade i en lågkonjunkturfas, även kallad AI-vintern, då forskningen inom artificiell intelligens gick långsamt och till och med termen ”artificiell intelligens” avfärdades. De flesta av de få uppfinningar som gjordes under denna period, t.ex. backpropagation och återkommande neurala nätverk, gick till stor del i glömska, och stora ansträngningar gjordes för att återupptäcka dem under de följande decennierna.

I allmänhet är hypecykler dubbelsidiga svärd, och den som uppvisades av AI mellan 1956 och 1982 var inte annorlunda. Man måste vara försiktig för att dra lärdom av den: framgångarna under dess högkonjunkturfas bör komma ihåg och uppskattas, men dess överentusiasm bör betraktas med åtminstone viss skepsis för att undvika de fulla straffen från lågkonjunkturfasen. Liksom de flesta hypecykler började dock ”gröna skott” dyka upp igen i mitten av 1980-talet och det skedde en gradvis återupplivning av forskningen om artificiell intelligens under 1983 och 2010; vi kommer att diskutera dessa och relaterade utvecklingar i vår nästa artikel, ”Återupplivning av artificiell intelligens under 1983-2010” .

Referenser för alla artiklar i denna serie finns på www.scryanalytics.com/bibliography

Utvidare information om AI:s historia finns i:

McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.

Russell Stuart; Norvig, Peter (2003). Artificiell intelligens: A Modern Approach. London, England: Pearson Education. ISBN 0-137-90395-2.

Bio: Dr Alok Aggarwal är vd och datavetare på Scry Analytics, Inc. Han har tidigare arbetat på IBM Research Yorktown Heights, grundat IBM India Research Lab och varit grundare och VD för Evalueserve som sysselsatte över 3 000 personer över hela världen. År 2014 startade han Scry Analytics.

Original. Återpublicerat med tillstånd.

Relaterat

  • Djupinlärning – förr, nu och i framtiden
  • En kort historia av artificiell intelligens
  • Branschens förutsägelser: Viktigaste utvecklingen inom AI, Big Data och datavetenskap under 2017 och trender för 2018

Lämna ett svar

Din e-postadress kommer inte publiceras.