Hvert årti synes at have sine teknologiske buzzwords: vi havde personlige computere i 1980’erne, internettet og det verdensomspændende web i 1990’erne, smartphones og sociale medier i 2000’erne og kunstig intelligens (AI) og maskinlæring i dette årti. AI-området er imidlertid 67 år gammelt, og dette er den første af en serie på fem artikler, hvori:
- Denne artikel omhandler AI’s tilblivelse og den første hype-cyklus i 1950 og 1982
- Den anden artikel omhandler en genopblomstring af AI og dens resultater i 1983-2010
- Den tredje artikel omhandler de områder, hvor AI-systemer allerede nu konkurrerer med mennesker
- Den fjerde artikel omhandler den nuværende hype-cyklus inden for kunstig intelligens
- Den femte artikel omhandler, hvad 2018-2035 kan varsle for hjerner, hjerner og maskiner
Indledning
Mens kunstig intelligens (AI) er blandt de mest populære emner i dag, er det en ofte glemt kendsgerning, at den faktisk blev født i 1950 og gennemgik en hype-cyklus mellem 1956 og 1982. Formålet med denne artikel er at fremhæve nogle af de resultater, der blev opnået i boomfasen af denne cyklus, og forklare, hvad der førte til dens bustfase. Man bør ikke overse de erfaringer, der kan drages af denne hype-cyklus – dens succeser dannede arketyperne for de algoritmer til maskinindlæring, der anvendes i dag, og dens mangler viste farerne ved overentusiasme på lovende forsknings- og udviklingsområder.
Det banebrydende spørgsmål
Og selv om de første computere blev udviklet under Anden Verdenskrig, var det, der for alvor satte gang i AI-området, et spørgsmål stillet af Alan Turing i 1950: Kan en maskine efterligne den menneskelige intelligens? I sin skelsættende artikel, “Computing Machinery and Intelligence”, formulerede han et spil, kaldet imitationsspillet, hvor et menneske, en computer og en (menneskelig) udspørger befinder sig i tre forskellige rum. Forhørslederens mål er at skelne mennesket fra computeren ved at stille dem en række spørgsmål og læse deres maskinskrevne svar; computerens mål er at overbevise forhørslederen om, at det er mennesket . I et BBC-interview fra 1952 foreslog Turing, at den gennemsnitlige forhørsleder i år 2000 ville have mindre end 70 % chance for at identificere mennesket korrekt efter en femminutters session.
Turing var ikke den eneste, der spurgte, om en maskine kunne modellere intelligent liv. I 1951 forsøgte Marvin Minsky, en kandidatstuderende, der var inspireret af tidligere neurovidenskabelig forskning, der viste, at hjernen bestod af et elektrisk netværk af neuroner, der affyrede med alt-eller-intet-impulser, at beregningsmæssigt modellere en rottes adfærd. I samarbejde med den fysikstuderende Dean Edmonds byggede han den første neurale netværksmaskine kaldet Stochastic Neural Analogy Reinforcement Computer (SNARC) . Selv om den var primitiv (den bestod af ca. 300 vakuumrør og motorer), lykkedes det den at modellere en rottes adfærd i en lille labyrint, hvor den søgte efter mad.
Den tanke, at det kunne være muligt at skabe en intelligent maskine, var virkelig lokkende, og den førte til flere efterfølgende udviklinger. For eksempel byggede Arthur Samuel i 1952 et checkerspilprogram, som var verdens første selvlærende program . Senere, i 1955, byggede Newell, Simon og Shaw Logic Theorist, som var det første program, der efterlignede et menneskes problemløsningsfærdigheder, og som i sidste ende skulle bevise 38 af de første 52 sætninger i Whitehead og Russells Principia Mathematica .
Begyndelsen af boomfasen
Inspireret af disse succeser organiserede den unge Dartmouth-professor John McCarthy en konference i 1956 for at samle tyve pionerforskere og “udforske måder at lave en maskine, der kunne ræsonnere som et menneske, var i stand til abstrakt tænkning, problemløsning og selvforbedring” . Det var i hans forslag fra 1955 til denne konference, at udtrykket “kunstig intelligens” blev opfundet, og det var på denne konference, at AI fik sin vision, mission og hype.
Forskere begyndte snart at komme med dristige påstande om den begyndende kraftfulde maskinintelligens, og mange forventede, at der ville eksistere en maskine, der var lige så intelligent som et menneske, om ikke mere end en generation . For eksempel:
- I 1958 sagde Simon og Newell: “Inden for ti år vil en digital computer være verdensmester i skak”, og “inden for ti år vil en digital computer opdage og bevise et vigtigt nyt matematisk teorem”.
- I 1961 skrev Minsky: “Inden for vores levetid kan maskinerne overgå os i generel intelligens”, og i 1967 gentog han: “Inden for en generation er jeg overbevist om, at kun få intellektområder vil forblive uden for maskinens område – problemet med at skabe ‘kunstig intelligens’ vil i væsentlig grad være løst” .
“…inden for vores levetid kan maskinerne overgå os i generel intelligens…”. – Marvin Minsky, 1961
AI havde endda fanget Hollywoods opmærksomhed. I 1968 producerede Arthur Clarke og Stanley Kubrick filmen 2001: A Space Odyssey, hvis antagonist var en kunstigt intelligent computer, HAL 9000, der udviste kreativitet, humoristisk sans og evnen til at planlægge mod enhver, der truede dens overlevelse. Dette var baseret på Turings, Minskys, McCarthys og mange andres tro på, at en sådan maskine ville eksistere i år 2000; Minsky fungerede faktisk som rådgiver for denne film, og en af dens figurer, Victor Kaminski, blev opkaldt til hans ære.
Der fødes underområder inden for AI
Mellem 1956 og 1982 førte den uformindskede entusiasme inden for AI til banebrydende arbejde, som gav anledning til flere underområder inden for AI, der forklares nedenfor. En stor del af dette arbejde førte til de første prototyper for den moderne teori om AI.
Rulebaserede systemer
Rulebaserede ekspertsystemer forsøger at løse komplekse problemer ved at gennemføre serier af “hvis-dan-selv”-regler. En fordel ved sådanne systemer er, at deres instruktioner (hvad programmet skal gøre, når det ser “if” eller “else”) er fleksible og kan ændres enten af programmøren, brugeren eller af programmet selv. Sådanne ekspertsystemer blev skabt og anvendt i 1970’erne af Feigenbaum og hans kolleger , og mange af dem udgør grundstenene for AI-systemer i dag.
Maskinindlæring
Maskinindlæringsområdet blev af Arthur Samuel i 1959 opfundet som “det forskningsområde, der giver computere evnen til at lære uden at være eksplicit programmeret” . Maskinlæring er et omfattende område, og en detaljeret forklaring af det ligger uden for rammerne af denne artikel. I den anden artikel i denne serie – se Prolog på første side og – vil der kort blive redegjort for underområderne og deres anvendelser. Nedenfor giver vi imidlertid et eksempel på et maskinlæringsprogram, kendt som perceptron-netværket.
“Machine learning is the field of study that gives computers the ability to learn without being explicitly programmed” – Arthur Samuel, 1959
Single and Multilayer Perceptron Networks
Inspireret af McCulloch og Pitts’ arbejde i 1943 og Hebbs arbejde i 1949 , introducerede Rosenblatt i 1957 perceptronnettet som en kunstig model af kommunikerende neuroner . Denne model er vist i figur 5 og kan kort beskrives på følgende måde. Et lag af hjørner, hvor inputvariabler indtastes, er forbundet med et skjult lag af hjørner (også kaldet perceptroner), som igen er forbundet med et outputlag af perceptroner. Et signal, der kommer via en forbindelse fra et input-vertex til en perceptron i det skjulte lag, kalibreres ved hjælp af en “vægt”, der er knyttet til den pågældende forbindelse, og denne vægt tildeles under en “indlæringsproces”. Signaler fra perceptroner i det skjulte lag til perceptroner i udgangslaget kalibreres på tilsvarende måde. Ligesom en menneskelig neuron “affyres” en perceptron, hvis den samlede vægt af alle indgående signaler overstiger et bestemt potentiale. I modsætning til mennesker overføres signalerne i denne model imidlertid kun til outputlaget, hvilket er grunden til, at disse netværk ofte kaldes “feed-forward”. Perceptronnetværk med kun ét skjult lag af perceptroner (dvs. med to lag af vægtede kantforbindelser) blev senere kendt som “overfladiske” kunstige neurale netværk. Selv om overfladiske netværk var begrænsede i kraft, lykkedes det Rosenblatt at skabe et perceptronnetværk med ét lag, som han kaldte skabt Mark 1, der var i stand til at genkende grundlæggende billeder .
I dag er der spænding om “dybe” (to eller flere skjulte lag) neurale netværk, som også blev undersøgt i 1960’erne. Faktisk går den første generelle indlæringsalgoritme for dybe netværk tilbage til Ivakhnenko og Lapa’s arbejde i 1965 . Netværk så dybe som otte lag blev overvejet af Ivakhnenko i 1971, hvor han også leverede en teknik til træning af dem.
Natural Language Processing (NLP)
I 1957 revolutionerede Chomsky sprogvidenskaben med universalgrammatik, et regelbaseret system til forståelse af syntaks . Dette dannede den første model, som forskere kunne bruge til at skabe succesfulde NLP-systemer i 1960’erne, herunder SHRDLU, et program, der arbejdede med små ordforråd og var delvist i stand til at forstå tekstdokumenter i specifikke domæner . I begyndelsen af 1970’erne begyndte forskerne at skrive konceptuelle ontologier, som er datastrukturer, der gør det muligt for computere at fortolke relationer mellem ord, sætninger og begreber; disse ontologier anvendes i vid udstrækning stadig i dag .
Talergenkendelse og tale til tekstbehandling
Spørgsmålet om, hvorvidt en computer kunne genkende tale, blev første gang foreslået af en gruppe på tre forskere ved AT&T Bell Labs i 1952, da de byggede et system til isoleret talegenkendelse for en enkelt taler . Dette system blev kraftigt forbedret i slutningen af 1960’erne, da Reddy skabte Hearsay I, et program, som havde lav nøjagtighed, men som var et af de første til at konvertere kontinuerlig tale med stort ordforråd til tekst. I 1975 skabte hans studerende Baker og Baker Dragon System , som forbedrede Hearsay I yderligere ved at anvende Hidden Markov Model (HMM), en forenet probabilistisk model, der gjorde det muligt for dem at kombinere forskellige kilder såsom akustik, sprog og syntaks. I dag er HMM stadig en effektiv ramme for talegenkendelse.
Billedbehandling og computervision
I sommeren 1966 ansatte Minsky en førsteårsstuderende på MIT og bad ham løse følgende problem: tilslut et tv-kamera til en computer og få maskinen til at beskrive det, den ser . Målet var at udtrække tredimensionel struktur fra billeder og derved gøre det muligt for robotternes sensoriske systemer at efterligne det menneskelige visuelle system delvist. Forskning i computervision i begyndelsen af 1970’erne dannede grundlaget for mange algoritmer, der findes i dag, herunder udtrækning af kanter fra billeder, mærkning af linjer og cirkler og vurdering af bevægelse i videoer .
Kommercielle anvendelser
De ovennævnte teoretiske fremskridt førte til adskillige anvendelser, hvoraf de fleste ikke blev brugt i praksis på det tidspunkt, men lagde grunden til, at deres afledte produkter senere blev brugt kommercielt. Nogle af disse anvendelser behandles nedenfor.
Chatterbots eller chat-bots
Mellem 1964 og 1966 skabte Weizenbaum den første chat-bot, ELIZA, opkaldt efter Eliza Doolittle, der blev lært at tale ordentligt i Bernard Shaws roman Pygmalion (senere tilpasset til filmen My Fair Lady). ELIZA kunne føre samtaler, som undertiden kunne narre brugerne til at tro, at de kommunikerede med et menneske, men ELIZA gav kun standardiserede svar, som ofte var meningsløse . Senere i 1972 skabte den medicinske forsker Colby en “paranoid” chatbot, PARRY, som også var et tankeløst program. Alligevel var psykiatere i korte efterligningsspil ikke i stand til at skelne PARRYs vrøvl fra et paranoidt menneskes.
Robotteknologi
I 1954 byggede Devol den første programmerbare robot kaldet Unimate, som var en af de få AI-opfindelser fra sin tid, der blev markedsført; den blev købt af General Motors i 1961 til brug i bilsamlebånd . I 1972 byggede forskere på Waseda University i 1972 verdens første intelligente humanoide robot i fuld skala, WABOT-1, som var en væsentlig forbedring af Unimate. Selv om det var næsten et stykke legetøj, dens lemmer system gjorde det muligt for den at gå og gribe samt transportere objekter med hænder; dens visionssystem (bestående af dens kunstige øjne og ører) gjorde det muligt for den at måle afstande og retninger til objekter; og dens kunstige mund gjorde det muligt for den at konversere på japansk. Dette førte gradvist til innovativt arbejde inden for maskinsyn, herunder skabelsen af robotter, der kunne stable blokke .
The Bust Phase and the AI Winter
På trods af visse succeser var AI-programmer i 1975 stort set begrænset til at løse rudimentære problemer. Set i bakspejlet indså forskerne to grundlæggende problemer med deres fremgangsmåde.
Begrænset og dyr beregningskraft
I 1976 var verdens hurtigste supercomputer (som ville have kostet over fem millioner amerikanske dollars) kun i stand til at udføre omkring 100 millioner instruktioner i sekundet . I modsætning hertil viste Moravecs undersøgelse fra 1976, at selv den menneskelige nethinde alene ville kræve en computer, der kunne udføre sådanne instruktioner ti gange hurtigere, hvis den skulle kunne udføre kantmatchning og bevægelsesdetektion. Ligeledes har et menneske omkring 86 milliarder neuroner og en billion synapser; grundlæggende beregninger ved hjælp af tallene i viser, at det ville have kostet over 1,6 billioner USD at skabe et perceptronnetværk af denne størrelse, hvilket ville have opbrugt hele USA’s BNP i 1974.
Mysteriet bag menneskelig tænkning
Videnskabsfolk forstod ikke, hvordan den menneskelige hjerne fungerer, og de var især uvidende om de neurologiske mekanismer bag kreativitet, ræsonnement og humor. Den manglende forståelse af, hvad maskinlæringsprogrammer præcist skulle forsøge at efterligne, udgjorde en væsentlig hindring for at komme videre med teorien om kunstig intelligens. I 1970’erne begyndte videnskabsfolk på andre områder endog at sætte spørgsmålstegn ved begrebet “efterligning af en menneskelig hjerne”, som blev foreslået af AI-forskere. F.eks. hævdede nogle, at hvis symboler ikke har nogen “betydning” for maskinen, kan maskinen ikke beskrives som “tænkende”.
Ettertid blev det klart for pionererne, at de havde undervurderet vanskelighederne ved at skabe en AI-computer, der var i stand til at vinde efterligningsspillet. I 1969 udgav Minsky og Papert f.eks. bogen Perceptrons , hvori de påpegede alvorlige begrænsninger i Rosenblatts perceptron med ét skjult lag. Denne bog, som var medforfatter af en af grundlæggerne af kunstig intelligens, og som samtidig påpegede perceptronernes mangler, fungerede som en alvorlig afskrækkende faktor for forskning i neurale netværk i næsten et årti .
I de følgende år begyndte andre forskere at dele Minskys tvivl om den begyndende fremtid for stærk kunstig intelligens. F.eks. bemærkede en nu meget mere forsigtig John McCarthy på en konference i 1977, at det ville kræve “konceptuelle gennembrud” at skabe en sådan maskine, for “det, man ønsker, er 1,7 Einsteins og 0,3 af Manhattan-projektet, og man ønsker Einsteins først. Jeg tror, at det vil tage fem til 500 år.”
Hypen i 1950’erne havde hævet forventningerne til så dristige højder, at da resultaterne ikke var kommet i hus i 1973, trak de amerikanske og britiske regeringer deres forskningsmidler til AI tilbage. Selv om den japanske regering midlertidigt ydede yderligere finansiering i 1980, blev den hurtigt desillusioneret i slutningen af 1980’erne og trak sine investeringer tilbage igen . Denne nedgangsfase (især mellem 1974 og 1982) kaldes almindeligvis “AI-vinteren”, da det var den periode, hvor forskningen i kunstig intelligens næsten ophørte helt. Faktisk ville “nogle dataloger og softwareingeniører i denne periode og i de efterfølgende år undgå udtrykket kunstig intelligens af frygt for at blive betragtet som vilde drømmere” .
“…fordi det, man vil have, er 1,7 Einsteins og 0,3 af Manhattan-projektet, og man vil have Einsteins først. Jeg tror, det vil tage fem til 500 år.” – John McCarthy, 1977
Den fremherskende holdning i perioden 1974-1982 var yderst uheldig, da de få væsentlige fremskridt, der fandt sted i denne periode, stort set gik ubemærket hen, og der blev gjort en betydelig indsats for at genskabe dem. To af disse fremskridt er følgende:
Den første er backpropagationsteknikken, som i dag almindeligvis anvendes til effektivt at træne neurale netværk i at tildele næsten optimale vægte til deres kanter. Selv om den blev indført af flere forskere uafhængigt af hinanden (f.eks. Kelley, Bryson, Dreyfus og Ho) i 1960’erne og implementeret af Linnainmaa i 1970 , blev den hovedsageligt ignoreret. Werbos’ afhandling fra 1974, der foreslog, at denne teknik kunne anvendes effektivt til træning af neurale netværk, blev heller ikke offentliggjort før 1982, da bustfasen nærmede sig sin afslutning . I 1986 blev denne teknik genopdaget af Rumelhart, Hinton og Williams, som populariserede den ved at vise dens praktiske betydning.
Det andet er det recurrent neural network (RNN), som er analogt med Rosenblatts perceptron-netværk, der ikke er feed-forward, fordi det tillader forbindelser at gå mod både input- og outputlaget. Sådanne netværk blev foreslået af Little i 1974 som en mere biologisk korrekt model af hjernen. Desværre gik RNN’erne ubemærket hen, indtil Hopfield populariserede dem i 1982 og forbedrede dem yderligere.
Slutning
De definerende kendetegn ved en hype-cyklus er en boom-fase, hvor forskere, udviklere og investorer bliver overdrevent optimistiske, og der sker en enorm vækst, og en bust-fase, hvor investeringerne trækkes tilbage, og væksten reduceres betydeligt. Af den historie, der præsenteres i denne artikel, kan vi se, at AI gennemgik en sådan cyklus i løbet af 1956 og 1982.
Født af Turings og Minskys vision om, at en maskine kunne efterligne intelligent liv, fik AI sit navn, sin mission og sin hype fra den konference, som McCarthy arrangerede på Dartmouth University i 1956. Dette markerede begyndelsen på boom-fasen af AI-hype-cyklussen. Mellem 1956 og 1973 blev der opdaget mange gennemgribende teoretiske og praktiske fremskridt inden for AI, herunder regelbaserede systemer, overfladiske og dybe neurale netværk, behandling af naturlige sprog, talebehandling og billedgenkendelse. De resultater, der blev opnået i denne periode, dannede de oprindelige arketyper for de nuværende AI-systemer.
Det, der også fandt sted i denne boomfase, var “irrationel overdådighed” . Pionererne inden for AI var hurtige til at komme med overdrevne forudsigelser om fremtiden for stærke kunstigt intelligente maskiner. I 1974 var disse forudsigelser ikke blevet til virkelighed, og forskerne indså, at deres løfter var blevet overdrevet. På dette tidspunkt var investorerne også blevet skeptiske og trak deres finansiering tilbage. Dette resulterede i en nedgangsfase, også kaldet AI-vinteren, hvor forskningen i AI gik langsomt, og hvor selv udtrykket “kunstig intelligens” blev forkastet. De fleste af de få opfindelser i denne periode, som f.eks. backpropagation og recurrent neural networks, blev stort set overset, og der blev brugt betydelige kræfter på at genopdage dem i de efterfølgende årtier.
Generelt er hypecyklusser dobbeltsidede sværd, og den, som AI udviste mellem 1956 og 1982, var ikke anderledes. Man skal være forsigtig med at tage ved lære af den: succeserne i dens boomfase bør huskes og værdsættes, men dens overentusiasme bør i det mindste betragtes med en vis skepsis for at undgå de fulde straffe fra bustfasen. Som det er tilfældet med de fleste hype-cyklusser, begyndte der imidlertid at dukke “grønne skud” op igen i midten af 1980’erne, og der var en gradvis genopblomstring af AI-forskningen i 1983 og 2010; vi vil drøfte disse og beslægtede udviklinger i vores næste artikel, “Resurgence of Artificial Intelligence During 1983-2010” .
Referencer til alle artikler i denne serie kan findes på www.scryanalytics.com/bibliography
Der kan findes yderligere oplysninger om AI’s historie i:
McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.
Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence (AI: Den tumultariske søgen efter kunstig intelligens). New York, NY: Basic Books. ISBN 0-465-02997-3.
Russell Stuart; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach. London, England: Pearson Education. ISBN 0-137-90395-2.
Bio: Dr. Alok Aggarwal er CEO og Chief Data Scientist hos Scry Analytics, Inc. Han har tidligere været ansat ved IBM Research Yorktown Heights, grundlagt IBM India Research Lab og var grundlægger og administrerende direktør for Evalueserve, som beskæftigede over 3 000 mennesker på verdensplan. I 2014 startede han Scry Analytics.
Original. Genudsendt med tilladelse.
Relateret
- Deep Learning – Past, Present, and Future
- A Brief History of Artificial Intelligence
- Industriens forudsigelser: Vigtigste udviklinger inden for AI, Big Data og datalogi i 2017 og tendenser for 2018