KDnuggets

Alok Aggarwal, Scry Analytics.

Kullakin vuosikymmenellä näyttää olevan omat teknologiset muotisanansa: 1980-luvulla oli henkilökohtaiset tietokoneet, 1990-luvulla Internet ja maailmanlaajuinen verkko, 2000-luvulla älypuhelimet ja sosiaalinen media ja tällä vuosikymmenellä tekoäly (AI) ja koneoppiminen. Tekoälyn ala on kuitenkin 67 vuotta vanha, ja tämä on ensimmäinen viidestä artikkelista koostuvasta sarjasta, jossa..:

  1. Tässä artikkelissa käsitellään tekoälyn syntyä ja ensimmäistä hype-sykliä vuosina 1950 ja 1982
  2. Toisessa artikkelissa käsitellään tekoälyn uutta nousua ja sen saavutuksia vuosina 1983-2010
  3. Kolmannessa artikkelissa käsitellään aloja, joilla tekoälyjärjestelmät jo kilpailevat ihmisten kanssa
  4. Viidennessä artikkelissa käsitellään tekoälyn nykyistä hype-sykliä
  5. Viidennessä artikkelissa pohditaan sitä, mitä vuosien 2018-2035 välisenä aikana voi olla luvassa aivoille, minds and machines

Introduction

While artificial intelligence (AI) is one of today’s most popular topics, on yleisesti unohdettu tosiasia, että tekoäly (AI) on itse asiassa syntynyt vuonna 1950, ja se kävi läpi hype-syklin vuosina 1956-1982. Tämän artikkelin tarkoituksena on tuoda esiin joitakin saavutuksia, jotka tapahtuivat tämän syklin nousuvaiheen aikana, ja selittää, mikä johti sen laskuvaiheeseen. Tästä hype-syklistä saatuja opetuksia ei pidä jättää huomiotta – sen onnistumiset muodostivat arkkityypit nykyisin käytetyille koneoppimisalgoritmeille, ja sen puutteet osoittivat liiallisen innostuksen vaarat lupaavilla tutkimus- ja kehitysaloilla.

Pioneerikysymys

Vaikka ensimmäiset tietokoneet kehitettiin toisen maailmansodan aikana, tekoälyalan todellisen sytyttimen näytti antavan Alan Turingin vuonna 1950 esittämä kysymys: voiko kone jäljitellä ihmisen älykkyyttä? Hän muotoili uraauurtavassa artikkelissaan ”Computing Machinery and Intelligence” (Tietokoneet ja älykkyys) imitaatiopeliksi kutsutun pelin, jossa ihminen, tietokone ja (ihmis)kuulustelija ovat kolmessa eri huoneessa. Kuulustelijan tavoitteena on erottaa ihminen ja tietokone toisistaan esittämällä heille joukko kysymyksiä ja lukemalla heidän kirjoitetut vastauksensa; tietokoneen tavoitteena on vakuuttaa kuulustelija siitä, että se on ihminen. BBC:n haastattelussa vuonna 1952 Turing esitti, että vuoteen 2000 mennessä keskimääräisellä kuulustelijalla olisi alle 70 prosentin mahdollisuus tunnistaa ihminen oikein viiden minuutin istunnon jälkeen .

Turing ei ollut ainoa, joka kysyi, voiko kone mallintaa älyllistä elämää. Vuonna 1951 Marvin Minsky, jatko-opiskelija, jota innoitti aiempi neurotieteellinen tutkimus, joka osoitti, että aivot koostuivat sähköisestä verkostosta, joka koostui kaikki tai ei mitään -pulsseilla laukeavista neuroneista, yritti mallintaa laskennallisesti rotan käyttäytymistä. Yhteistyössä fysiikan jatko-opiskelija Dean Edmondsin kanssa hän rakensi ensimmäisen neuroverkkokoneen nimeltä Stochastic Neural Analogy Reinforcement Computer (SNARC) . Vaikka se oli alkeellinen (se koostui noin 300 tyhjiöputkesta ja moottorista), se onnistui mallintamaan rotan käyttäytymistä pienessä labyrintissa, jossa se etsi ruokaa.

Ajatus siitä, että älykkään koneen luominen voisi olla mahdollista, oli todella houkutteleva, ja se johti useisiin myöhempiin kehitysaskeliin. Esimerkiksi Arthur Samuel rakensi vuonna 1952 tammea pelaavan ohjelman, joka oli maailman ensimmäinen itseoppiva ohjelma . Myöhemmin, vuonna 1955, Newell, Simon ja Shaw rakensivat Logic Theorist -ohjelman, joka oli ensimmäinen ohjelma, joka jäljitteli ihmisen ongelmanratkaisutaitoja ja todisti lopulta 38 Whiteheadin ja Russellin Principia Mathematican 52 ensimmäisestä lauseesta.

Buumivaiheen alku

Tästä menestyksestä innostuneena nuori Dartmouthin professori John McCarthy järjesti vuonna 1956 konferenssin, johon kokoontui kaksikymmentä uraauurtavaa tutkijaa ja jonka tarkoituksena oli ”tutkia keinoja, joilla voitaisiin tehdä kone, joka kykenisi järkeilemään ihmisen tavoin ja joka kykenisi abstraktiin ajatteluun, ongelmanratkaisuun ja itsensä parantamiseen” . Hänen vuonna 1955 tekemässään ehdotuksessa tälle konferenssille keksittiin termi ”tekoäly”, ja juuri tässä konferenssissa tekoäly sai visionsa, tehtävänsä ja hypetyksensä.

Tutkijat alkoivat pian esittää uskaliaita väitteitä tehokkaan koneälykkyyden alkamisesta, ja monet odottivat, että ihmisen kaltainen älykäs kone olisi olemassa viimeistään sukupolven kuluessa. Esimerkiksi:

  • Vuonna 1958 Simon ja Newell sanoivat: ”Kymmenen vuoden kuluessa digitaalinen tietokone on maailman shakkimestari” ja ”Kymmenen vuoden kuluessa digitaalinen tietokone löytää ja todistaa tärkeän uuden matemaattisen lauseen”.
  • Vuonna 1961 Minsky kirjoitti: ”elinaikanamme koneet voivat ylittää meidät yleisessä älykkyydessä”, ja vuonna 1967 hän toisti: ”Olen vakuuttunut siitä, että yhden sukupolven kuluessa vain harvat älykkyyden osa-alueet jäävät koneiden ulkopuolelle – ’tekoälyn’ luomisen ongelma on olennaisesti ratkaistu.” .

”…elinaikanamme koneet voivat ylittää meidät yleisessä älykkyydessä…”. – Marvin Minsky, 1961

AI oli herättänyt jopa Hollywoodin huomion. Vuonna 1968 Arthur Clarke ja Stanley Kubrick tuottivat elokuvan 2001: Avaruusodysseia, jonka antagonistina oli tekoälytietokone HAL 9000, jolla oli luovuutta, huumorintajua ja kykyä juonitella ketä tahansa vastaan, joka uhkasi sen selviytymistä. Tämä perustui Turingin, Minskyn, McCarthyn ja monien muiden uskomukseen, että tällainen kone olisi olemassa vuoteen 2000 mennessä; Minsky toimi itse asiassa elokuvan neuvonantajana, ja yksi sen hahmoista, Victor Kaminski, nimettiin hänen mukaansa.

Tekoälyn osa-alueet syntyvät

Vuosien 1956 ja 1982 välisenä aikana tekoälyyn kohdistunut hillitön innostus johti uraauurtavaan työhön, joka synnytti useita tekoälyn osa-alueita, jotka selitetään jäljempänä. Suuri osa tästä työstä johti nykyaikaisen tekoälyteorian ensimmäisiin prototyyppeihin.

Sääntöihin perustuvat järjestelmät

Sääntöihin perustuvat asiantuntijajärjestelmät pyrkivät ratkaisemaan monimutkaisia ongelmia toteuttamalla sarjoja ”if-then-else”-sääntöjä. Tällaisten järjestelmien etuna on se, että niiden ohjeet (mitä ohjelman pitäisi tehdä, kun se näkee ”if” tai ”else”) ovat joustavia ja niitä voidaan muuttaa joko koodaajan, käyttäjän tai ohjelman itsensä toimesta. Tällaisia asiantuntijajärjestelmiä loivat ja käyttivät 1970-luvulla Feigenbaum ja hänen kollegansa , ja monet niistä muodostavat nykyään tekoälyjärjestelmien perustan.

Koneellinen oppiminen

Koneellisen oppimisen (engl. machine learning) nimitti Arthur Samuel vuonna 1959 ”tutkimusalaksi, joka antaa tietokoneille kyvyn oppia ilman, että niitä ohjelmoidaan erikseen”. Koneoppiminen on laaja ala, ja sen yksityiskohtainen selittäminen ei kuulu tämän artikkelin piiriin. Sarjan toisessa artikkelissa – katso Prologi ensimmäisellä sivulla ja – käsitellään lyhyesti sen osa-alueita ja sovelluksia. Seuraavassa annetaan kuitenkin yksi esimerkki koneoppimisohjelmasta, joka tunnetaan nimellä perceptron-verkko.

”Koneoppiminen on tutkimusala, joka antaa tietokoneille kyvyn oppia ilman, että niitä ohjelmoidaan eksplisiittisesti.” – Arthur Samuel, 1959

Yksikerroksiset ja monikerroksiset perceptroniverkot

McCullochin ja Pittsin vuonna 1943 ja Hebbin vuonna 1949 tekemien töiden innoittamana Rosenblatt esitteli vuonna 1957 perceptroniverkon keinotekoisena mallina kommunikoivista neuroneista . Tämä malli on esitetty kuvassa 5, ja se voidaan kuvata lyhyesti seuraavasti. Yksi kärkikerros, johon syötettävät muuttujat syötetään, on yhdistetty kärkikerroksen piilokerrokseen (jota kutsutaan myös perceptroniksi), joka puolestaan on yhdistetty perceptronien lähtökerrokseen. Signaali, joka tulee tulopisteestä piilokerroksen perceptroniin tulevan yhteyden kautta, kalibroidaan kyseiseen yhteyteen liittyvällä ”painolla”, ja tämä paino määritetään ”oppimisprosessin” aikana. Signaalit piilokerroksen perceptroneista lähtökerroksen perceptroneihin kalibroidaan vastaavalla tavalla. Ihmisen neuronin tavoin perceptroni ”laukeaa”, jos kaikkien saapuvien signaalien kokonaispaino ylittää tietyn potentiaalin. Toisin kuin ihmisillä, tässä mallissa signaalit välittyvät kuitenkin vain ulostulokerrokseen, minkä vuoksi näitä verkkoja kutsutaan usein ”feed-forward-verkoiksi”. Perceptroniverkot, joissa on vain yksi piilotettu perceptronikerros (eli kaksi kerrosta painotettuja reunayhteyksiä), tunnettiin myöhemmin nimellä ”matalat” keinotekoiset neuroverkot. Vaikka matalien verkkojen teho oli rajallinen, Rosenblatt onnistui luomaan yksikerroksisen perceptroniverkon, jota hän kutsui nimellä created Mark 1, ja joka pystyi tunnistamaan peruskuvia .

Tänään jännitetään ”syviä” (kaksi tai useampia piilotettuja kerroksia käsittäviä) neuroverkkoja, joita tutkittiin niin ikään 1960-luvulla. Itse asiassa ensimmäinen yleinen oppimisalgoritmi syville verkoille juontaa juurensa Ivakhnenkon ja Lapan työhön vuonna 1965 . Ivakhnenko tarkasteli jopa kahdeksan kerroksen syviä verkkoja vuonna 1971, jolloin hän esitti myös tekniikan niiden kouluttamiseksi.

Luonnollisen kielen prosessointi (NLP)

Vuonna 1957 Chomsky mullisti kielitieteen universaalilla kieliopilla, sääntöpohjaisella systeemillä syntaksin ymmärtämiseksi . Tämä muodosti ensimmäisen mallin, jota tutkijat pystyivät käyttämään luodakseen menestyksekkäitä NLP-järjestelmiä 1960-luvulla, mukaan lukien SHRDLU, ohjelma, joka työskenteli pienten sanastojen kanssa ja kykeni osittain ymmärtämään tekstidokumentteja tietyillä aloilla . 1970-luvun alussa tutkijat alkoivat kirjoittaa käsiteontologioita, jotka ovat tietorakenteita, joiden avulla tietokoneet voivat tulkita sanojen, lauseiden ja käsitteiden välisiä suhteita; nämä ontologiat ovat laajalti käytössä vielä nykyäänkin .

Puhujan tunnistus ja puheen tekstinkäsittely

Kysymyksen siitä, voisiko tietokone tunnistaa puhetta, esitti ensimmäisen kerran kolmen tutkijan ryhmä AT&T Bell Labs -laboratoriossa vuonna 1952, kun he rakensivat järjestelmän, jolla pystyttiin tunnistamaan yhden puhujan yksittäisiä numeroita . Tätä järjestelmää parannettiin huomattavasti 1960-luvun lopulla, kun Reddy loi Hearsay I:n, ohjelman, jonka tarkkuus oli alhainen mutta joka oli yksi ensimmäisistä, joka pystyi muuntamaan suuren sanavaraston jatkuvaa puhetta tekstiksi. Vuonna 1975 hänen oppilaansa Baker ja Baker loivat Dragon-järjestelmän , joka paransi Hearsay I:tä entisestään käyttämällä Hidden Markov -mallia (Hidden Markov Model, HMM), yhtenäistä todennäköisyysmallia, jonka avulla he pystyivät yhdistämään eri lähteitä, kuten akustiikkaa, kieltä ja syntaksia. Nykyään HMM on edelleen tehokas puheentunnistuskehys.

Kuvankäsittely ja tietokonenäkö

Kesällä 1966 Minsky palkkasi MIT:n ensimmäisen vuoden opiskelijan ja pyysi häntä ratkaisemaan seuraavan ongelman: kytke televisiokamera tietokoneeseen ja laita kone kuvaamaan, mitä se näkee . Tavoitteena oli poimia kuvista kolmiulotteinen rakenne, jolloin robottiaistijärjestelmät voisivat osittain jäljitellä ihmisen näköjärjestelmää. Tietokonenäön tutkimus 1970-luvun alussa muodosti perustan monille nykyisin käytössä oleville algoritmeille, kuten reunojen poimimiselle kuvista, viivojen ja ympyröiden merkitsemiselle ja liikkeen arvioimiselle videoissa .

Kaupalliset sovellukset

Yllämainitut teoreettiset edistysaskeleet johtivat useisiin sovelluksiin, joista useimmat jäivät tuohon aikaan vaille käytännön käyttöä, mutta loivat pohjan niiden johdannaisten myöhemmälle kaupalliselle käytölle. Joitakin näistä sovelluksista käsitellään jäljempänä.

Chatterbotit eli chat-robotit

Vuosien 1964 ja 1966 välillä Weizenbaum loi ensimmäisen chat-robotin, ELIZA:n, joka sai nimensä Eliza Doolittlen mukaan, joka opetettiin puhumaan kunnolla Bernard Shaw’n romaanissa Pygmalion (joka myöhemmin sovitettiin elokuvaksi My Fair Lady). ELIZA pystyi käymään keskusteluja, jotka joskus uskottelivat käyttäjille, että he kommunikoivat ihmisen kanssa, mutta ELIZA antoi vain vakiovastauksia, jotka olivat usein merkityksettömiä. Myöhemmin vuonna 1972 lääketieteen tutkija Colby loi ”vainoharhaisen” chatbotin, PARRYn, joka oli myös aivoton ohjelma. Silti lyhyissä jäljittelypeleissä psykiatrit eivät kyenneet erottamaan PARRYn höpinöitä vainoharhaisen ihmisen höpinöistä .

Robotiikka

Vuonna 1954 Devol rakensi ensimmäisen ohjelmoitavan robotin nimeltä Unimate, joka oli yksi harvoista tekoälyn keksinnöistä, jotka kaupallistettiin aikanaan; General Motors osti sen vuonna 1961 käytettäväksi autojen kokoonpanolinjoilla . Unimatea huomattavasti parantaen Wasedan yliopiston tutkijat rakensivat vuonna 1972 maailman ensimmäisen täysimittaisen älykkään humanoidirobotin, WABOT-1:n . Vaikka se oli lähes lelu, sen raajajärjestelmä mahdollisti kävelyn ja tarttumisen sekä esineiden kuljettamisen käsillä; sen näköjärjestelmä (joka koostui sen keinotekoisista silmistä ja korvista) mahdollisti etäisyyksien ja suuntien mittaamisen kohteisiin; ja sen keinotekoinen suu mahdollisti japaninkielisen keskustelun. Tämä johti vähitellen innovatiiviseen työhön konenäön alalla, mukaan lukien sellaisten robottien luominen, jotka pystyivät pinoamaan palikoita .

Bust-vaihe ja tekoälyn talvi

Joidenkin onnistumisten lisäksi tekoälyohjelmat rajoittuivat vuoteen 1975 mennessä pitkälti alkeellisten ongelmien ratkaisemiseen. Jälkikäteen tutkijat ymmärsivät kaksi perustavanlaatuista ongelmaa lähestymistapaansa.

Rajallinen ja kallis laskentateho

Vuonna 1976 maailman nopein supertietokone (joka olisi maksanut yli viisi miljoonaa Yhdysvaltain dollaria) pystyi suorittamaan vain noin 100 miljoonaa ohjetta sekunnissa . Sitä vastoin Moravecin vuonna 1976 tekemä tutkimus osoitti, että jopa pelkästään ihmisen verkkokalvon reunojen ja liikkeen havaitsemisominaisuudet vaatisivat tietokoneen suorittamaan tällaiset ohjeet kymmenen kertaa nopeammin . Vastaavasti ihmisellä on noin 86 miljardia neuronia ja biljoona synapsia; peruslaskelmat käyttäen luvut osoittavat, että tuon kokoisen perceptron-verkon luominen olisi maksanut yli 1,6 biljoonaa Yhdysvaltain dollaria, mikä olisi kuluttanut koko Yhdysvaltain BKT:n vuonna 1974.

Ihmisajattelun mysteeri

Tiedemiehet eivät ymmärtäneet, miten ihmisaivot toimivat, ja he olivat edelleen erityisen tietämättömiä luovuuden, päättelykyvyn ja huumorintajun taustalla vaikuttavista neurologisista mekanismeista. Ymmärryksen puute siitä, mitä nimenomaan koneoppimisohjelmien pitäisi yrittää jäljitellä, muodosti merkittävän esteen tekoälyteorian eteenpäin viemiselle. Itse asiassa 1970-luvulla muiden alojen tutkijat alkoivat jopa kyseenalaistaa tekoälytutkijoiden ehdottaman käsitteen ”jäljitellä ihmisaivoja”. Jotkut esimerkiksi väittivät, että jos symboleilla ei ole ”merkitystä” koneelle, konetta ei voi kuvata ”ajattelevaksi”.

Lopulta pioneereille kävi selväksi, että he olivat törkeästi aliarvioineet vaikeuden luoda tekoälytietokone, joka kykenisi voittamaan jäljittelypelin. Esimerkiksi vuonna 1969 Minsky ja Papert julkaisivat kirjan Perceptrons , jossa he osoittivat Rosenblattin yhden piilokerroksen perceptronin vakavat rajoitukset. Tämä kirja, jonka yksi tekoälyn perustajista on kirjoittanut ja joka samalla todisti perceptronien puutteet, toimi vakavana esteenä neuroverkkojen tutkimukselle lähes vuosikymmenen ajan.

Seuraavina vuosina muut tutkijat alkoivat jakaa Minskyn epäilyt vahvan tekoälyn alkavasta tulevaisuudesta. Esimerkiksi vuonna 1977 pidetyssä konferenssissa nyt paljon varovaisempi John McCarthy totesi, että tällaisen koneen luominen edellyttäisi ”käsitteellisiä läpimurtoja”, koska ”halutaan 1,7 Einsteiniä ja 0,3 Manhattanin projektia, ja Einsteinit halutaan ensin. Uskon, että siihen menee viidestä 500 vuoteen.”

Viisikymmentäluvun hype oli nostanut odotukset niin uhkarohkeisiin korkeuksiin, että kun tulokset eivät toteutuneet vuoteen 1973 mennessä, Yhdysvaltain ja Ison-Britannian hallitukset lopettivat tekoälyn tutkimusrahoituksen. Vaikka Japanin hallitus myönsi väliaikaisesti lisärahoitusta vuonna 1980, se pettyi nopeasti 1980-luvun loppupuolella ja veti investointinsa takaisin . Tätä taantumavaihetta (erityisesti vuosina 1974-1982) kutsutaan yleisesti ”tekoälytalveksi”, koska tekoälytutkimus pysähtyi silloin lähes kokonaan. Tänä aikana ja sitä seuraavina vuosina ”jotkut tietojenkäsittelytieteilijät ja ohjelmistoinsinöörit todellakin välttelivät termiä tekoäly, koska pelkäsivät, että heitä pidettäisiin villiintyneinä uneksijoina” .

”…koska halutaan 1,7 Einsteiniä ja 0,3 Manhattanin projektista, ja halutaan Einsteinit ensin. Uskon, että siihen menee viidestä 500 vuoteen.” – John McCarthy, 1977

Ajanjaksolla 1974-1982 vallinnut asenne oli erittäin valitettava, sillä ne harvat merkittävät edistysaskeleet, joita tuona aikana tapahtui, jäivät pohjimmiltaan huomaamatta, ja huomattavia ponnisteluja tehtiin niiden uudelleenluomiseksi. Kaksi tällaista edistysaskelta ovat seuraavat:

Ensimmäinen on backpropagation-tekniikka, jota käytetään nykyään yleisesti kouluttamaan tehokkaasti neuroverkkoja antamaan lähes optimaalisia painoja niiden reunoille. Vaikka useat tutkijat esittivät sen itsenäisesti (esim. Kelley, Bryson, Dreyfus ja Ho) 1960-luvulla ja Linnainmaa toteutti sen vuonna 1970 , se jäi pääasiassa huomiotta. Vastaavasti Werbosin vuonna 1974 tekemä väitöskirja, jossa ehdotettiin, että tätä tekniikkaa voitaisiin käyttää tehokkaasti neuroverkkojen kouluttamiseen, julkaistiin vasta vuonna 1982, kun rintamavaihe oli päättymässä. Vuonna 1986 tämän tekniikan löysivät uudelleen Rumelhart, Hinton ja Williams, jotka popularisoivat sitä osoittamalla sen käytännön merkityksen .
Toinen on rekursiivinen neuroverkko (recurrent neural network, RNN), joka vastaa Rosenblattin perceptron-verkkoa, joka ei ole feed-forward, koska se sallii yhteyksien mennä sekä tulo- että lähtökerroksiin. Little ehdotti tällaisia verkkoja vuonna 1974 biologisesti tarkemmaksi malliksi aivoista. Valitettavasti RNN:t jäivät huomaamatta, kunnes Hopfield popularisoi ne vuonna 1982 ja paransi niitä edelleen .

Johtopäätökset

Hypetyssyklin tunnusmerkkejä ovat nousuvaihe, jolloin tutkijat, kehittäjät ja sijoittajat ovat liian optimistisia ja kasvu on valtavaa, ja laskuvaihe, jolloin investoinnit lopetetaan ja kasvu hidastuu huomattavasti. Tässä artikkelissa esitellystä tarinasta näemme, että tekoäly kävi läpi tällaisen syklin vuosina 1956-1982.

Turingin ja Minskyn visiosta, jonka mukaan kone voisi jäljitellä älykästä elämää, syntynyt tekoäly sai nimensä, tehtävänsä ja hypetyksensä McCarthyn Dartmouthin yliopistossa vuonna 1956 järjestämästä konferenssista. Siitä alkoi tekoälyn hypetyssyklin nousuvaihe. Vuosien 1956 ja 1973 välisenä aikana tekoälyn alalla havaittiin monia merkittäviä teoreettisia ja käytännöllisiä edistysaskeleita, kuten sääntöpohjaiset järjestelmät, matalat ja syvät neuroverkot, luonnollisen kielen käsittely, puheen käsittely ja kuvantunnistus. Tänä aikana tapahtuneet saavutukset muodostivat nykyisten tekoälyjärjestelmien alkuperäiset arkkityypit.

Tämän buumivaiheen aikana tapahtui myös ”irrationaalista ylenpalttisuutta”. Tekoälyn pioneerit tekivät nopeasti liioiteltuja ennusteita vahvojen tekoälykoneiden tulevaisuudesta. Vuoteen 1974 mennessä nämä ennusteet eivät toteutuneet, ja tutkijat huomasivat, että heidän lupauksensa olivat liioiteltuja. Tässä vaiheessa myös sijoittajat olivat tulleet epäileviksi ja vetäytyivät rahoituksesta. Tämä johti taantumavaiheeseen, jota kutsuttiin myös tekoälytalveksi, jolloin tekoälytutkimus oli hidasta ja jopa termiä ”tekoäly” torjuttiin. Suurin osa tämän ajanjakson harvoista keksinnöistä, kuten takaisinkulkeutuminen ja rekursiiviset neuroverkot, jäivät suurelta osin huomiotta, ja niiden uudelleen löytämiseen käytettiin huomattavia ponnisteluja myöhempinä vuosikymmeninä.

Yleisesti ottaen hype-syklit ovat kaksipuoleisia miekkoja, eikä tekoälyn vuosina 1956-1982 kokema hype-sykli ollut erilainen. Siitä on otettava opiksi: sen nousuvaiheen onnistumiset on muistettava ja niitä on arvostettava, mutta sen yli-innokkuuteen on suhtauduttava vähintäänkin skeptisesti, jotta vältyttäisiin romahdusvaiheen täysiltä rangaistuksilta. Kuten useimmissa hype-sykleissä, ”vihreitä versoja” alkoi kuitenkin jälleen näkyä 1980-luvun puolivälissä, ja tekoälytutkimus elpyi asteittain vuosina 1983-2010; käsittelemme näitä ja niihin liittyviä kehityskulkuja seuraavassa artikkelissamme ”Resurgence of Artificial Intelligence During 1983-2010” .

Viitteet kaikkiin tämän sarjan artikkeleihin löytyvät osoitteesta www.scryanalytics.com/bibliography

Lisätietoa tekoälyn historiasta löytyy:

McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.

Russell Stuart; Norvig, Peter (2003). Tekoäly: A Modern Approach. Lontoo, Englanti: Pearson Education. ISBN 0-137-90395-2.

Bio: Alok Aggarwal on Scry Analytics, Inc:n toimitusjohtaja ja johtava datatutkija. Hän työskenteli aiemmin IBM Research Yorktown Heightsissa, perusti IBM India Research Labin ja oli Evalueserven perustaja ja toimitusjohtaja, joka työllisti yli 3000 henkilöä maailmanlaajuisesti. Vuonna 2014 hän perusti Scry Analyticsin.

Original. Reposted with permission.

Related

  • Deep Learning – Past, Present, and Future
  • A Brief History of Artificial Intelligence
  • Industry Predictions: Tärkeimmät tekoälyn, big datan ja datatieteen kehityssuuntaukset vuonna 2017 ja vuoden 2018 trendit

Vastaa

Sähköpostiosoitettasi ei julkaista.