KDnuggets

Alok Aggarwal, Scry Analytics.

Minden évtizednek megvannak a maga technológiai divatszavai: a személyi számítógépek az 1980-as években, az internet és a világháló az 1990-es években, az okostelefonok és a közösségi média a 2000-es években, a mesterséges intelligencia (AI) és a gépi tanulás pedig ebben az évtizedben. A mesterséges intelligencia azonban már 67 éves, és ez az első az öt cikkből álló sorozatból, amelyben ez az első:

  1. Ez a cikk a mesterséges intelligencia kialakulását és az első hype-ciklust tárgyalja 1950 és 1982 között
  2. A második cikk a mesterséges intelligencia újjáéledését és az 1983- ban elért eredményeket tárgyalja.2010
  3. A harmadik cikk azokat a területeket tárgyalja, amelyeken a mesterséges intelligencia rendszerek már most az emberekkel vetekednek
  4. A negyedik cikk a mesterséges intelligencia jelenlegi hype-ciklusát tárgyalja
  5. Az ötödik cikk azt tárgyalja, hogy mit hozhat a 2018-2035 közötti időszak az agyak számára, elmék és gépek

Bevezetés

Míg a mesterséges intelligencia (AI) napjaink legnépszerűbb témái közé tartozik, gyakran elfelejtik, hogy valójában 1950-ben született, és 1956 és 1982 között egy hype-cikluson ment keresztül. Ennek a cikknek az a célja, hogy rávilágítson néhány olyan eredményre, amelyek e ciklus boom-fázisában születtek, és elmagyarázza, mi vezetett a bukási fázishoz. Nem szabad figyelmen kívül hagyni ennek a hype-ciklusnak a tanulságait – a sikerek a ma használt gépi tanulási algoritmusok archetípusait alkották, a hiányosságok pedig a kutatás és fejlesztés ígéretes területein a túlzott lelkesedés veszélyeit jelezték.

Az úttörő kérdés

Bár az első számítógépeket a második világháború alatt fejlesztették ki, úgy tűnik, a mesterséges intelligencia területének igazi gyújtópontja az Alan Turing által 1950-ben felvetett kérdés volt: képes-e egy gép utánozni az emberi intelligenciát? A “Computing Machinery and Intelligence” című korszakalkotó tanulmányában megfogalmazott egy játékot, az úgynevezett imitációs játékot, amelyben egy ember, egy számítógép és egy (emberi) kérdező három különböző szobában tartózkodik. A kihallgató célja, hogy megkülönböztesse az embert a számítógéptől azáltal, hogy egy sor kérdést tesz fel nekik, és elolvassa a gépelt válaszokat; a számítógép célja, hogy meggyőzze a kihallgatót, hogy ő az ember. Egy 1952-es BBC-interjúban Turing felvetette, hogy 2000-re az átlagos kihallgatónak kevesebb mint 70%-os esélye lesz arra, hogy egy ötperces ülés után helyesen azonosítja az embert .

Turing nem volt az egyetlen, aki feltette a kérdést, hogy egy gép képes-e modellezni az intelligens életet. 1951-ben Marvin Minsky, egy végzős hallgató, akit korábbi idegtudományi kutatások inspiráltak, amelyek azt mutatták, hogy az agy minden vagy semmi impulzusokkal tüzelő neuronok elektromos hálózatából áll, megpróbálta számítással modellezni egy patkány viselkedését. Dean Edmonds végzős fizikushallgatóval együttműködve megépítette az első neurális hálózati gépet, a Stochastic Neural Analogy Reinforcement Computer-t (SNARC) . Bár kezdetleges volt (körülbelül 300 vákuumcsőből és motorból állt), sikeresen modellezte egy patkány viselkedését egy kis labirintusban, amely élelmet keresett.

A gondolat, hogy lehetséges egy intelligens gépet létrehozni, valóban csábító volt, és számos későbbi fejlesztéshez vezetett. Arthur Samuel például 1952-ben készített egy dámajátékos programot, amely a világ első öntanuló programja volt. Később, 1955-ben Newell, Simon és Shaw megépítette a Logic Theorist-ot, amely az első olyan program volt, amely utánozta az emberi problémamegoldó képességeket, és végül Whitehead és Russell Principia Mathematica című művének első 52 tételéből 38-at bizonyított.

A fellendülés kezdete

A sikereken felbuzdulva a fiatal dartmouthi professzor, John McCarthy 1956-ban konferenciát szervezett, hogy összegyűjtsön húsz úttörő kutatót, és “megvizsgálja, hogyan lehetne olyan gépet készíteni, amely úgy gondolkodik, mint egy ember, képes elvont gondolkodásra, problémamegoldásra és önfejlesztésre” . Az 1955-ben erre a konferenciára tett javaslatában született meg a “mesterséges intelligencia” kifejezés, és a mesterséges intelligencia ezen a konferencián nyerte el vízióját, küldetését és hype-ját.

A kutatók hamarosan merész állításokat kezdtek tenni az erőteljes gépi intelligencia kialakulásáról, és sokan azt várták, hogy egy emberhez hasonlóan intelligens gép legfeljebb egy generáción belül létezni fog. Például:

  • 1958-ban Simon és Newell azt mondta: “tíz éven belül egy digitális számítógép lesz a sakkvilágbajnok”, és “tíz éven belül egy digitális számítógép felfedez és bizonyít egy fontos új matematikai tételt”.
  • Minsky 1961-ben azt írta, hogy “még a mi életünkben a gépek felülmúlhatnak minket az általános intelligencia terén”, 1967-ben pedig megismételte, hogy “egy generáción belül, meggyőződésem szerint, az értelem kevés területe marad kívül a gép birodalmán – a “mesterséges intelligencia” létrehozásának problémája lényegében megoldódik”.

“…még a mi életünkben a gépek felülmúlhatnak minket az általános intelligencia terén…”. – Marvin Minsky, 1961

Az AI még Hollywood figyelmét is felkeltette. Arthur Clarke és Stanley Kubrick 1968-ban készítette el a 2001: Űrodüsszeia című filmet, amelynek antagonistája egy mesterségesen intelligens számítógép, HAL 9000 volt, amely kreativitást, humorérzéket és a túlélését veszélyeztető személyek elleni cselszövés képességét mutatta. Ez Turing, Minsky, McCarthy és sokan mások azon a meggyőződésén alapult, hogy 2000-re egy ilyen gép létezni fog; Minsky egyébként a film tanácsadója volt, és a film egyik szereplőjét, Victor Kaminski-t az ő tiszteletére nevezték el.

Születnek a mesterséges intelligencia alterületei

A mesterséges intelligencia iránti töretlen lelkesedés 1956 és 1982 között korszakalkotó munkákhoz vezetett, amelyekből a mesterséges intelligencia számos alterülete született, amelyeket az alábbiakban ismertetünk. E munka nagy része a modern AI-elmélet első prototípusaihoz vezetett.

Szabályalapú rendszerek

A szabályalapú szakértői rendszerek “if-then-else” szabályok sorozatának megvalósításával próbálnak komplex problémákat megoldani. Az ilyen rendszerek egyik előnye, hogy utasításaik (mit kell tennie a programnak, ha “if” vagy “else” jelet lát) rugalmasak, és akár a kódoló, akár a felhasználó, akár maga a program módosíthatja őket. Az ilyen szakértői rendszereket az 1970-es években Feigenbaum és munkatársai hozták létre és használták, és sok közülük ma a mesterséges intelligencia rendszerek alapkövét képezi.

Gépi tanulás

A gépi tanulás területét Arthur Samuel 1959-ben alkotta meg, mint “azt a tudományterületet, amely a számítógépeket képessé teszi a tanulásra anélkül, hogy kifejezetten programoznák őket”. A gépi tanulás hatalmas terület, és részletes kifejtése meghaladja e cikk kereteit. A sorozat második cikke – lásd az Előszó az első oldalon és – röviden tárgyalja részterületeit és alkalmazásait. Az alábbiakban azonban egy példát adunk egy gépi tanulási programra, az úgynevezett perceptronhálózatra.

“A gépi tanulás az a tudományterület, amely a számítógépeket képessé teszi a tanulásra anélkül, hogy kifejezetten programoznák őket.” – Arthur Samuel, 1959

Egy- és többrétegű perceptronhálózatok

McCulloch és Pitts 1943-as és Hebb 1949-es munkája által inspirálva Rosenblatt 1957-ben bevezette a perceptronhálózatot mint a kommunikáló neuronok mesterséges modelljét. Ez a modell az 5. ábrán látható, és röviden a következőképpen írható le. Egy csúcsokból álló réteg, ahová a bemeneti változókat bevisszük, egy rejtett csúcsokból álló réteghez (más néven perceptronokhoz) kapcsolódik, amely viszont egy perceptronokból álló kimeneti réteghez kapcsolódik. Egy bemeneti csúcsból a rejtett rétegben lévő perceptronhoz egy kapcsolaton keresztül érkező jelet az adott kapcsolathoz tartozó “súly” kalibrálja, és ez a súly egy “tanulási folyamat” során kerül hozzárendelésre. A rejtett réteg perceptronjaitól a kimeneti réteg perceptronjaihoz érkező jelek kalibrálása analóg módon történik. Az emberi neuronokhoz hasonlóan a perceptron is “tüzel”, ha az összes bejövő jel összesített súlya meghalad egy meghatározott potenciált. Az emberrel ellentétben azonban ebben a modellben a jelek csak a kimeneti réteg felé továbbítódnak, ezért ezeket a hálózatokat gyakran “feed-forward”-nak nevezik. A csak egy rejtett perceptronréteggel (azaz két réteg súlyozott élkapcsolattal rendelkező réteggel) rendelkező perceptronhálózatok később “sekély” mesterséges neurális hálózatokként váltak ismertté. Bár a sekély hálózatok teljesítménye korlátozott volt, Rosenblattnak sikerült létrehoznia egy egyrétegű perceptronhálózatot, amelyet Mark 1-nek nevezett el, és amely képes volt alapvető képek felismerésére .

Most az izgalom a “mély” (két vagy több rejtett rétegű) neurális hálózatokról szól, amelyeket szintén az 1960-as években tanulmányoztak. Valóban, a mély hálózatok első általános tanulási algoritmusa Ivakhnenko és Lapa 1965-ös munkájához nyúlik vissza . A nyolc réteget is elérő mélységű hálózatokkal Ivakhnenko 1971-ben foglalkozott, amikor is bemutatott egy technikát a képzésükhöz.

Natural Language Processing (NLP)

1957-ben Chomsky forradalmasította a nyelvészetet az univerzális nyelvtannal, egy szabályalapú rendszerrel a szintaxis megértésére . Ez alkotta az első modellt, amelyet a kutatók az 1960-as években sikeres NLP rendszerek létrehozásához használhattak, beleértve a SHRDLU-t, egy olyan programot, amely kis szókészletekkel dolgozott, és részben képes volt megérteni bizonyos területek szöveges dokumentumait . Az 1970-es évek elején a kutatók elkezdtek fogalmi ontológiákat írni, amelyek olyan adatszerkezetek, amelyek lehetővé teszik a számítógépek számára a szavak, kifejezések és fogalmak közötti kapcsolatok értelmezését; ezek az ontológiák ma is széles körben használatosak .

Speaker Recognition and Speech to Text Processing

A kérdést, hogy egy számítógép képes-e felismerni a beszédet, először az AT&T Bell Labs három kutatócsoportja vetette fel 1952-ben, amikor egy rendszert építettek egyetlen beszélő elszigetelt számjegyeinek felismerésére . Ezt a rendszert az 1960-as évek végén jelentősen továbbfejlesztették, amikor Reddy megalkotta a Hearsay I-et, egy olyan programot, amely alacsony pontossággal, de az elsők között volt, amely nagy szókincsű folyamatos beszédet alakított át szöveggé. 1975-ben tanítványai, Baker és Baker létrehozták a Dragon rendszert , amely továbbfejlesztette a Hearsay I-et a Hidden Markov modell (HMM), egy egységes valószínűségi modell alkalmazásával, amely lehetővé tette számukra, hogy különböző forrásokat, például az akusztikát, a nyelvet és a szintaxist kombinálják. A HMM ma is hatékony keretrendszer a beszédfelismeréshez .

Képfeldolgozás és számítógépes látás

1966 nyarán Minsky felvett egy elsőéves egyetemi hallgatót az MIT-re, és megkérte, hogy oldja meg a következő problémát: csatlakoztasson egy televíziós kamerát egy számítógéphez, és a gép írja le, amit lát . A cél az volt, hogy a képekből háromdimenziós struktúrát nyerjenek ki, és ezáltal lehetővé tegyék, hogy a robotok érzékelő rendszerei részben utánozzák az emberi látórendszert. A számítógépes látás kutatása az 1970-es évek elején számos ma is létező algoritmus alapját képezte, beleértve az élek kivonását a képekből, a vonalak és körök címkézését és a mozgás becslését videókban .

Kereskedelmi alkalmazások

A fenti elméleti előrelépések számos alkalmazáshoz vezettek, amelyek többsége akkoriban elmaradt a gyakorlati felhasználástól, de megteremtették a terepet a későbbiekben kereskedelmi felhasználásra kerülő származékaik számára. Az alábbiakban néhány ilyen alkalmazásról lesz szó.

Chatterbotok vagy chatbotok

1964 és 1966 között Weizenbaum megalkotta az első chatbotot, az ELIZA-t, amelyet Eliza Doolittle-ről neveztek el, akit Bernard Shaw Pygmalion című regényében (amelyből később a My Fair Lady című film is készült) tanítottak meg helyesen beszélni. ELIZA képes volt olyan beszélgetéseket folytatni, amelyek néha elhitették a felhasználókkal, hogy emberrel kommunikálnak, de történetesen ELIZA csak szabványos válaszokat adott, amelyek gyakran értelmetlenek voltak. Később, 1972-ben Colby orvoskutató létrehozott egy “paranoid” chatbotot, a PARRY-t, amely szintén egy agyatlan program volt. Mégis, rövid imitációs játékokban a pszichiáterek képtelenek voltak megkülönböztetni PARRY zagyvaságait egy paranoid ember zagyvaságaitól .

Robotika

1954-ben Devol megépítette az első programozható robotot Unimate néven, amely egyike volt kora kevés mesterséges intelligencia találmányának, amelyet kereskedelmi forgalomba hoztak; 1961-ben a General Motors vásárolta meg, hogy autószerelő sorokban használja . Jelentősen továbbfejlesztve az Unimate-ot, 1972-ben a Waseda Egyetem kutatói 1972-ben megépítették a világ első teljes méretű intelligens humanoid robotját, a WABOT-1-et . Bár szinte játék volt, végtagrendszere lehetővé tette, hogy járjon és megragadja, valamint kézzel szállítsa a tárgyakat; látórendszere (amely mesterséges szemekből és fülekből állt) lehetővé tette, hogy mérje a távolságokat és a tárgyak irányát; mesterséges szája pedig lehetővé tette, hogy japánul beszélgessen. Ez fokozatosan innovatív munkához vezetett a gépi látás területén, beleértve olyan robotok létrehozását, amelyek képesek voltak blokkokat rakosgatni .

A bukási szakasz és az AI tél

Néhány siker ellenére 1975-re az AI programok nagyrészt kezdetleges problémák megoldására korlátozódtak. Utólag a kutatók két alapvető problémát ismertek fel megközelítésükkel kapcsolatban.

Korlátozott és költséges számítási teljesítmény

1976-ban a világ leggyorsabb szuperszámítógépe (amely több mint ötmillió amerikai dollárba került volna) csak körülbelül 100 millió utasítás másodpercenkénti végrehajtására volt képes. Ezzel szemben Moravec 1976-os tanulmánya azt mutatta, hogy még az emberi retinának csak az élmegfeleltetési és mozgásérzékelési képességeihez is tízszer gyorsabb számítógépre lenne szükség az ilyen utasítások végrehajtásához . Hasonlóképpen, az embernek körülbelül 86 milliárd neuronja és egybillió szinapszisa van; az alapvető számítások a megadott számokkal azt mutatják, hogy egy ilyen méretű perceptronhálózat létrehozása több mint 1,6 billió dollárba került volna, ami 1974-ben az USA teljes GDP-jét felemésztette volna.

Az emberi gondolkodás mögötti rejtély

A tudósok nem értették, hogyan működik az emberi agy, és különösen nem voltak tisztában a kreativitás, az érvelés és a humor mögött álló neurológiai mechanizmusokkal. A mesterséges intelligencia elméletének előrehaladásában jelentős akadályt jelentett, hogy nem értették, pontosan mit is kellene a gépi tanulási programoknak megpróbálniuk utánozni. Valójában az 1970-es években más területek tudósai még a mesterséges intelligencia kutatói által javasolt “emberi agy utánzásának” fogalmát is megkérdőjelezték. Egyesek például azzal érveltek, hogy ha a szimbólumoknak nincs “jelentése” a gép számára, akkor a gépet nem lehet “gondolkodónak” nevezni.

Az úttörők számára végül nyilvánvalóvá vált, hogy durván alábecsülték egy olyan mesterséges intelligenciájú számítógép létrehozásának nehézségét, amely képes megnyerni az imitációs játékot. Például 1969-ben Minsky és Papert publikálta a Perceptrons című könyvet, amelyben rámutattak Rosenblatt egyrétegű perceptronjának súlyos korlátaira. Ez a könyv, amelynek társszerzője a mesterséges intelligencia egyik alapítója volt, miközben igazolta a perceptronok hiányosságait, majdnem egy évtizedig komoly visszatartó erővel bírt a neurális hálózatok kutatásával szemben.

A következő években más kutatók is osztani kezdték Minsky kétségeit az erős mesterséges intelligencia kezdődő jövőjével kapcsolatban. Például egy 1977-es konferencián az immár sokkal körültekintőbb John McCarthy megjegyezte, hogy egy ilyen gép megalkotásához “koncepcionális áttörésekre” lenne szükség, mert “amit akarunk, az 1,7 Einstein és 0,3 a Manhattan Project, és először az Einsteineket akarjuk. Azt hiszem, ehhez öt-ötszáz év kell.”

Az 1950-es évek hype-ja olyan merész magasságokba emelte a várakozásokat, hogy amikor 1973-ig nem születtek eredmények, az amerikai és a brit kormány megvonta a mesterséges intelligencia kutatásának finanszírozását. Bár a japán kormány 1980-ban átmenetileg további támogatást nyújtott, az 1980-as évek végére gyorsan kiábrándult, és ismét visszavonta a befektetéseket. Ezt a pangási időszakot (különösen 1974 és 1982 között) szokás “mesterséges intelligencia télként” emlegetni, mivel ekkor a mesterséges intelligencia kutatása szinte teljesen leállt. Valóban, ebben az időszakban és az azt követő években “egyes informatikusok és szoftvermérnökök kerülték a mesterséges intelligencia kifejezést, mert attól tartottak, hogy vad álmodozóknak tekintik őket” .

“…mert amit akarsz, az 1,7 Einstein és 0,3 a Manhattan Project, és előbb az Einsteineket akarod. Szerintem ez öt-ötszáz évbe fog telni.” – John McCarthy, 1977

Az 1974-1982 közötti időszakban uralkodó hozzáállás rendkívül szerencsétlen volt, mivel az a néhány jelentős előrelépés, amely ebben az időszakban történt, lényegében észrevétlenül maradt, és jelentős erőfeszítéseket tettek ezek újbóli megteremtésére. Két ilyen előrelépés a következő:

Az első a backpropagation technika, amelyet ma általánosan használnak a neurális hálózatok hatékony képzésére, hogy közel optimális súlyokat rendeljenek az élekhez. Bár több kutató egymástól függetlenül (pl. Kelley, Bryson, Dreyfus és Ho) már az 1960-as években bevezette, és Linnainmaa 1970-ben megvalósította , többnyire figyelmen kívül hagyták. Hasonlóképpen, Werbos 1974-es tézisét, amely azt javasolta, hogy ezt a technikát hatékonyan lehet használni a neurális hálózatok képzésére, csak 1982-ben publikálták, amikor a bust fázis a végéhez közeledett. Ezt a technikát 1986-ban Rumelhart, Hinton és Williams fedezte fel újra, akik gyakorlati jelentőségének bemutatásával népszerűsítették .
A második a rekurrens neurális hálózat (RNN), amely analóg Rosenblatt perceptron hálózatával, amely nem feed-forward, mert lehetővé teszi, hogy a kapcsolatok a bemeneti és a kimeneti rétegek felé is menjenek. Az ilyen hálózatokat Little javasolta 1974-ben, mint az agy biológiailag pontosabb modelljét. Sajnálatos módon az RNN-ek észrevétlenek maradtak, amíg Hopfield 1982-ben népszerűsítette és továbbfejlesztette őket.

Következtetés

A hype-ciklus meghatározó jellemzői a boom fázis, amikor a kutatók, fejlesztők és befektetők túlzottan optimisták lesznek, és hatalmas növekedés következik be, és a bust fázis, amikor a befektetések visszavonulnak, és a növekedés jelentősen csökken. A cikkben bemutatott történetből láthatjuk, hogy a mesterséges intelligencia 1956 és 1982 között egy ilyen cikluson ment keresztül.

A mesterséges intelligencia Turing és Minsky azon víziójából született, hogy egy gép képes utánozni az intelligens életet, és nevét, küldetését és hype-ját a McCarthy által 1956-ban a Dartmouth Egyetemen szervezett konferenciáról kapta. Ez jelentette a mesterséges intelligencia hype-ciklusának fellendülési szakaszának kezdetét. 1956 és 1973 között számos átható elméleti és gyakorlati előrelépést fedeztek fel a mesterséges intelligencia területén, többek között szabályalapú rendszereket, sekély és mély neurális hálózatokat, természetes nyelvfeldolgozást, beszédfeldolgozást és képfelismerést. Az ebben az időszakban elért eredmények alkották a jelenlegi mesterséges intelligencia rendszerek kezdeti archetípusait.

Az, ami szintén ebben a fellendülési fázisban történt, az “irracionális túláradás” volt. A mesterséges intelligencia úttörői gyorsan túlzó jóslatokat tettek az erős mesterséges intelligenciájú gépek jövőjéről. 1974-re ezek a jóslatok nem váltak valóra, és a kutatók rájöttek, hogy ígéreteik túlzóak voltak. Ekkorra a befektetők is szkeptikusak lettek, és visszavonták a finanszírozást. Ez az AI-télnek is nevezett pangási időszakot eredményezte, amikor a mesterséges intelligencia kutatása lelassult, és még a “mesterséges intelligencia” kifejezést is elvetették. Az ebben az időszakban született néhány találmány, például a backpropagation és a rekurrens neurális hálózatok többsége nagyrészt elsikkadt, és a következő évtizedekben jelentős erőfeszítéseket kellett tenni az újrafelfedezésükre.

A hype-ciklusok általában kétélű kardok, és az 1956 és 1982 között a mesterséges intelligencia által mutatott ciklus sem volt más. Vigyázni kell arra, hogy tanuljunk belőle: a fellendülési szakasz sikereire emlékezni kell és értékelni kell, de a túlbuzgóságot legalább némi szkepticizmussal kell szemlélni, hogy elkerüljük a bukási szakasz teljes büntetését. A legtöbb hype-ciklushoz hasonlóan azonban az 1980-as évek közepén ismét megjelennek a “zöld hajtások”, és 1983 és 2010 között fokozatosan újraindult a mesterséges intelligencia kutatása; ezeket és a kapcsolódó fejleményeket a következő, “A mesterséges intelligencia újjáéledése 1983-2010 között” című cikkünkben tárgyaljuk.

A sorozat összes cikkének hivatkozásai megtalálhatók a www.scryanalytics.com/bibliography

A mesterséges intelligencia történetével kapcsolatos további információk a következőkben találhatók:

McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

Crevier Daniel (1993). AI: A mesterséges intelligencia viharos keresése. New York, NY: Basic Books. ISBN 0-465-02997-3.

Russell Stuart; Norvig, Peter (2003). Mesterséges intelligencia: A Modern Approach. London, Anglia: Pearson Education. ISBN 0-137-90395-2.

Bio: Dr. Alok Aggarwal a Scry Analytics, Inc. Korábban az IBM Research Yorktown Heightsban dolgozott, megalapította az IBM India Research Labot, valamint az Evalueserve alapítója és vezérigazgatója volt, amely világszerte több mint 3000 embert foglalkoztatott. 2014-ben alapította a Scry Analyticset.

Original. Reposzted with permission.

Related

  • Deep Learning – Past, Present, and Future
  • A brief History of Artificial Intelligence
  • Industry Predictions: A legfontosabb AI, big data, adattudományi fejlesztések 2017-ben és a 2018-as trendek

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.