KDnuggets

Alok Aggarwal, Scry Analytics.

Každé desetiletí má svá technologická módní slova: v 80. letech jsme měli osobní počítače, v 90. letech internet a celosvětovou síť, v roce 2000 chytré telefony a sociální média a v tomto desetiletí umělou inteligenci a strojové učení. Oblast umělé inteligence je však stará 67 let a toto je první ze série pěti článků, v nichž:

  1. Tento článek pojednává o genezi umělé inteligence a prvním hype cyklu v letech 1950 a 1982
  2. Druhý článek pojednává o oživení umělé inteligence a jejích úspěších v letech 1983-2010
  3. Třetí článek pojednává o oblastech, v nichž systémy umělé inteligence již konkurují lidem
  4. Čtvrtý článek pojednává o současném hype cyklu umělé inteligence
  5. Pátý článek pojednává o tom, co může pro mozky znamenat období 2018-2035, mysl a stroje

Úvod

Ačkoli umělá inteligence (AI) patří k nejpopulárnějším tématům dneška, často se zapomíná na skutečnost, že se ve skutečnosti zrodila v roce 1950 a v letech 1956 až 1982 prošla hype cyklem. Cílem tohoto článku je upozornit na některé úspěchy, k nimž došlo během fáze rozmachu tohoto cyklu, a vysvětlit, co vedlo k jeho fázi propadu. Poučení z tohoto hype cyklu by nemělo být přehlíženo – jeho úspěchy vytvořily archetypy pro dnes používané algoritmy strojového učení a jeho nedostatky poukázaly na nebezpečí přehnaného nadšení v nadějných oblastech výzkumu a vývoje.

Průkopnická otázka

Ačkoli první počítače byly vyvinuty během druhé světové války , tím, co zřejmě skutečně zažehlo obor umělé inteligence, byla otázka navržená Alanem Turingem v roce 1950 : Může stroj napodobit lidskou inteligenci? Ve svém zásadním článku „Počítačové stroje a inteligence“ formuloval hru nazvanou imitační hra, v níž se člověk, počítač a (lidský) tazatel nacházejí ve třech různých místnostech. Cílem tazatele je rozlišit člověka od počítače tím, že mu položí sérii otázek a přečte jeho odpovědi napsané na stroji; cílem počítače je přesvědčit tazatele, že je to člověk . V rozhovoru pro BBC v roce 1952 Turing naznačil, že v roce 2000 bude mít průměrný tazatel po pětiminutovém sezení méně než 70% šanci správně identifikovat člověka .

Turing nebyl jediný, kdo si položil otázku, zda stroj může modelovat inteligentní život. V roce 1951 se Marvin Minsky, postgraduální student inspirovaný dřívějším neurovědeckým výzkumem, který naznačoval, že mozek se skládá z elektrické sítě neuronů střílejících impulsy typu „všechno nebo nic“, pokusil výpočetně modelovat chování krysy. Ve spolupráci se studentem fyziky Deanem Edmondsem sestrojil první stroj s neuronovou sítí nazvaný Stochastic Neural Analogy Reinforcement Computer (SNARC). Ačkoli byl primitivní (skládal se z asi 300 vakuových trubic a motorů), úspěšně modeloval chování krysy v malém bludišti hledající potravu .

Představa, že by bylo možné vytvořit inteligentní stroj, byla vskutku lákavá a vedla k několika následným vývojům. Například Arthur Samuel sestavil v roce 1952 program na hraní dámy, který byl prvním samoučícím se programem na světě . Později, v roce 1955, Newell, Simon a Shaw vytvořili program Logic Theorist, který jako první napodoboval schopnosti člověka řešit problémy a nakonec dokázal 38 z prvních 52 tvrzení Whiteheadovy a Russellovy knihy Principia Mathematica .

Začátek fáze rozmachu

Pod vlivem těchto úspěchů zorganizoval mladý profesor z Dartmouthu John McCarthy v roce 1956 konferenci, na které se sešlo dvacet průkopnických výzkumníků a „zkoumali způsoby, jak vytvořit stroj, který by dokázal uvažovat jako člověk, byl schopen abstraktního myšlení, řešení problémů a sebezdokonalování“ . Právě v jeho návrhu pro tuto konferenci z roku 1955 se objevil termín „umělá inteligence“ a právě na této konferenci získala umělá inteligence svou vizi, poslání a humbuk.

Výzkumníci brzy začali předkládat odvážná tvrzení o počátcích výkonné strojové inteligence a mnozí předpokládali, že stroj stejně inteligentní jako člověk bude existovat nejpozději do jedné generace . Například:

  • V roce 1958 Simon a Newell tvrdili, že „do deseti let bude digitální počítač mistrem světa v šachu“ a že „do deseti let digitální počítač objeví a dokáže novou důležitou matematickou větu“.
  • V roce 1961 Minsky napsal: „během našeho života nás stroje mohou překonat v obecné inteligenci“ a v roce 1967 zopakoval: „jsem přesvědčen, že během jedné generace zůstane jen málo oblastí intelektu mimo oblast strojů – problém vytvoření ‚umělé inteligence‘ bude v podstatě vyřešen“ .

„…během našeho života nás stroje mohou překonat v obecné inteligenci…“. – Marvin Minsky, 1961

AI zaujala dokonce i Hollywood. V roce 1968 natočili Arthur Clarke a Stanley Kubrick film 2001: Vesmírná odysea, jehož antagonistou byl uměle inteligentní počítač HAL 9000 projevující kreativitu, smysl pro humor a schopnost intrikovat proti každému, kdo by ohrozil jeho přežití. Vycházel z přesvědčení Turinga, Minského, McCarthyho a mnoha dalších, že takový stroj bude existovat do roku 2000; Minsky ostatně působil jako poradce tohoto filmu a jedna z jeho postav, Victor Kaminski, byla pojmenována na jeho počest.

Zrodily se podobory umělé inteligence

Mezi lety 1956 a 1982 vedlo neutuchající nadšení v oblasti umělé inteligence k zásadním pracím, které daly vzniknout několika podoborům umělé inteligence, jež jsou vysvětleny níže. Velká část těchto prací vedla k prvním prototypům moderní teorie UI.

Systémy založené na pravidlech

Expertní systémy založené na pravidlech se snaží řešit složité problémy implementací řady pravidel „if-then-else“. Jednou z výhod takových systémů je, že jejich instrukce (co má program udělat, když vidí „if“ nebo „else“) jsou flexibilní a mohou být upraveny buď programátorem, uživatelem nebo samotným programem. Takové expertní systémy vytvořil a používal v 70. letech Feigenbaum a jeho kolegové , a mnohé z nich dnes tvoří základní kameny systémů umělé inteligence.

Strojové učení

Obor strojového učení byl vytvořen Arthurem Samuelem v roce 1959 jako: „obor, který dává počítačům schopnost učit se, aniž by byly explicitně programovány“ . Strojové učení je rozsáhlý obor a jeho podrobné vysvětlení přesahuje rámec tohoto článku. Druhý článek této série – viz Prolog na první straně a – se bude stručně zabývat jeho podoblastmi a aplikacemi. Níže však uvedeme jeden příklad programu strojového učení, známý jako perceptronová síť.

„Strojové učení je obor, který dává počítačům schopnost učit se, aniž by byly explicitně programovány.“ – Arthur Samuel, 1959

Jednovrstvé a vícevrstvé perceptronové sítě

Inspirován prací McCullocha a Pittse z roku 1943 a Hebba z roku 1949 , Rosenblatt v roce 1957 představil perceptronovou síť jako umělý model komunikujících neuronů. Tento model je znázorněn na obrázku 5 a lze jej stručně popsat následovně. Jedna vrstva vrcholů, do níž se zadávají vstupní proměnné, je spojena se skrytou vrstvou vrcholů (nazývanou také perceptrony), která je zase spojena s výstupní vrstvou perceptronů. Signál přicházející spojením ze vstupního vrcholu do perceptronu ve skryté vrstvě je kalibrován „váhou“ spojenou s tímto spojením a tato váha je přiřazena během „procesu učení“. Signály z perceptronů skryté vrstvy do perceptronů výstupní vrstvy se kalibrují analogickým způsobem. Stejně jako lidský neuron perceptron „vystřelí“, pokud celková váha všech příchozích signálů překročí stanovený potenciál. Na rozdíl od člověka se však signály v tomto modelu přenášejí pouze směrem k výstupní vrstvě, proto se tyto sítě často nazývají „feed-forward“. Perceptronové sítě s pouze jednou skrytou vrstvou perceptronů (tj. se dvěma vrstvami vážených hranových spojení) se později začaly označovat jako „mělké“ umělé neuronové sítě. Přestože výkon mělkých sítí byl omezený, Rosenblattovi se podařilo vytvořit jednovrstvou perceptronovou síť, kterou nazval vytvořenou Mark 1 a která byla schopna rozpoznávat základní obrázky .

Dnes je vzrušení kolem „hlubokých“ (dvou a více skrytých vrstev) neuronových sítí, které byly rovněž studovány v 60. letech 20. století. První obecný algoritmus učení pro hluboké sítě se skutečně datuje k práci Ivakhnenka a Lapa z roku 1965 . O sítích hlubokých až osm vrstev uvažoval Ivakhnenko v roce 1971, kdy také poskytl techniku jejich trénování .

Zpracování přirozeného jazyka (NLP)

V roce 1957 Chomsky způsobil revoluci v lingvistice univerzální gramatikou, systémem založeným na pravidlech pro porozumění syntaxi . Ten vytvořil první model, který mohli vědci použít k vytvoření úspěšných systémů NLP v 60. letech, včetně programu SHRDLU, který pracoval s malými slovníky a byl částečně schopen porozumět textovým dokumentům ve specifických doménách . Na počátku 70. let začali výzkumníci psát konceptuální ontologie, což jsou datové struktury, které umožňují počítačům interpretovat vztahy mezi slovy, frázemi a pojmy; tyto ontologie se široce používají dodnes .

Rozpoznávání řeči a zpracování řeči na text

Otázku, zda by počítač mohl rozpoznávat řeč, poprvé navrhla skupina tří výzkumníků v AT&T Bell Labs v roce 1952, když vytvořila systém pro rozpoznávání izolovaných číslic pro jednoho mluvčího . Tento systém byl značně zdokonalen koncem 60. let, kdy Reddy vytvořil program Hearsay I, který měl nízkou přesnost, ale byl jedním z prvních, který převáděl souvislou řeč s velkou slovní zásobou na text. V roce 1975 jeho studenti Baker a Baker vytvořili systém Dragon , který dále vylepšil Hearsay I použitím skrytého Markovova modelu (HMM), jednotného pravděpodobnostního modelu, který jim umožnil kombinovat různé zdroje, například akustiku, jazyk a syntax. HMM je dodnes účinným rámcem pro rozpoznávání řeči .

Zpracování obrazu a počítačové vidění

V létě 1966 Minsky najal studenta prvního ročníku na MIT a požádal ho, aby vyřešil následující problém: připojit televizní kameru k počítači a přimět stroj, aby popsal, co vidí . Cílem bylo získat z obrazu trojrozměrnou strukturu, a tím umožnit robotickým smyslovým systémům částečně napodobit lidský vizuální systém. Výzkum v oblasti počítačového vidění na počátku 70. let 20. století vytvořil základ pro mnoho dnes existujících algoritmů, včetně extrakce hran z obrázků, označování čar a kružnic a odhadování pohybu ve videu .

Komerční aplikace

Výše uvedené teoretické pokroky vedly k několika aplikacím, z nichž většina se v té době nedočkala praktického využití, ale připravily půdu pro pozdější komerční využití jejich derivátů. Některé z těchto aplikací jsou popsány níže.

Chatterboti neboli chat-boti

V letech 1964 až 1966 vytvořil Weizenbaum prvního chat-bota ELIZA, pojmenovaného podle Elizy Doolittlové, která se učila správně mluvit v románu Bernarda Shawa Pygmalion (později adaptovaném do filmu My Fair Lady). ELIZA dokázala vést konverzace, které někdy uživatele oklamaly, že komunikují s člověkem, ale jak už to tak bývá, ELIZA dávala pouze standardní odpovědi, které byly často nesmyslné . Později v roce 1972 vytvořil lékařský výzkumník Colby „paranoidního“ chatbota PARRYHO, který byl rovněž bezduchým programem. Přesto v krátkých imitačních hrách psychiatři nedokázali rozlišit bláboly PARRYho od blábolů paranoidního člověka .

Robotika

V roce 1954 sestrojil Devol prvního programovatelného robota s názvem Unimate, který byl jedním z mála vynálezů umělé inteligence své doby, který byl komerčně využit; v roce 1961 jej koupila společnost General Motors pro použití v montážních linkách automobilů . Významně vylepšený Unimate, v roce 1972, výzkumníci z Waseda University v roce 1972 postavil první inteligentní humanoidní robot na světě v plném měřítku, WABOT-1 . Přestože se jednalo téměř o hračku, jeho končetinový systém mu umožňoval chodit a uchopovat i přepravovat předměty rukama; jeho zrakový systém (tvořený umělýma očima a ušima) mu umožňoval měřit vzdálenosti a směr k objektům; a jeho umělá ústa mu umožňovala konverzovat v japonštině . To postupně vedlo k inovativním pracím v oblasti strojového vidění, včetně vytvoření robotů, kteří dokázali skládat bloky na sebe .

Fáze rozpadu a zima umělé inteligence

Přes některé úspěchy se do roku 1975 programy umělé inteligence omezovaly převážně na řešení základních problémů. Při zpětném pohledu si výzkumníci uvědomili dva zásadní problémy svého přístupu.

Omezený a nákladný výpočetní výkon

V roce 1976 byl nejrychlejší superpočítač na světě (který by stál přes pět milionů amerických dolarů) schopen provést pouze asi 100 milionů instrukcí za sekundu . Naproti tomu Moravcova studie z roku 1976 naznačovala, že dokonce i samotné schopnosti lidské sítnice rozpoznávat hrany a detekovat pohyb by vyžadovaly, aby počítač takové instrukce vykonával desetkrát rychleji . Podobně má člověk asi 86 miliard neuronů a jeden bilion synapsí; základní výpočty s použitím údajů uvedených v naznačují, že vytvoření perceptronové sítě takové velikosti by stálo přes 1,6 bilionu USD, což by v roce 1974 spotřebovalo celý HDP USA.

Záhada za lidským myšlením

Vědci nerozuměli tomu, jak lidský mozek funguje, a zůstávali zejména neznalí neurologických mechanismů stojících za kreativitou, uvažováním a humorem. Nepochopení toho, co přesně by se měly programy strojového učení snažit napodobit, představovalo významnou překážku pro posun teorie umělé inteligence vpřed. V 70. letech 20. století dokonce začali vědci z jiných oborů zpochybňovat pojem „napodobování lidského mozku“, který navrhovali výzkumníci umělé inteligence. Někteří například tvrdili, že pokud symboly nemají pro stroj žádný „význam“, pak stroj nelze označit za „myslící“ .

Nakonec se průkopníkům ukázalo, že hrubě podcenili obtížnost vytvoření počítače s umělou inteligencí, který by byl schopen vyhrát hru na napodobování. Například v roce 1969 vydali Minsky a Papert knihu Perceptrony , v níž poukázali na závažná omezení Rosenblattova perceptronu s jednou skrytou vrstvou. Tato kniha, jejímž spoluautorem byl jeden ze zakladatelů umělé inteligence a která zároveň potvrzovala nedostatky perceptronů, sloužila téměř deset let jako vážný odrazující prostředek vůči výzkumu neuronových sítí .

V následujících letech začali Minského pochybnosti o počínající budoucnosti silné umělé inteligence sdílet i další výzkumníci. Například na konferenci v roce 1977 nyní mnohem obezřetnější John McCarthy poznamenal, že vytvoření takového stroje by vyžadovalo „koncepční průlom“, protože „to, co chcete, je 1,7 Einsteina a 0,3 projektu Manhattan, a chcete nejdříve Einsteiny. Domnívám se, že to bude trvat pět až pět set let‘ .

Humbuk v 50. letech 20. století vyvolal tak smělá očekávání, že když se výsledky do roku 1973 nedostavily, vlády USA a Velké Británie zrušily financování výzkumu umělé inteligence . Japonská vláda sice v roce 1980 dočasně poskytla další finanční prostředky, ale koncem 80. let se rychle rozčarovala a své investice opět stáhla . Tato fáze útlumu (zejména v letech 1974 až 1982) bývá označována jako „zima umělé inteligence“, protože tehdy se výzkum v oblasti umělé inteligence téměř úplně zastavil. V této době a v následujících letech se totiž „někteří počítačoví vědci a softwaroví inženýři vyhýbali termínu umělá inteligence ze strachu, že budou považováni za divoké snílky“ .

„…protože to, co chcete, je 1,7 Einsteinů a 0,3 projektu Manhattan, a vy chcete Einsteiny jako první. Věřím, že to bude trvat pět až pět set let.“ – John McCarthy, 1977

Převládající postoj v období 1974-1982 byl velmi nešťastný, protože těch několik podstatných pokroků, k nimž v tomto období došlo, zůstalo v podstatě nepovšimnuto a bylo vynaloženo značné úsilí na jejich obnovení. Dva takové pokroky jsou následující:

Prvním je technika zpětného šíření, která se dnes běžně používá k efektivnímu trénování neuronových sítí při přiřazování téměř optimálních vah jejich hranám. Přestože ji nezávisle na sobě zavedlo několik výzkumníků (např. Kelley, Bryson, Dreyfus a Ho) v 60. letech 20. století a v roce 1970 ji implementoval Linnainmaa , byla většinou ignorována. Stejně tak Werbosova práce z roku 1974, která navrhovala, že tuto techniku lze efektivně použít pro trénování neuronových sítí, byla publikována až v roce 1982, kdy se blížila ke konci fáze bust . V roce 1986 tuto techniku znovu objevili Rumelhart, Hinton a Williams, kteří ji zpopularizovali tím, že ukázali její praktický význam .
Druhou technikou je rekurentní neuronová síť (RNN), která je obdobou Rosenblattovy perceptronové sítě, která není feed-forward, protože umožňuje, aby spojení směřovala jak ke vstupní, tak k výstupní vrstvě. Takové sítě navrhl Little v roce 1974 jako biologicky přesnější model mozku. Bohužel RNN zůstaly bez povšimnutí, dokud je v roce 1982 nezpopularizoval Hopfield a dále je nevylepšil .

Závěr

Definičními znaky hype cyklu jsou fáze boomu, kdy jsou výzkumníci, vývojáři a investoři přehnaně optimističtí a dochází k obrovskému růstu, a fáze propadu, kdy se od investic ustupuje a růst se podstatně snižuje. Z příběhu uvedeného v tomto článku vyplývá, že umělá inteligence prošla takovým cyklem v letech 1956 a 1982.

Umělá inteligence, která se zrodila z vize Turinga a Minského, že stroj může napodobit inteligentní život, získala své jméno, poslání a hype z konference pořádané McCarthym na Dartmouthské univerzitě v roce 1956. Ta znamenala začátek fáze rozmachu cyklu humbuků kolem umělé inteligence. V letech 1956-1973 bylo v oblasti UI objeveno mnoho pronikavých teoretických i praktických pokroků, včetně systémů založených na pravidlech, mělkých a hlubokých neuronových sítí, zpracování přirozeného jazyka, zpracování řeči a rozpoznávání obrazu. Úspěchy, k nimž v této době došlo, vytvořily počáteční archetypy pro současné systémy UI.

V této fázi boomu došlo také k „iracionálnímu bujení“ . Průkopníci umělé inteligence se předháněli v přehnaných předpovědích o budoucnosti silných uměle inteligentních strojů. V roce 1974 se tyto předpovědi nenaplnily a vědci si uvědomili, že jejich sliby byly nadsazené. V té době už byli skeptičtí i investoři a stáhli financování. To mělo za následek fázi úpadku, nazývanou také „zima umělé inteligence“, kdy výzkum v oblasti umělé inteligence vázl a dokonce i samotný termín „umělá inteligence“ byl odmítán. Většina z několika málo vynálezů v tomto období, jako například zpětné šíření a rekurentní neuronové sítě, zůstala z velké části přehlédnuta a v následujících desetiletích bylo vynaloženo značné úsilí na jejich znovuobjevení.

Cykly hypeu jsou obecně dvojsečné meče a ten, který vykazovala umělá inteligence v letech 1956 až 1982, nebyl jiný. Je třeba dbát na to, abychom se z něj poučili: úspěchy jeho fáze rozmachu je třeba si připomínat a oceňovat, ale na jeho přehnaný entuziasmus je třeba pohlížet přinejmenším s určitou skepsí, abychom se vyhnuli plným trestům fáze propadu. Jako u většiny hype cyklů se však v polovině 80. let 20. století začínají znovu objevovat „zelené výhonky“ a v letech 1983-2010 došlo k postupnému oživení výzkumu umělé inteligence; o tomto a souvisejícím vývoji pojednáme v našem dalším článku „Oživení umělé inteligence v letech 1983-2010“ .

Odkazy na všechny články této série naleznete na adrese www.scryanalytics.com/bibliography

Další informace o historii umělé inteligence naleznete v:

McCorduck, Pamela (2004), Machines Who Think (2. vydání), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

Crevier Daniel (1993). AI: Bouřlivé hledání umělé inteligence. New York, NY: Basic Books. ISBN 0-465-02997-3.

Russell Stuart; Norvig, Peter (2003). Umělá inteligence: A Modern Approach. Londýn, Anglie: Pearson Education. ISBN 0-137-90395-2.

Bio: Alok Aggarwal je generálním ředitelem a hlavním datovým vědcem ve společnosti Scry Analytics, Inc. Dříve působil ve společnosti IBM Research Yorktown Heights, založil výzkumnou laboratoř IBM India Research Lab a byl zakladatelem a generálním ředitelem společnosti Evalueserve, která zaměstnávala více než 3 000 lidí po celém světě. V roce 2014 založil společnost Scry Analytics.

Původní text. Přetištěno se svolením autora.

Související

  • Hluboké učení – minulost, současnost a budoucnost
  • Krátká historie umělé inteligence
  • Předpovědi pro průmysl: Hlavní novinky v oblasti umělé inteligence, velkých dat a datové vědy v roce 2017 a trendy pro rok 2018

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna.