KDnuggets

By Alok Aggarwal, Scry Analytics.

Każda dekada wydaje się mieć swoje technologiczne buzzwordy: mieliśmy komputery osobiste w latach 80-tych; Internet i światową sieć w latach 90-tych; smartfony i media społecznościowe w latach 2000; oraz sztuczną inteligencję (AI) i uczenie maszynowe w tej dekadzie. Jednak dziedzina AI ma już 67 lat i jest to pierwszy z serii pięciu artykułów, w których:

  1. Ten artykuł omawia genezę AI i pierwszy hype cycle w latach 1950 i 1982
  2. Drugi artykuł omawia odrodzenie AI i jej osiągnięcia w latach 1983-.2010
  3. Trzeci artykuł omawia dziedziny, w których systemy AI już rywalizują z ludźmi
  4. Czwarty artykuł omawia obecny hype cycle w sztucznej inteligencji
  5. Piąty artykuł omawia, co lata 2018-2035 mogą oznaczać dla mózgów, umysłów i maszyn

Wprowadzenie

Pomimo że sztuczna inteligencja (AI) należy do najpopularniejszych obecnie tematów, powszechnie zapomina się o tym, że tak naprawdę narodziła się ona w 1950 roku i przeszła przez cykl popularności w latach 1956-1982. Celem tego artykułu jest podkreślenie niektórych osiągnięć, które miały miejsce podczas fazy boomu tego cyklu i wyjaśnienie, co doprowadziło do jego fazy upadku. Nie należy zapominać o wnioskach, jakie można wyciągnąć z tego cyklu – jego sukcesy ukształtowały archetypy dla używanych dziś algorytmów uczenia maszynowego, a jego niedociągnięcia wskazały na niebezpieczeństwa związane z nadmiernym entuzjazmem w obiecujących dziedzinach badań i rozwoju.

Pionierskie pytanie

Pomimo że pierwsze komputery zostały opracowane podczas II wojny światowej, tym, co zdawało się prawdziwie zapoczątkować dziedzinę AI, było pytanie zaproponowane przez Alana Turinga w 1950 roku: czy maszyna może naśladować ludzką inteligencję? W swojej przełomowej pracy „Computing Machinery and Intelligence” sformułował on grę, zwaną grą w imitację, w której człowiek, komputer i (ludzki) przesłuchujący znajdują się w trzech różnych pomieszczeniach. Celem przesłuchującego jest odróżnienie człowieka od komputera poprzez zadawanie mu serii pytań i czytanie jego odpowiedzi na maszynie; celem komputera jest przekonanie przesłuchującego, że jest człowiekiem. W wywiadzie dla BBC z 1952 roku, Turing zasugerował, że do roku 2000, przeciętny przesłuchujący będzie miał mniej niż 70% szans na prawidłowe zidentyfikowanie człowieka po pięciominutowej sesji .

Turing nie był jedynym, który pytał, czy maszyna może modelować inteligentne życie. W 1951 roku Marvin Minsky, student zainspirowany wcześniejszymi badaniami neurobiologicznymi wskazującymi, że mózg składa się z elektrycznej sieci neuronów strzelających impulsami typu „wszystko albo nic”, próbował obliczeniowo modelować zachowanie szczura. We współpracy z absolwentem fizyki, Deanem Edmondsem, zbudował pierwszą maszynę sieci neuronowej o nazwie Stochastic Neural Analogy Reinforcement Computer (SNARC). Chociaż prymitywny (składający się z wokoło 300 próżniowych lamp i silniki), ja był pomyślny w modelować zachowanie szczur w mały labirynt szukający jedzenie .

Wyobrażenie że ja mógł być ewentualny tworzyć inteligentną maszynę był kuszący jeden naprawdę, i ono prowadził kilka następujący rozwój. Na przykład Arthur Samuel zbudował w 1952 roku program do gry w warcaby, który był pierwszym na świecie samouczącym się programem. Później, w 1955 roku, Newell, Simon i Shaw zbudowali Logic Theorist, który był pierwszym programem naśladującym umiejętności rozwiązywania problemów przez człowieka i ostatecznie udowodnił 38 z pierwszych 52 twierdzeń w Principia Mathematica Whiteheada i Russella.

Początek fazy boomu

Zainspirowany tymi sukcesami, młody profesor z Dartmouth, John McCarthy, zorganizował w 1956 roku konferencję, aby zebrać dwudziestu pionierskich badaczy i „zbadać sposoby stworzenia maszyny, która mogłaby rozumować jak człowiek, byłaby zdolna do abstrakcyjnego myślenia, rozwiązywania problemów i samodoskonalenia”. To właśnie w jego propozycji na tę konferencję w 1955 roku został ukuty termin „sztuczna inteligencja” i to właśnie na tej konferencji AI zyskała swoją wizję, misję i rozgłos.

Badacze wkrótce zaczęli wysuwać śmiałe twierdzenia o początkach potężnej inteligencji maszyn, a wielu przewidywało, że maszyna tak inteligentna jak człowiek będzie istnieć w ciągu nie więcej niż jednego pokolenia. Na przykład:

  • W 1958 roku Simon i Newell powiedzieli: „w ciągu dziesięciu lat komputer cyfrowy będzie mistrzem świata w szachach” oraz „w ciągu dziesięciu lat komputer cyfrowy odkryje i udowodni nowe ważne twierdzenie matematyczne”.
  • W 1961 roku Minsky napisał, „w ciągu naszego życia maszyny mogą przewyższyć nas w ogólnej inteligencji”, a w 1967 roku powtórzył, „w ciągu jednego pokolenia, jestem przekonany, niewiele przedziałów intelektu pozostanie poza sferą maszyn – problem stworzenia 'sztucznej inteligencji’ zostanie zasadniczo rozwiązany” .

„…w ciągu naszego życia maszyny mogą przewyższyć nas w ogólnej inteligencji…” – Marvin Minsky, 1961

AI przykuło nawet uwagę Hollywood. W 1968 r. Arthur Clarke i Stanley Kubrick nakręcili film 2001: Odyseja kosmiczna, którego antagonistą był sztucznie inteligentny komputer HAL 9000, wykazujący się kreatywnością, poczuciem humoru i zdolnością do intryg przeciwko każdemu, kto zagrażał jego przetrwaniu. Opierało się to na przekonaniu Turinga, Minsky’ego, McCarthy’ego i wielu innych, że taka maszyna będzie istnieć do 2000 roku; w rzeczywistości Minsky służył jako doradca przy tym filmie, a jedna z jego postaci, Victor Kaminski, została nazwana na jego cześć.

Powstają poddziedziny AI

W latach 1956-1982 niesłabnący entuzjazm w dziedzinie AI doprowadził do przełomowych prac, które dały początek kilku poddziedzinom AI, wyjaśnionym poniżej. Wiele z tych prac doprowadziło do powstania pierwszych prototypów nowoczesnej teorii AI.

Systemy oparte na regułach

Systemy eksperckie oparte na regułach próbują rozwiązywać złożone problemy poprzez implementację serii reguł „jeśli-then-else”. Jedną z zalet takich systemów jest to, że ich instrukcje (co program powinien zrobić, gdy widzi „if” lub „else”) są elastyczne i mogą być modyfikowane przez kodera, użytkownika lub sam program. Takie systemy eksperckie zostały stworzone i wykorzystane w latach 70. przez Feigenbauma i jego współpracowników, a wiele z nich stanowi fundamenty systemów AI dzisiaj.

Uczenie maszynowe

Pola uczenia maszynowego została ukuta przez Arthura Samuela w 1959 roku jako, „dziedzina nauki, która daje komputerom zdolność do uczenia się bez wyraźnego programowania” . Uczenie maszynowe to rozległa dziedzina, a jej szczegółowe wyjaśnienie wykracza poza zakres tego artykułu. W drugim artykule z tej serii – patrz Prolog na pierwszej stronie i – omówimy pokrótce jego poddziedziny i zastosowania. Jednak poniżej podajemy jeden przykład programu uczenia maszynowego, znanego jako sieć perceptronowa.

„Uczenie maszynowe jest dziedziną nauki, która daje komputerom zdolność uczenia się bez bycia jawnie zaprogramowanym” – Arthur Samuel, 1959

Single and Multilayer Perceptron Networks

Zainspirowany pracami McCullocha i Pittsa z 1943 roku oraz Hebba z 1949 roku , Rosenblatt w 1957 roku wprowadził sieć perceptronową jako sztuczny model komunikujących się neuronów . Model ten jest przedstawiony na rysunku 5 i może być krótko opisany w następujący sposób. Jedna warstwa wierzchołków, do której wprowadzane są zmienne wejściowe, połączona jest z ukrytą warstwą wierzchołków (zwanych też perceptronami), która z kolei połączona jest z wyjściową warstwą perceptronów. Sygnał przychodzący przez połączenie z wierzchołka wejściowego do perceptronu w warstwie ukrytej jest kalibrowany przez „wagę” związaną z tym połączeniem, a waga ta jest przypisywana podczas „procesu uczenia”. Sygnały z perceptronów warstwy ukrytej do perceptronów warstwy wyjściowej są kalibrowane w analogiczny sposób. Podobnie jak ludzki neuron, perceptron „odpala się”, jeśli łączna waga wszystkich przychodzących sygnałów przekroczy określony potencjał. Jednakże, w przeciwieństwie do człowieka, sygnały w tym modelu są przekazywane tylko w kierunku warstwy wyjściowej, dlatego sieci te są często nazywane „feed-forward”. Sieci perceptronowe z tylko jedną ukrytą warstwą perceptronów (tj. z dwiema warstwami ważonych połączeń brzegowych) stały się później znane jako „płytkie” sztuczne sieci neuronowe. Chociaż płytkie sieci miały ograniczoną moc, Rosenblattowi udało się stworzyć jednowarstwową sieć perceptronową, którą nazwał Mark 1, która była w stanie rozpoznać podstawowe obrazy .

Dzisiaj podekscytowanie dotyczy „głębokich” (dwie lub więcej warstw ukrytych) sieci neuronowych, które również były badane w latach sześćdziesiątych. Rzeczywiście, pierwszy ogólny algorytm uczenia dla głębokich sieci sięga do pracy Ivakhnenko i Lapa w 1965 roku . Sieci tak głębokie jak osiem warstw zostały rozważone przez Ivakhnenko w 1971 roku, kiedy również dostarczył technikę ich szkolenia.

Natural Language Processing (NLP)

W 1957 roku Chomsky zrewolucjonizował lingwistykę gramatyką uniwersalną, systemem opartym na regułach dla zrozumienia składni. Stworzyło to pierwszy model, który badacze mogli wykorzystać do stworzenia udanych systemów NLP w latach 60-tych, w tym SHRDLU, program, który pracował z małymi słownikami i był częściowo w stanie zrozumieć dokumenty tekstowe w określonych domenach. We wczesnych latach 70. badacze zaczęli pisać ontologie pojęciowe, które są strukturami danych pozwalającymi komputerom interpretować związki między słowami, frazami i pojęciami; ontologie te są powszechnie używane do dziś.

Rozpoznawanie mowy i przetwarzanie mowy na tekst

Pytanie, czy komputer może rozpoznawać mowę, zostało po raz pierwszy zaproponowane przez grupę trzech badaczy w AT&T Bell Labs w 1952 r., kiedy zbudowali oni system do rozpoznawania pojedynczych cyfr dla pojedynczego mówcy. System ten został znacznie ulepszony w późnych latach 60-tych, kiedy Reddy stworzył Hearsay I, program, który miał niską dokładność, ale był jednym z pierwszych do konwersji ciągłej mowy o dużym słownictwie na tekst. W 1975 r. jego studenci Baker i Baker stworzyli Dragon System , który jeszcze bardziej udoskonalił Hearsay I poprzez zastosowanie HMM (Hidden Markov Model), zunifikowanego modelu probabilistycznego, który pozwolił im połączyć różne źródła, takie jak akustyka, język i składnia. Dziś HMM pozostaje skutecznym narzędziem do rozpoznawania mowy.

Przetwarzanie obrazów i widzenie komputerowe

W lecie 1966 roku Minsky zatrudnił studenta pierwszego roku studiów licencjackich na MIT i poprosił go o rozwiązanie następującego problemu: podłącz kamerę telewizyjną do komputera i spraw, by maszyna opisała to, co widzi. Celem było wydobycie trójwymiarowej struktury z obrazów, a tym samym umożliwienie robotycznym systemom sensorycznym częściowego naśladowania ludzkiego systemu wizualnego. Badania nad widzeniem komputerowym we wczesnych latach 70. stały się podstawą wielu istniejących dziś algorytmów, w tym wyodrębniania krawędzi z obrazów, oznaczania linii i okręgów oraz szacowania ruchu w filmach wideo.

Zastosowania komercyjne

Powyższe postępy teoretyczne doprowadziły do powstania kilku zastosowań, z których większość nie była wówczas wykorzystywana w praktyce, ale stanowiły punkt wyjścia dla ich pochodnych, które później były wykorzystywane komercyjnie. Niektóre z tych zastosowań są omówione poniżej.

Chatterboty lub Chat-Boty

Między 1964 a 1966 rokiem Weizenbaum stworzył pierwszego chat-bota, ELIZA, nazwanego tak na cześć Elizy Doolittle, która została nauczona mówić poprawnie w powieści Bernarda Shaw, Pigmalion (później zaadaptowanej do filmu My Fair Lady). ELIZA mogła prowadzić rozmowy, które czasami oszukiwały użytkowników, że komunikują się z człowiekiem, ale jak to się stało, ELIZA dawała tylko standardowe odpowiedzi, które często były bez znaczenia. Później, w 1972 roku, badacz medyczny Colby stworzył „paranoidalnego” chatbota PARRY, który również był bezmyślnym programem. Mimo to, w krótkich grach naśladowczych, psychiatrzy nie byli w stanie odróżnić paplaniny PARRY’ego od paplaniny paranoicznego człowieka.

Robotyka

W 1954 r. Devol zbudował pierwszego programowalnego robota o nazwie Unimate, który był jednym z niewielu wynalazków AI w swoim czasie, które zostały skomercjalizowane; został kupiony przez General Motors w 1961 r. do użytku w liniach montażowych samochodów. Znacząco ulepszając Unimate, w 1972 roku naukowcy z Uniwersytetu Waseda zbudowali pierwszego na świecie inteligentnego robota humanoidalnego na pełną skalę, WABOT-1 . Mimo że była to prawie zabawka, jego układ kończyn pozwalał mu chodzić i chwytać, a także transportować obiekty za pomocą rąk; jego system wizyjny (składający się ze sztucznych oczu i uszu) pozwalał mu mierzyć odległości i kierunki do obiektów; a sztuczne usta pozwalały mu rozmawiać w języku japońskim. Stopniowo doprowadziło to do innowacyjnych prac w zakresie widzenia maszynowego, w tym do stworzenia robotów, które potrafiły układać klocki w stosy .

Faza biustu i zima AI

Pomimo pewnych sukcesów, do 1975 r. programy AI były w dużej mierze ograniczone do rozwiązywania rudymentarnych problemów. Z perspektywy czasu badacze zdali sobie sprawę z dwóch podstawowych problemów związanych z ich podejściem.

Ograniczona i kosztowna moc obliczeniowa

W 1976 roku najszybszy na świecie superkomputer (który kosztowałby ponad pięć milionów dolarów) był w stanie wykonać tylko około 100 milionów instrukcji na sekundę. W przeciwieństwie do tego, badanie przeprowadzone w 1976 roku przez Moravec wskazało, że nawet same zdolności ludzkiej siatkówki w zakresie dopasowywania krawędzi i wykrywania ruchu wymagałyby komputera do wykonywania takich instrukcji dziesięć razy szybciej. Podobnie, człowiek ma około 86 miliardów neuronów i bilion synaps; podstawowe obliczenia przy użyciu liczb podanych w wskazują, że stworzenie sieci perceptronowej tej wielkości kosztowałoby ponad 1,6 biliona USD, pochłaniając cały PKB Stanów Zjednoczonych w 1974 roku.

Tajemnica za ludzką myślą

Naukowcy nie rozumieli, jak funkcjonuje ludzki mózg i pozostawali szczególnie nieświadomi neurologicznych mechanizmów stojących za kreatywnością, rozumowaniem i humorem. Brak zrozumienia, co dokładnie programy uczące się maszyn powinny próbować naśladować, stanowił istotną przeszkodę w rozwoju teorii sztucznej inteligencji. W rzeczywistości, w latach 70. naukowcy z innych dziedzin zaczęli nawet kwestionować koncepcję „naśladowania ludzkiego mózgu”, proponowaną przez badaczy AI. Na przykład, niektórzy twierdzili, że jeśli symbole nie mają „znaczenia” dla maszyny, to maszyna nie może być opisana jako „myśląca” .

W końcu stało się oczywiste dla pionierów, że rażąco nie docenili trudności w stworzeniu komputera AI zdolnego do wygrania gry w imitację. Na przykład w 1969 r. Minsky i Papert opublikowali książkę Perceptrony , w której wskazali na poważne ograniczenia perceptronu z jedną ukrytą warstwą Rosenblatta. Książka ta, której współautorem był jeden z twórców sztucznej inteligencji, a jednocześnie świadcząca o wadach perceptronów, służyła jako poważny czynnik zniechęcający do badań nad sieciami neuronowymi przez prawie dekadę

W kolejnych latach inni badacze zaczęli podzielać wątpliwości Minsky’ego co do początkowej przyszłości silnej AI. Na przykład na konferencji w 1977 r. John McCarthy, obecnie znacznie bardziej ostrożny, zauważył, że stworzenie takiej maszyny wymagałoby „przełomów koncepcyjnych”, ponieważ „to, czego chcesz, to 1,7 Einsteina i 0,3 Projektu Manhattan, a najpierw chcesz Einsteina. Sądzę, że zajmie to od pięciu do 500 lat”.

Szum lat 50-tych podniósł oczekiwania do tak zuchwałych wyżyn, że kiedy wyniki nie zmaterializowały się do 1973 roku, rządy Stanów Zjednoczonych i Wielkiej Brytanii wycofały fundusze na badania nad AI . Chociaż rząd japoński tymczasowo zapewnił dodatkowe fundusze w 1980 r., szybko rozczarował się pod koniec lat 80-tych i ponownie wycofał swoje inwestycje. Ta faza kryzysu (szczególnie między 1974 a 1982) jest powszechnie nazywana „zimą AI”, ponieważ wtedy badania nad sztuczną inteligencją niemal całkowicie ustały. Rzeczywiście, w tym czasie i w następnych latach „niektórzy informatycy i inżynierowie oprogramowania unikali terminu sztuczna inteligencja z obawy, że będą postrzegani jako dzicy marzyciele” .

„…ponieważ to, czego chcesz, to 1,7 Einsteina i 0,3 Projektu Manhattan, a chcesz najpierw Einsteina. Sądzę, że zajmie to od 5 do 500 lat.” – John McCarthy, 1977

Panująca postawa w okresie 1974-1982 była wysoce niefortunna, ponieważ kilka znaczących postępów, które miały miejsce w tym okresie, zasadniczo przeszło niezauważonych, a znaczny wysiłek został podjęty w celu ich odtworzenia. Dwa takie postępy są następujące:

Pierwszym z nich jest technika wstecznej propagacji, która jest powszechnie używana dzisiaj do efektywnego szkolenia sieci neuronowych w przypisywaniu prawie optymalnych wag do ich krawędzi. Choć została wprowadzona przez kilku badaczy niezależnie (np. Kelley, Bryson, Dreyfus i Ho) w latach 60. i zaimplementowana przez Linnainmaa w 1970 roku, była głównie ignorowana. Podobnie, praca Werbosa z 1974 roku, który zaproponował, że technika ta może być efektywnie wykorzystywana do szkolenia sieci neuronowych, została opublikowana dopiero w 1982 roku, kiedy faza biustu zbliżała się do końca. W 1986 roku technika ta została ponownie odkryta przez Rumelharta, Hintona i Williamsa, którzy spopularyzowali ją, pokazując jej praktyczne znaczenie .
Drugą jest rekurencyjna sieć neuronowa (RNN), która jest analogiczna do sieci perceptronowej Rosenblatta, która nie jest siecią typu feed-forward, ponieważ pozwala na połączenia zarówno w kierunku warstwy wejściowej, jak i wyjściowej. Sieci takie zostały zaproponowane przez Little’a w 1974 roku jako bardziej biologicznie dokładny model mózgu. Niestety, sieci RNN pozostały niezauważone, dopóki Hopfield nie spopularyzował ich w 1982 roku i nie ulepszył ich jeszcze bardziej.

Wnioski

Definiujące cechy cyklu koniunkturalnego to faza boomu, kiedy badacze, deweloperzy i inwestorzy stają się nadmiernie optymistyczni i następuje ogromny wzrost, oraz faza bessy, kiedy inwestycje są wycofywane, a wzrost znacznie się zmniejsza. Z historii przedstawionej w tym artykule wynika, że AI przeszła przez taki cykl w latach 1956 i 1982.

Zrodzona z wizji Turinga i Minsky’ego, że maszyna może naśladować inteligentne życie, AI otrzymała swoją nazwę, misję i szum od konferencji zorganizowanej przez McCarthy’ego na Uniwersytecie Dartmouth w 1956 roku. Był to początek fazy boomu w cyklu hype’u na AI. W latach 1956-1973 w dziedzinie AI odkryto wiele przenikliwych teoretycznych i praktycznych osiągnięć, w tym systemy oparte na regułach, płytkie i głębokie sieci neuronowe, przetwarzanie języka naturalnego, przetwarzanie mowy i rozpoznawanie obrazów. Osiągnięcia, które miały miejsce w tym czasie, utworzyły początkowe archetypy dla obecnych systemów AI.

To, co również miało miejsce podczas tej fazy boomu, to „irracjonalna wybujałość” . Pionierzy AI byli szybcy, by zrobić przesadzone przewidywania o przyszłości silnych sztucznie inteligentnych maszyn. Do 1974 r. przewidywania te nie spełniły się, a naukowcy zdali sobie sprawę, że ich obietnice były przesadzone. Do tego czasu inwestorzy również stali się sceptyczni i wycofali się z finansowania. Doprowadziło to do fazy załamania, zwanej również zimą AI, kiedy to badania nad AI były powolne, a nawet odrzucano termin „sztuczna inteligencja”. Większość z nielicznych wynalazków w tym okresie, takich jak wsteczna propagacja i rekurencyjne sieci neuronowe, została w dużej mierze przeoczona, a znaczny wysiłek włożono w ich ponowne odkrycie w kolejnych dekadach.

Ogólnie, hype cykle są mieczami o dwóch końcach, a ten, który AI wykazywała w latach 1956-1982, nie był inny. Należy wyciągnąć z niego wnioski: sukcesy fazy boomu powinny być zapamiętane i docenione, ale nadmierny entuzjazm powinien być postrzegany przynajmniej z pewnym sceptycyzmem, aby uniknąć pełnej kary za fazę załamania. Jednak, jak większość cykli hype’u, „zielone pędy” zaczynają pojawiać się ponownie w połowie lat 80. i nastąpiło stopniowe odrodzenie badań nad AI w latach 1983 i 2010; omówimy te i powiązane wydarzenia w naszym następnym artykule, „Resurgence of Artificial Intelligence During 1983-2010” .

Referencje do wszystkich artykułów w tej serii można znaleźć na stronie www.scryanalytics.com/bibliography

Dodatkowe informacje o historii AI można znaleźć w:

McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.

Russell Stuart; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach. London, England: Pearson Education. ISBN 0-137-90395-2.

Bio: Dr Alok Aggarwal, jest CEO i Chief Data Scientist w Scry Analytics, Inc. Wcześniej był w IBM Research Yorktown Heights, założył IBM India Research Lab oraz był założycielem i CEO Evalueserve, która zatrudniała ponad 3000 osób na całym świecie. W 2014 roku założył firmę Scry Analytics.

Original. Reposted with permission.

Related

  • Deep Learning – Past, Present, and Future
  • A Brief History of Artificial Intelligence
  • Industry Predictions: Główne kierunki rozwoju AI, Big Data, Data Science w 2017 roku i trendy na 2018 rok

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.