KDnuggets

von Alok Aggarwal, Scry Analytics

Jedes Jahrzehnt scheint seine technologischen Schlagworte zu haben: in den 1980er Jahren hatten wir Personal Computer, in den 1990er Jahren Internet und World Wide Web, in den 2000er Jahren Smartphones und soziale Medien und in diesem Jahrzehnt Künstliche Intelligenz (KI) und maschinelles Lernen. Das Gebiet der KI ist jedoch 67 Jahre alt, und dies ist der erste einer Serie von fünf Artikeln, in denen:

  1. Dieser Artikel behandelt die Entstehung der KI und den ersten Hype-Zyklus zwischen 1950 und 1982
  2. Der zweite Artikel behandelt das Wiederaufleben der KI und ihre Errungenschaften zwischen 1983-2010
  3. Der dritte Artikel erörtert die Bereiche, in denen KI-Systeme bereits mit Menschen konkurrieren
  4. Der vierte Artikel erörtert den aktuellen Hype-Zyklus der Künstlichen Intelligenz
  5. Der fünfte Artikel erörtert, was 2018-2035 für Gehirne bedeuten könnte, Minds and Machines

Introduction

Während Künstliche Intelligenz (KI) zu den populärsten Themen unserer Zeit gehört, wird häufig vergessen, dass sie eigentlich 1950 geboren wurde und zwischen 1956 und 1982 einen Hype-Zyklus durchlief. In diesem Artikel sollen einige der Errungenschaften aus der Boomphase dieses Zyklus hervorgehoben und die Gründe für den Niedergang erläutert werden. Die Lehren, die aus diesem Hype-Zyklus zu ziehen sind, sollten nicht übersehen werden – seine Erfolge bildeten die Vorbilder für die heute verwendeten Algorithmen des maschinellen Lernens, und seine Unzulänglichkeiten wiesen auf die Gefahren eines übermäßigen Enthusiasmus in vielversprechenden Forschungs- und Entwicklungsbereichen hin.

Die bahnbrechende Frage

Obwohl die ersten Computer während des Zweiten Weltkriegs entwickelt wurden, schien die eigentliche Initialzündung für den Bereich der künstlichen Intelligenz eine Frage zu sein, die Alan Turing 1950 stellte: Kann eine Maschine die menschliche Intelligenz nachahmen? In seiner bahnbrechenden Arbeit „Computing Machinery and Intelligence“ formulierte er ein Spiel, das so genannte Nachahmungsspiel, bei dem sich ein Mensch, ein Computer und ein (menschlicher) Fragesteller in drei verschiedenen Räumen befinden. Das Ziel des Vernehmers ist es, den Menschen vom Computer zu unterscheiden, indem er ihnen eine Reihe von Fragen stellt und ihre getippten Antworten liest; das Ziel des Computers ist es, den Vernehmer davon zu überzeugen, dass er der Mensch ist. In einem BBC-Interview aus dem Jahr 1952 meinte Turing, dass im Jahr 2000 der durchschnittliche Befrager eine weniger als 70%ige Chance hätte, den Menschen nach einer fünfminütigen Sitzung richtig zu identifizieren.

Turing war nicht der Einzige, der die Frage stellte, ob eine Maschine intelligentes Leben modellieren könnte. 1951 versuchte Marvin Minsky, ein Doktorand, der durch frühere neurowissenschaftliche Forschungen inspiriert worden war, die zeigten, dass das Gehirn aus einem elektrischen Netzwerk von Neuronen besteht, die mit Alles-oder-Nichts-Impulsen feuern, das Verhalten einer Ratte rechnerisch zu modellieren. In Zusammenarbeit mit dem Physikstudenten Dean Edmonds baute er die erste Maschine mit einem neuronalen Netzwerk, den Stochastic Neural Analogy Reinforcement Computer (SNARC). Obwohl er primitiv war (er bestand aus etwa 300 Vakuumröhren und Motoren), gelang es ihm, das Verhalten einer Ratte in einem kleinen Labyrinth auf der Suche nach Futter zu modellieren.

Der Gedanke, dass es möglich sein könnte, eine intelligente Maschine zu schaffen, war in der Tat verlockend und führte zu mehreren nachfolgenden Entwicklungen. So entwickelte Arthur Samuel 1952 ein Programm zum Spielen von Dame, das weltweit das erste selbstlernende Programm war. Später, im Jahr 1955, entwickelten Newell, Simon und Shaw Logic Theorist, das erste Programm, das die Problemlösungsfähigkeiten eines Menschen nachahmte und schließlich 38 der ersten 52 Theoreme in Whiteheads und Russells Principia Mathematica beweisen sollte.

Der Beginn der Boomphase

Beflügelt von diesen Erfolgen organisierte der junge Dartmouth-Professor John McCarthy 1956 eine Konferenz, um zwanzig Pionierforscher zu versammeln und „Wege zu erforschen, wie man eine Maschine bauen könnte, die wie ein Mensch denken könnte, die zu abstraktem Denken, Problemlösung und Selbstverbesserung fähig wäre“. In seinem Vorschlag für diese Konferenz im Jahr 1955 wurde der Begriff „künstliche Intelligenz“ geprägt, und auf dieser Konferenz erhielt die KI ihre Vision, ihren Auftrag und ihren Hype.

Forscher begannen bald, kühne Behauptungen über den Beginn einer leistungsfähigen maschinellen Intelligenz aufzustellen, und viele gingen davon aus, dass eine Maschine, die so intelligent ist wie ein Mensch, in nicht mehr als einer Generation existieren würde. Zum Beispiel:

  • 1958 sagten Simon und Newell, „innerhalb von zehn Jahren wird ein digitaler Computer der Schachweltmeister sein“ und „innerhalb von zehn Jahren wird ein digitaler Computer ein wichtiges neues mathematisches Theorem entdecken und beweisen“.
  • Im Jahr 1961 schrieb Minsky: „Innerhalb unserer Lebenszeit können Maschinen uns an allgemeiner Intelligenz übertreffen“, und 1967 wiederholte er: „Innerhalb einer Generation, davon bin ich überzeugt, werden nur noch wenige Bereiche des Intellekts außerhalb des Bereichs der Maschine liegen – das Problem der Schaffung ‚künstlicher Intelligenz‘ wird im Wesentlichen gelöst sein.“

„…innerhalb unserer Lebenszeit können Maschinen uns an allgemeiner Intelligenz übertreffen…“ – Marvin Minsky, 1961

AI hatte sogar die Aufmerksamkeit Hollywoods erregt. Im Jahr 1968 produzierten Arthur Clarke und Stanley Kubrick den Film 2001: Odyssee im Weltraum, dessen Antagonist ein künstlich intelligenter Computer, HAL 9000, war, der Kreativität, Sinn für Humor und die Fähigkeit besaß, gegen jeden vorzugehen, der sein Überleben bedrohte. Dies basierte auf der Überzeugung von Turing, Minsky, McCarthy und vielen anderen, dass eine solche Maschine bis zum Jahr 2000 existieren würde; tatsächlich diente Minsky als Berater für diesen Film, und eine seiner Figuren, Victor Kaminski, wurde ihm zu Ehren benannt.

Teilgebiete der KI werden geboren

Zwischen 1956 und 1982 führte der ungebrochene Enthusiasmus in der KI zu bahnbrechenden Arbeiten, die mehrere Teilgebiete der KI hervorbrachten, die im Folgenden erläutert werden. Ein Großteil dieser Arbeiten führte zu den ersten Prototypen der modernen KI-Theorie.

Regelbasierte Systeme

Regelbasierte Expertensysteme versuchen, komplexe Probleme durch die Implementierung einer Reihe von „Wenn-dann-es“ Regeln zu lösen. Ein Vorteil solcher Systeme ist, dass ihre Anweisungen (was das Programm tun soll, wenn es „if“ oder „else“ sieht) flexibel sind und entweder durch den Programmierer, den Benutzer oder das Programm selbst geändert werden können. Solche Expertensysteme wurden in den 1970er Jahren von Feigenbaum und seinen Kollegen entwickelt und verwendet, und viele von ihnen bilden heute die Grundlage für KI-Systeme.

Maschinelles Lernen

Das Gebiet des maschinellen Lernens wurde 1959 von Arthur Samuel als „das Studiengebiet, das Computern die Fähigkeit verleiht, zu lernen, ohne ausdrücklich programmiert zu werden“ bezeichnet. Das maschinelle Lernen ist ein weites Feld, dessen detaillierte Erläuterung den Rahmen dieses Artikels sprengen würde. Der zweite Artikel in dieser Reihe – siehe Prolog auf der ersten Seite – wird kurz auf die Teilgebiete und Anwendungen eingehen. Im Folgenden wird jedoch ein Beispiel für ein maschinelles Lernprogramm, das so genannte Perceptron-Netzwerk, vorgestellt.

„Maschinelles Lernen ist das Fachgebiet, das Computern die Fähigkeit verleiht, zu lernen, ohne explizit programmiert zu werden“ – Arthur Samuel, 1959

Ein- und mehrschichtige Perceptron-Netzwerke

Inspiriert durch die Arbeiten von McCulloch und Pitts im Jahr 1943 und von Hebb im Jahr 1949, führte Rosenblatt 1957 das Perceptron-Netzwerk als künstliches Modell kommunizierender Neuronen ein. Dieses Modell ist in Abbildung 5 dargestellt und kann kurz wie folgt beschrieben werden. Eine Schicht von Scheitelpunkten, in die Eingangsvariablen eingegeben werden, ist mit einer verborgenen Schicht von Scheitelpunkten (auch Perzeptronen genannt) verbunden, die wiederum mit einer Ausgangsschicht von Perzeptronen verbunden ist. Ein Signal, das über eine Verbindung von einem Eingangsscheitelpunkt zu einem Perzeptron in der verborgenen Schicht kommt, wird durch ein „Gewicht“ kalibriert, das mit dieser Verbindung verbunden ist, und dieses Gewicht wird während eines „Lernprozesses“ zugewiesen. Signale von Perzeptrons der verborgenen Schicht zu Perzeptrons der Ausgabeschicht werden auf analoge Weise kalibriert. Wie ein menschliches Neuron „feuert“ ein Perzeptron, wenn das Gesamtgewicht aller eingehenden Signale ein bestimmtes Potenzial überschreitet. Anders als beim Menschen werden die Signale in diesem Modell jedoch nur in Richtung der Ausgabeschicht übertragen, weshalb diese Netze oft als „feed-forward“ bezeichnet werden. Perzeptron-Netze mit nur einer versteckten Schicht von Perzeptronen (d. h. mit zwei Schichten gewichteter Kantenverbindungen) wurden später als „flache“ künstliche neuronale Netze bekannt. Obwohl flache Netze nur begrenzt leistungsfähig waren, gelang es Rosenblatt, ein einschichtiges Perceptron-Netz zu schaffen, das er Mark 1 nannte und das in der Lage war, einfache Bilder zu erkennen.

Heute ist die Aufregung um „tiefe“ (zwei oder mehr verborgene Schichten) neuronale Netze groß, die ebenfalls in den 1960er Jahren untersucht wurden. In der Tat geht der erste allgemeine Lernalgorithmus für tiefe Netze auf die Arbeit von Ivakhnenko und Lapa im Jahr 1965 zurück. Netze mit einer Tiefe von bis zu acht Schichten wurden 1971 von Ivakhnenko untersucht, der auch eine Technik für ihr Training entwickelte.

Natural Language Processing (NLP)

1957 revolutionierte Chomsky die Linguistik mit der Universalgrammatik, einem regelbasierten System zum Verständnis der Syntax. Dies bildete das erste Modell, das Forscher nutzen konnten, um in den 1960er Jahren erfolgreiche NLP-Systeme zu entwickeln, darunter SHRDLU, ein Programm, das mit kleinen Vokabularen arbeitete und teilweise in der Lage war, Textdokumente in bestimmten Bereichen zu verstehen. In den frühen 1970er Jahren begannen Forscher mit der Erstellung von konzeptuellen Ontologien, d.h. Datenstrukturen, die es Computern ermöglichen, Beziehungen zwischen Wörtern, Phrasen und Konzepten zu interpretieren; diese Ontologien sind auch heute noch weit verbreitet.

Sprechererkennung und Sprachverarbeitung

Die Frage, ob ein Computer Sprache erkennen kann, wurde erstmals 1952 von einer Gruppe von drei Forschern an den AT&T Bell Labs gestellt, als sie ein System zur isolierten Erkennung von Ziffern für einen einzelnen Sprecher entwickelten. Dieses System wurde in den späten 1960er Jahren erheblich verbessert, als Reddy Hearsay I entwickelte, ein Programm, das zwar eine geringe Genauigkeit aufwies, aber eines der ersten war, das einen großen Wortschatz kontinuierlicher Sprache in Text umwandelte. 1975 entwickelten seine Studenten Baker und Baker das Dragon-System, das Hearsay I durch die Verwendung des Hidden Markov Model (HMM), eines einheitlichen probabilistischen Modells, das es ihnen ermöglichte, verschiedene Quellen wie Akustik, Sprache und Syntax zu kombinieren, weiter verbesserte. Heute ist das HMM nach wie vor ein wirksamer Rahmen für die Spracherkennung.

Bildverarbeitung und Computer Vision

Im Sommer 1966 stellte Minsky einen Studenten im ersten Jahr am MIT ein und bat ihn, das folgende Problem zu lösen: eine Fernsehkamera an einen Computer anzuschließen und die Maschine dazu zu bringen, zu beschreiben, was sie sieht. Ziel war es, dreidimensionale Strukturen aus Bildern zu extrahieren, um es Robotersensoriksystemen zu ermöglichen, das menschliche Sehsystem teilweise zu imitieren. Die Forschung auf dem Gebiet des Computersehens in den frühen 70er Jahren bildete die Grundlage für viele Algorithmen, die es heute gibt, z. B. für die Extraktion von Kanten aus Bildern, die Beschriftung von Linien und Kreisen und die Schätzung von Bewegungen in Videos.

Kommerzielle Anwendungen

Die oben genannten theoretischen Fortschritte führten zu mehreren Anwendungen, von denen die meisten damals nicht in der Praxis eingesetzt wurden, aber die Voraussetzungen dafür schufen, dass ihre Derivate später kommerziell genutzt werden konnten. Einige dieser Anwendungen werden im Folgenden erörtert.

Chatterbots oder Chat-Bots

Zwischen 1964 und 1966 schuf Weizenbaum den ersten Chat-Bot, ELIZA, benannt nach Eliza Doolittle, der in Bernard Shaws Roman Pygmalion (später verfilmt als My Fair Lady) das richtige Sprechen beigebracht wurde. ELIZA konnte Unterhaltungen führen, die den Benutzern manchmal vorgaukelten, sie würden mit einem Menschen kommunizieren, aber ELIZA gab nur Standardantworten, die oft bedeutungslos waren. Später, 1972, schuf der Medizinforscher Colby einen „paranoiden“ Chatbot, PARRY, der ebenfalls ein geistloses Programm war. In kurzen Nachahmungsspielen waren Psychiater jedoch nicht in der Lage, PARRYs Geschwafel von dem eines paranoiden Menschen zu unterscheiden.

Robotik

Im Jahr 1954 baute Devol den ersten programmierbaren Roboter namens Unimate, der eine der wenigen KI-Erfindungen seiner Zeit war, die kommerziell verwertet wurde; er wurde 1961 von General Motors für den Einsatz in Automobil-Fließbändern gekauft. In deutlicher Weiterentwicklung von Unimate bauten Forscher an der Waseda-Universität 1972 den weltweit ersten intelligenten humanoiden Roboter in Originalgröße, WABOT-1 . Obwohl er fast ein Spielzeug war, konnte er dank seines Gliedmaßensystems gehen und Gegenstände mit den Händen greifen und transportieren; sein Sehsystem (bestehend aus künstlichen Augen und Ohren) ermöglichte es ihm, Entfernungen und Richtungen zu Objekten zu messen; und sein künstlicher Mund erlaubte es ihm, sich auf Japanisch zu unterhalten. Dies führte allmählich zu innovativen Arbeiten im Bereich des maschinellen Sehens, einschließlich der Entwicklung von Robotern, die Blöcke stapeln konnten.

Die Büstenphase und der KI-Winter

Trotz einiger Erfolge waren KI-Programme bis 1975 weitgehend auf die Lösung rudimentärer Probleme beschränkt. Im Nachhinein erkannten die Forscher zwei grundlegende Probleme mit ihrem Ansatz.

Begrenzte und teure Rechenleistung

Im Jahr 1976 war der schnellste Supercomputer der Welt (der über fünf Millionen US-Dollar gekostet hätte) nur in der Lage, etwa 100 Millionen Anweisungen pro Sekunde auszuführen. Im Gegensatz dazu zeigte die Studie von Moravec aus dem Jahr 1976, dass selbst die Fähigkeiten der menschlichen Netzhaut zur Erkennung von Kanten und Bewegungen allein einen Computer erfordern würden, der diese Befehle zehnmal schneller ausführen könnte. Ein Mensch hat etwa 86 Milliarden Neuronen und eine Billion Synapsen; einfache Berechnungen auf der Grundlage der in der Studie angegebenen Zahlen zeigen, dass die Schaffung eines Perzeptron-Netzwerks dieser Größe über 1,6 Billionen US-Dollar gekostet hätte, was dem gesamten Bruttoinlandsprodukt der USA im Jahr 1974 entspräche.

Das Geheimnis des menschlichen Denkens

Die Wissenschaftler verstanden nicht, wie das menschliche Gehirn funktioniert, und waren sich insbesondere der neurologischen Mechanismen nicht bewusst, die der Kreativität, dem logischen Denken und dem Humor zugrunde liegen. Das fehlende Verständnis dafür, was genau maschinelle Lernprogramme imitieren sollten, stellte ein erhebliches Hindernis für die Weiterentwicklung der Theorie der künstlichen Intelligenz dar. In den 1970er Jahren begannen Wissenschaftler aus anderen Bereichen sogar, die von KI-Forschern vorgeschlagene „Nachahmung des menschlichen Gehirns“ in Frage zu stellen. So wurde beispielsweise argumentiert, dass die Maschine nicht als „denkend“ bezeichnet werden könne, wenn Symbole für die Maschine keine „Bedeutung“ hätten.

Schließlich wurde den Pionieren klar, dass sie die Schwierigkeit, einen KI-Computer zu schaffen, der in der Lage ist, das Spiel der Nachahmung zu gewinnen, stark unterschätzt hatten. So veröffentlichten Minsky und Papert 1969 das Buch Perceptrons, in dem sie auf die schwerwiegenden Grenzen von Rosenblatts Perzeptron mit einer verborgenen Schicht hinwiesen. Dieses Buch, das von einem der Begründer der künstlichen Intelligenz mitverfasst wurde und gleichzeitig die Unzulänglichkeiten von Perceptrons aufzeigte, diente fast ein Jahrzehnt lang als ernsthafte Abschreckung für die Forschung im Bereich der neuronalen Netze.

In den folgenden Jahren begannen andere Forscher, Minskys Zweifel an der beginnenden Zukunft der starken KI zu teilen. Auf einer Konferenz im Jahr 1977 bemerkte zum Beispiel ein nun viel vorsichtigerer John McCarthy, dass die Schaffung einer solchen Maschine „konzeptionelle Durchbrüche“ erfordern würde, denn „was man will, sind 1,7 Einsteins und 0,3 des Manhattan-Projekts, und man will die Einsteins zuerst. Ich glaube, es wird fünf bis 500 Jahre dauern.“

Der Hype der 1950er Jahre hatte die Erwartungen in solch kühne Höhen getrieben, dass die amerikanische und die britische Regierung die Forschungsmittel für KI zurückzogen, als die Ergebnisse bis 1973 nicht vorlagen. Obwohl die japanische Regierung 1980 vorübergehend zusätzliche Mittel bereitstellte, wurde sie in den späten 1980er Jahren schnell desillusioniert und zog ihre Investitionen wieder zurück. Diese Flaute (vor allem zwischen 1974 und 1982) wird gemeinhin als „KI-Winter“ bezeichnet, da in dieser Zeit die Forschung im Bereich der künstlichen Intelligenz fast vollständig zum Erliegen kam. In dieser Zeit und in den darauffolgenden Jahren vermieden einige Informatiker und Software-Ingenieure den Begriff „künstliche Intelligenz“, weil sie fürchteten, als wilde Träumer angesehen zu werden.

„…denn was Sie wollen, sind 1,7 Einsteins und 0,3 des Manhattan-Projekts, und Sie wollen die Einsteins zuerst. Ich glaube, das wird fünf bis 500 Jahre dauern.“ – John McCarthy, 1977

Die vorherrschende Haltung während des Zeitraums 1974-1982 war höchst unglücklich, da die wenigen wesentlichen Fortschritte, die in diesem Zeitraum stattfanden, im Wesentlichen unbemerkt blieben und erhebliche Anstrengungen unternommen wurden, um sie wiederherzustellen. Zwei dieser Fortschritte sind die folgenden:

Der erste ist die Backpropagationstechnik, die heute allgemein verwendet wird, um neuronale Netze effizient zu trainieren und ihren Kanten nahezu optimale Gewichte zuzuweisen. Obwohl sie in den 1960er Jahren von mehreren Forschern unabhängig voneinander eingeführt wurde (z. B. Kelley, Bryson, Dreyfus und Ho) und 1970 von Linnainmaa implementiert wurde, wurde sie weitgehend ignoriert. Auch die Dissertation von Werbos aus dem Jahr 1974, in der er vorschlug, dass diese Technik wirksam für das Training neuronaler Netze eingesetzt werden könnte, wurde erst 1982 veröffentlicht, als die Büstenphase sich ihrem Ende näherte. Im Jahr 1986 wurde diese Technik von Rumelhart, Hinton und Williams wiederentdeckt, die sie popularisierten, indem sie ihre praktische Bedeutung aufzeigten.
Das zweite ist das rekurrente neuronale Netz (RNN), das dem Rosenblatt’schen Perzeptron-Netz entspricht, das nicht feed-forward ist, weil es Verbindungen sowohl zur Eingangs- als auch zur Ausgangsschicht zulässt. Solche Netze wurden 1974 von Little als biologisch genaueres Modell des Gehirns vorgeschlagen. Bedauerlicherweise blieben RNNs unbemerkt, bis Hopfield sie 1982 populär machte und weiter verbesserte.

Schlussfolgerung

Die charakteristischen Merkmale eines Hype-Zyklus sind eine Boom-Phase, in der Forscher, Entwickler und Investoren übermäßig optimistisch sind und ein enormes Wachstum stattfindet, und eine Bust-Phase, in der Investitionen zurückgezogen werden und das Wachstum erheblich zurückgeht. Aus der in diesem Artikel dargestellten Geschichte geht hervor, dass die KI zwischen 1956 und 1982 einen solchen Zyklus durchlief.

Ausgehend von der Vision von Turing und Minsky, dass eine Maschine intelligentes Leben imitieren könnte, erhielt die KI ihren Namen, ihre Aufgabe und ihren Hype von der Konferenz, die McCarthy 1956 an der Dartmouth University veranstaltete. Dies markierte den Beginn der Boomphase des KI-Hype-Zyklus. Zwischen 1956 und 1973 wurden viele bahnbrechende theoretische und praktische Fortschritte auf dem Gebiet der KI erzielt, darunter regelbasierte Systeme, flache und tiefe neuronale Netze, Verarbeitung natürlicher Sprache, Sprachverarbeitung und Bilderkennung. Die Errungenschaften, die in dieser Zeit stattfanden, bildeten die ersten Vorbilder für die heutigen KI-Systeme.

Was in dieser Boomphase ebenfalls stattfand, war „irrationaler Überschwang“. Die Pioniere der KI machten schnell übertriebene Vorhersagen über die Zukunft von starken, künstlich intelligenten Maschinen. Bis 1974 trafen diese Vorhersagen nicht ein, und die Forscher erkannten, dass ihre Versprechungen überzogen waren. Zu diesem Zeitpunkt waren auch die Investoren skeptisch geworden und zogen sich aus der Finanzierung zurück. Dies führte zu einer Flaute, auch KI-Winter genannt, in der die Forschung im Bereich der KI nur langsam vorankam und sogar der Begriff „künstliche Intelligenz“ verschmäht wurde. Die meisten der wenigen Erfindungen in dieser Zeit, wie Backpropagation und rekurrente neuronale Netze, wurden weitgehend übersehen, und es wurden erhebliche Anstrengungen unternommen, um sie in den folgenden Jahrzehnten wiederzuentdecken.

Im Allgemeinen sind Hype-Zyklen zweischneidige Schwerter, und derjenige, den die KI zwischen 1956 und 1982 erlebte, war nicht anders. Es gilt, daraus zu lernen: Die Erfolge der Boom-Phase sollten in Erinnerung bleiben und gewürdigt werden, aber die Überschwänglichkeit sollte zumindest mit einer gewissen Skepsis betrachtet werden, um die vollen Strafen der Bust-Phase zu vermeiden. Wie bei den meisten Hype-Zyklen tauchen jedoch ab Mitte der 1980er Jahre wieder „grüne Triebe“ auf, und zwischen 1983 und 2010 kam es zu einem allmählichen Wiederaufleben der KI-Forschung; wir werden diese und verwandte Entwicklungen in unserem nächsten Artikel „Wiederaufleben der Künstlichen Intelligenz zwischen 1983 und 2010“ besprechen.

Referenzen für alle Artikel dieser Serie finden Sie unter www.scryanalytics.com/bibliography

Zusätzliche Informationen über die Geschichte der KI finden Sie in:

McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.

Russell Stuart; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach. London, England: Pearson Education. ISBN 0-137-90395-2.

Bio: Dr. Alok Aggarwal, ist CEO und Chief Data Scientist bei Scry Analytics, Inc. Zuvor war er bei IBM Research Yorktown Heights, gründete das IBM India Research Lab und war Gründer und CEO von Evalueserve, das weltweit über 3.000 Mitarbeiter beschäftigte. Im Jahr 2014 gründete er Scry Analytics.

Original. Wiederveröffentlicht mit Genehmigung.

Verwandt

  • Deep Learning – Vergangenheit, Gegenwart und Zukunft
  • Eine kurze Geschichte der künstlichen Intelligenz
  • Branchenprognosen: Die wichtigsten KI-, Big Data- und Data Science-Entwicklungen im Jahr 2017 und Trends für 2018

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.