KDnuggets

By Alok Aggarwal, Scry Analytics.

1980年代にはパソコン、1990年代にはインターネットとワールドワイドウェブ、2000年代にはスマートフォンとソーシャルメディア、そしてこの10年には人工知能(AI)と機械学習と、あらゆる年代にテクノロジーの流行語はあるようです。 しかし、AIは67年前に誕生した分野であり、本記事は5回シリーズの第1回目として、その内容を紹介します。

  1. この記事では、AIの起源と、1950年から1982年にかけての最初のハイプ・サイクルについて説明します
  2. 2番目の記事では、1983年から1983年のAIの復活とその業績について説明します
  3. そして、3番目の記事では、1983年から1994年のAIの復活とその業績について説明します。2010年
  4. 第3回では、AIシステムがすでに人間に匹敵する領域について述べる
  5. 第4回では、現在の人工知能のハイプサイクルについて述べる
  6. 第5回では、2018年から2035年にかけて、脳が何を予見しているのかについて述べる。 9842>

はじめに

人工知能(AI)は今日最も人気のある話題の1つですが、一般的に忘れられがちな事実は、実は1950年に生まれ、1956年から1982年の間にハイプサイクルを経たことです。 本稿の目的は、このサイクルのブーム期に起こった成果のいくつかに焦点を当て、何がそのバスト期につながったのかを説明することである。 このハイプサイクルから学ぶべき教訓は、その成功が今日使用されている機械学習アルゴリズムの原型を形成し、その欠点が有望な研究開発分野での過度の熱狂の危険性を示していることを見逃してはならない。 チューリングは彼の代表的な論文「計算機と知能」の中で、人間、コンピュータ、質問者(人間)が3つの異なる部屋にいる模倣ゲームを定式化した。 尋問者の目的は、一連の質問をし、タイプされた回答を読むことによって、人間とコンピュータを区別することであり、コンピュータの目的は、尋問者に自分が人間であると思わせることである……。 1952年のBBCのインタビューで、チューリングは、2000年までには、平均的な尋問者が5分間のセッション後に人間を正しく識別できる確率は70%以下になるだろうと示唆しました。 1951 年、マービン・ミンスキーは、脳がニューロンの電気ネットワークで構成され、全パルスまたは無パルスで発火することを示す初期の神経科学研究に触発されて、ラットの行動を計算でモデル化しようと試みました。 物理学大学院生のディーン・エドモンズと共同で、「確率的神経類似強化計算機(SNARC)」と呼ばれる最初の神経回路網マシンを構築した。 約300本の真空管とモーターで構成された原始的なものでしたが、小さな迷路の中で餌を探すネズミの行動をモデル化することに成功しました。 例えば、アーサー・サミュエルは1952年にチェッカーをプレイするプログラムを作成し、これが世界初の自己学習プログラムであった。 これは、人間の問題解決能力を模倣した最初のプログラムであり、ホワイトヘッドとラッセルの『プリンキピア・マテマティカ』の最初の52の定理のうち38を証明することになったのです。

ブーム期の始まり これらの成功に触発され、若きダートマス大学のジョン・マッカーシー教授は、1956年に会議を開き、20人の先駆的研究者を集めて、「人間のように推論でき、抽象思考、問題解決、自己改善ができる機械を作る方法を模索」させたのでした。 この会議での彼の提案で、「人工知能」という言葉が生まれ、この会議で AI はそのビジョン、使命、誇大広告を獲得したのである。 たとえば、1958 年にサイモンとニューウェルは、「10 年以内にデジタル コンピューターがチェスの世界チャンピオンになる」、「10 年以内にデジタル コンピューターが重要な新しい数学の定理を発見し証明する」と述べています。

  • 1961年にミンスキーは「私たちが生きている間に、機械は一般的な知能で私たちを超えるかもしれない」と書き、1967年には「一世代のうちに、知性のほとんどの領域が機械の領域外に残ると私は確信している。 – Marvin Minsky, 1961

    AIはハリウッドでも注目されていた。 1968年、アーサー・クラークとスタンリー・キューブリックは、映画『2001年宇宙の旅』を製作しました。その敵役は、創造性、ユーモアのセンス、そして生存を脅かす誰に対しても策を講じる能力を備えた人工知能コンピュータ、HAL 9000でした。 実際、ミンスキーはこの映画のアドバイザーを務め、登場人物の一人であるビクター・カミンスキーは彼にちなんで命名された。

    AIのサブ分野が生まれる

    1956年から1982年にかけて、AIにおける衰えぬ情熱は、以下に説明するいくつかのAIのサブ分野を誕生させる精緻な仕事を引き起こした。 この研究の多くは、現代の AI の理論の最初のプロトタイプにつながった。

    ルールに基づくシステム

    ルールに基づくエキスパートシステムは、一連の「if-then-else」ルールを実装することにより、複雑な問題を解決しようとするものである。 このようなシステムの利点は、その命令(”if” や “else” を見たときにプログラムが何をすべきか)が柔軟で、コーダー、ユーザー、プログラム自身のいずれかによって変更可能であることである。 このようなエキスパート システムは、1970 年代に Feigenbaum らによって作成および使用され、その多くが今日の AI システムの基礎となっています。

    機械学習の分野は、1959 年に Arthur Samuel によって「明示的にプログラムされなくても学習する能力をコンピュータに与える研究分野」という造語で語られました。 機械学習は広大な分野であり、その詳細な説明は本記事の範囲外である。 本連載の第2回目(第1ページのプロローグを参照)では、そのサブ分野と応用について簡単に説明する。 しかし、以下では、パーセプトロンネットワークと呼ばれる機械学習プログラムの一例を紹介する。

    「機械学習とは、コンピュータに明示的にプログラムされることなく学習する能力を与える研究分野である」- Arthur Samuel, 1959

    単層・多層パーセプトロンネットワーク

    1943年のマッカロックとピッツ、1949年のヘブの研究により、ローゼンブラットは1957年に通信ニューロンの人口モデルとしてパーセプトロンネットワークを発表した。 このモデルは図5に示すようなもので、簡単に説明すると次のようになる。 入力変数が入力される頂点の層は、隠れ層(パーセプトロンとも呼ばれる)に接続され、さらにその隠れ層はパーセプトロンの出力層に接続されている。 入力頂点から隠れ層のパーセプトロンに接続される信号は、その接続に関連する「重み」によって校正され、この重みは「学習プロセス」の中で割り当てられる。 隠れ層のパーセプトロンから出力層のパーセプトロンへの信号も同様に較正される。 人間の神経細胞と同様に、パーセプトロンは、入力されるすべての信号の重みの合計が特定の電位を超えると「発火」する。 しかし、人間とは異なり、このモデルでは信号は出力層に向かってのみ伝達されるため、この種のネットワークはしばしば「フィードフォワード」と呼ばれる。 パーセプトロンの隠れ層が1層しかない(つまり重み付きエッジ接続が2層ある)パーセプトロンネットワークは、後に「浅い」人工ニューラルネットワークとして知られるようになった。 浅いネットワークは能力に限界がありましたが、ローゼンブラットは、彼が作成したマーク 1 と呼ぶ 1 層のパーセプトロン ネットワークを作成することに成功し、基本的な画像を認識することができたのです。 実際、深いネットワークのための最初の一般的な学習アルゴリズムは、1965 年の Ivakhnenko と Lapa の仕事にさかのぼります。 1971 年、Ivakhnenko は 8 層もの深いネットワークを検討し、それらを学習する技術も提供しました。

    自然言語処理 (NLP)

    1957年、Chomsky は構文を理解するためのルールベースのシステム、普遍文法を用いて言語学を大きく変革しました。 これは、1960 年代に研究者が成功した NLP システムを作成するために使用できる最初のモデルを形成し、小さなボキャブラリーで動作し、特定のドメインのテキスト文書を部分的に理解できるプログラムである SHRDLU がその例です。 1970 年代初頭、研究者は概念オントロジーを書き始めました。これは、コンピューターが単語、フレーズ、および概念の関係を解釈できるようにするデータ構造で、これらのオントロジーは今日も広く使用されています。 このシステムは1960年代後半に大きく改良され、Reddyは精度は低かったが、大語彙の連続音声をテキストに変換する最初のプログラムの1つであるHearsay Iを作成した。 1975年、彼の教え子であるBakerとBakerは、Hearsay Iをさらに改良し、音響、言語、構文などさまざまな情報源を組み合わせることができる統合確率モデルである隠れマルコフモデル(HMM)を用いて、ドラゴンシステム(Dragon System)を開発しました。 今日、HMM は音声認識の効果的なフレームワークとして残っている。

    画像処理とコンピュータビジョン

    1966 年の夏、ミンスキーは MIT の学部 1 年生を雇い、「テレビカメラをコンピュータに接続して、見たものを記述するように」という問題を解くよう依頼した。 その目的は、画像から3次元構造を抽出し、それによってロボットの感覚システムが人間の視覚システムを部分的に模倣することを可能にすることだった。 1970 年代初頭のコンピュータビジョンの研究は、画像からのエッジの抽出、線や円のラベル付け、動画での動きの推定など、今日存在する多くのアルゴリズムの基礎を形成した。

    Commercial Applications

    上記の理論の進歩は、いくつかのアプリケーションをもたらした。これらのほとんどは当時、実際には使用されなかったものの、後にそれらの派生物が商業的に使われるための段階となったものである。 1964 年から 1966 年にかけて、Weizenbaum は最初のチャットボットである ELIZA を作成しました。これは、バーナード ショーの小説『ピグマリオン』 (後に映画『マイ フェア レディ』に採用) で正しい話し方を教わったエリザ ドリトルにちなんで命名されました。 ELIZAは、時には人間と会話しているかのようにユーザーをだますこともできたが、実際には、ELIZAはしばしば意味のない標準的な応答しかしなかった……。 その後、1972年に医療研究者のコルビーが「偏執狂的」なチャットボット「PARRY」を作成したが、これも心ないプログラムであった。 それでも、短い模倣ゲームでは、精神科医は PARRY のわめき声と妄想的な人間のわめき声を区別することができなかった。

    ロボティクス

    1954 年に Devol が初めてプログラム可能なロボット「ユニメート」を開発した。 1972年、早稲田大学の研究者たちは、ユニメイトを大幅に改良し、世界初の本格的な知的ヒューマノイドロボット「WABOT-1」を完成させました。 ほとんどおもちゃのようなロボットでしたが、四肢のシステムにより歩行や把持、手による運搬ができ、人工の目と耳からなる視覚システムにより物体までの距離や方向を計測し、人工の口により日本語で会話することができました。 これは、ブロックを積み上げることができるロボットの作成など、マシンビジョンの革新的な仕事へと徐々につながっていきました。 後から振り返ってみると、研究者は自分たちのアプローチに 2 つの根本的な問題があることに気づきました。

    限られた高価な計算能力

    1976年には、世界最速のスーパーコンピューター (500万ドル以上する) は、1 秒間に約 1 億の命令を実行できるにすぎませんでした。 一方、モラベックによる 1976 年の研究では、人間の網膜のエッジマッチングと動き検出の機能だけでも、コンピュータがその 10 倍の速度で命令を実行する必要があることが示されています。 同様に、人間には約 860 億のニューロンと 1 兆のシナプスがあります。

    人間の思考を支える謎 科学者は人間の脳の機能を理解しておらず、特に創造性、推論、ユーモアの背後にある神経学的メカニズムについては知らないままでした。 機械学習プログラムが正確に何を模倣しようとするのかが理解されていないことは、人工知能の理論を前進させる上で大きな障害となりました。 実際、1970年代には、AI研究者が提唱する「人間の脳を模倣する」という考え方に、他分野の科学者が疑問を呈し始めていたほどだ。 たとえば、機械にとって記号が「意味」を持たないのであれば、その機械は「思考している」とは言えないと主張する人もいました。 例えば、1969年にミンスキーとパパートが出版した『パーセプトロン』では、ローゼンブラットの一隠蔽層パーセプトロンの深刻な限界が指摘されている。 人工知能の創始者の1人がパーセプトロンの欠点を指摘しながら共著したこの本は、ほぼ10年間、ニューラルネットワークの研究に対する深刻な抑止力として機能した。 たとえば、1977年の会議で、現在はかなり慎重になっているジョン・マッカーシーは、そのような機械を作るには「概念のブレークスルー」が必要であると指摘した。 1950年代の大げさな宣伝が期待を膨らませ、1973年までに結果が出ないと、米英政府はAIへの研究資金を打ち切った。 日本政府も1980年に一時的に追加資金を提供したものの、1980年代後半には急速に幻滅し、再び出資を取りやめた。 この不況期(特に1974年から1982年まで)は、人工知能の研究がほぼ完全にストップした時期であり、一般に「AIの冬」と呼ばれている。 実際、この時期およびその後の数年間、「コンピュータ科学者やソフトウェア技術者の中には、野生の目をした夢想家と見られるのを恐れて、人工知能という言葉を避ける人もいました」.

    「…あなたが欲しいのは 1.7 のアインシュタインとマンハッタン計画の 0.3 で、まずはアインシュタインを求めるからですよ。 5年から500年かかると思います。” – John McCarthy, 1977

    1974-1982年の期間における一般的な態度は非常に残念なもので、この期間に行われたいくつかの実質的な進歩は基本的に気付かれず、それらを再現するために重要な努力が行われた。 そのような進歩には次の 2 つがあります。

    最初のものはバックプロパゲーション技法で、エッジにほぼ最適な重みを割り当てるニューラルネットワークを効率的に訓練するために今日よく使用されているものです。 1960年代にKelley, Bryson, Dreyfus, Hoなど複数の研究者が独自に導入し、1970年にLinnainmaaが実装したが、主に無視されていた。 同様に、この手法がニューラルネットワークの学習に有効であることを提案したWerbosの1974年の論文も、バスト期が終わろうとしていた1982年になってから発表された。 1986年、この技術はRumelhart、Hinton、Williamsによって再発見され、その実用的な意義を示すことで普及した。
    2つ目は、RNN(Recurrent neural network)で、これはRosenblattのパーセプトロンネットワークと類似しているが、入力層と出力層の両方に接続が向かうことができるのでフィードフォワードではないものである。 このようなネットワークは、より生物学的に正確な脳のモデルとして、1974年にLittleによって提案された。 残念なことに、RNN は 1982 年にホップフィールドが普及させ、さらに改良されるまで注目されることはなかった。

    結論

    ハイプサイクルの特徴は、研究者や開発者、投資家が過度に楽観的になり、大きな成長が起こる「ブーム期」と、投資が回収され、成長が大幅に縮小する「バスト期」にある。 チューリングとミンスキーの「機械が知的生命体を模倣できる」という構想から生まれたAIは、1956年にダートマス大学でマッカーシーが開催した会議から、その名前と使命、そして誇大宣伝を受けることになるのですが、本稿で紹介するストーリーからは、1956年と1982年にこのサイクルがあったことがわかります。 この会議が、AIの誇大広告サイクルのブームフェーズの始まりとなった。 1956年から1973年にかけて、ルールベースシステム、浅いニューラルネットワークと深いニューラルネットワーク、自然言語処理、音声処理、画像認識など、AIの分野で多くの理論的・実用的な進歩が発見された。 この時期の成果は、現在のAIシステムの最初の原型を形成することになった。 AIの先駆者たちは、強力な人工知能マシンの未来について、すぐに誇張した予測を立てた。 しかし、1974年になると、その予測は現実のものとならず、研究者たちは自分たちの約束が誇張されたものであったことに気づく。 この時点で、投資家も懐疑的になり、出資を取りやめた。 このため、AIの研究は停滞し、「人工知能」という言葉さえも敬遠されるようになり、「AIの冬」とも呼ばれる不況期を迎えることになった。 バックプロパゲーションやリカレントニューラルネットワークなど、この時期の数少ない発明のほとんどは見過ごされ、その後の数十年間にそれらを再発見するために多大な努力が払われた

    一般にハイプサイクルは両刃の剣で、1956年から1982年の間にAIが示したサイクルも同様である。 ブーム期の成功は記憶され評価されるべきだが、その過度の熱狂は、バスト期における完全なペナルティを避けるために、少なくともある程度の懐疑心を持って見られるべきである。 しかし、多くのハイプ・サイクルと同様に、1980年代半ばから再び「緑の芽」が現れ始め、1983年から2010年にかけて徐々にAI研究が復活しました。これらと関連する動きについては、次回の「1983年から2010年における人工知能の復活」でご紹介します。

    このシリーズのすべての記事の参考文献は、www.scryanalytics.com/bibliography

    AIの歴史についての追加情報は、次のサイトで見つけることができます。

    McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.

    Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence (AI:人工知能の激動の探求). New York, NY: Basic Books. ISBN 0-465-02997-3.

    Russell Stuart; Norvig, Peter (2003). 人工知能: 現代的アプローチ. ロンドン、イングランド。 ピアソン・エデュケーション. ISBN 0-137-90395-2.

    Bio: アロック・アガーワル博士は、Scry Analytics, Inc.のCEO兼チーフデータサイエンティストです。 以前はIBM Research Yorktown Heightsに勤務し、IBM India Research Labを設立、Evalueserveの創設者兼CEOとして世界中で3,000人以上の従業員を雇用していました。 2014年にScry Analyticsを立ち上げる。

    原文ママ 許可を得て再掲載。

    関連

    • Deep Learning – Past, Present, and Future
    • A Brief History of Artificial Intelligence
    • 業界の予測。 2017年の主なAI、ビッグデータ、データサイエンスの進展と2018年の動向
  • コメントを残す

    メールアドレスが公開されることはありません。