トップQs
タイムライン
チャット
視点

人工知能の歴史

ウィキペディアから

Remove ads

人工知能の歴史は、古代の神話における神のごとき名工が、人工物に知性意識を授けたという逸話にまでさかのぼることができると言われる。英文学修士であり技術哲学科学哲学作家でもあるパメラ・マコーダック英語版は、人工知能(AI)の起源について「神を人の手で作り上げたいという古代人の希望」が起こった時と表現している[1]

現代的な意味での人工知能は、人間の思考過程を記号の機械的操作として説明することを試みた哲学者に始まる。1940年代に数学的推論の抽象的本質にもとづいたマシン、プログラム可能なデジタルコンピュータの発明もその延長線上にある。この装置とその背後にある考え方に触発された科学者はほんの一握りだったが、それでも彼らは電子頭脳を構築する可能性を真剣に議論しはじめた。

人工知能の研究が学問分野として確立したのは、1956年夏にダートマス大学のキャンパスで開催された会議がきっかけである。その後のAI研究を牽引したのがこの会議の参加者たちであり、彼らの多くは、人間と同程度に知的なマシンが自分たちが生きているうちに出現するだろうと考え、むしろそのビジョンを実現させるためにあらそって数百万ドルの資金を獲得した。しかしその結果明らかになったのは、彼らのプロジェクトが当分は実現できないであろうという予測だった。1973年にはジェームス・ライトヒル英語版が主導したて政界から圧力がかかり、アメリカでもイギリスでも成果の見えない人工知能関連の研究への出資を終了した。それでも日本では官民問わず500億円以上の資金が人工知能の研究に注がれたが、やはり成果は出ず失望した投資者たちは80年代末には資金をひきあげた。このように人工知能をめぐる「夏と冬」は繰り返されてきたといってよい。しかし現代でも人工知能については「大胆な」予測をする人々は後をたたない[2]

官僚やベンチャー・キャピタリストの間で評価がいりみだれてきたにもかかわらず、実際に人工知能の研究は発展しつづいている。1970年代には解決不可能と思われていた問題にも糸口が見つかり、具体的な商品にも応用されるようになっていった。しかし、第一世代の人工知能の研究者らの楽観的予測に反して、強いAIを持つマシンの構築は実現していない。1950年の有名な論文でも、アラン・チューリングは「我々はほんの少し先しか見ることができない」と認めていた。「それでも」と彼は続けている。その少し先に「我々がなすべきことが数えきれないほど浮かんでくる」[3]

Remove ads

前史

要約
視点

McCorduck (2004) では「何らかの形態の人工知能は、西洋精神史に広くみられる考え方で、速やかな実現が望まれている夢」だとし、神話、伝説、物語、思索、機械仕掛けのオートマタなどで表現されてきたとされている[4]

神話やフィクションにおけるAI

ギリシア神話に見られる機械人間や人工生命体としては、ヘーパイストスの黄金のロボットやピュグマリオーンガラテイアがある[5]。中世には物体に精神を植えつける神秘主義的秘術や錬金術的方法の噂があり、ジャービル・イブン=ハイヤーンTakwin[6]パラケルススホムンクルス[7]イェフダ・レーヴ・ベン・ベザレルゴーレム[8]などが知られている[9]。19世紀には、人造人間や思考機械というアイデアがフィクション内で発展し、メアリー・シェリーの『フランケンシュタイン』やカレル・チャペックの『R.U.R.(ロッサム万能ロボット会社)』[10]が登場。思索面ではサミュエル・バトラーの "Darwin among the Machines" がある[11]。以降、AIは現在に至るまでサイエンス・フィクションにおける重要な要素の1つとなっている。

オートマタ

Thumb
アル=ジャザリのプログラム可能なオートマタ(1206年)

写実的な人間型オートマタは、様々な文明で職人が製作している。例えば、穆王の時代の偃師[12]アレクサンドリアのヘロン[13]アル=ジャザリ[14]ヴォルフガング・フォン・ケンペレン[15]などがいる。既知の最古のオートマタとしては、古代エジプト古代ギリシアの神聖な彫像がある。信者はそれらの彫像に職人が知恵と感情を伴う本当の心を吹き込んだと信じた。ヘルメス・トリスメギストスは、「神の真の性質を発見することで、彼らはそれを再現することができた」と記している[16][17]

形式的推論

人工知能は、人間の思考過程を機械で再現できるという前提に基づいている。機械的あるいは形式的推論の歴史は長い。中国インドギリシアの哲学者らは、いずれも紀元前に形式的推論の構造化された手法を発展させた。その発展に寄与した哲学者としては、アリストテレス三段論法を定式化して分析した)、エウクレイデス(その『原論』は形式的推論の原型となった)、フワーリズミー代数学を発展させ、その名は「アルゴリズム」として残っている)、ヨーロッパスコラ学の哲学者であるオッカムのウィリアムヨハネス・ドゥンス・スコトゥスなどが挙げられる[18]

マジョルカ人哲学者ラモン・リュイ (1232–1315) は論理的方法で知識を生み出すことを意図した「論理機械」をいくつか開発した[19]。リュイは自身の機械について、単純な論理操作で基本的かつ紛れもない真理を結合する機械的要素群であり、機械的手段で生み出された真理が考えられるあらゆる知識を生み出すとした[20]。リュイの業績はゴットフリート・ライプニッツに大きな影響を及ぼした[21]

17世紀初め、ルネ・デカルトは、動物の身体がただの複雑な機械であると提唱した(機械論)。

Thumb
ゴットフリート・ライプニッツは、人間の行う推論を機械的な計算に還元できると考えた。

17世紀になると、ライプニッツトマス・ホッブズルネ・デカルトらはあらゆる理性的思考は代数学や幾何学のように体系化できるのではないかという可能性を探究した[22]ホッブズは『リヴァイアサン』で「推論は計算以外のなにものでもない」と記している[23]ライプニッツは推論のための汎用言語 (characteristica universalis) を想像し、論証を計算に還元しようと考えた。それによって「2人の哲学者の論争は2人の会計士の論争程度のことになる。彼らは論証を石版に書き記し(必要な友人を証人に立て)『計算』してみればよい」とした[24]。これらの哲学者の考え方から物理記号システム英語版仮説が明確化していき、それがAI研究の指針となった。

20世紀になると、数理論理学の研究が人工知能の実現可能性への根本的なブレークスルーを提供する。その基盤となったのは、ブールThe Laws of Thoughtフレーゲの『概念記法』である。フレーゲの体系に基づき、1913年、ラッセルホワイトヘッドが重要な著作『プリンキピア・マテマティカ』(数学原理)において数学的基礎の形式的記述を行い、形式論理に革命をもたらした。ラッセルの成果に触発されたダフィット・ヒルベルトは、当時の数学者らに「数学におけるあらゆる推論は形式化できるか?」という根本的問題を提示した(ヒルベルト・プログラム[18]。この問題への解答が、ゲーデル不完全性定理チューリング機械チャーチラムダ計算である[18][25]。その解答は2つの意味で驚くべきものだった[要出典]。第一に彼らは数理論理が成し遂げられることには限界があることを証明した[要出典]

Thumb
ENIAC

第二に(こちらがAIにとっては重要)、彼らの業績が意味するのは、その限界の中でなら任意の数学的推論を機械化できるという事実だった[要出典]チャーチ=チューリングのテーゼでは、0と1といった単純な記号群だけで任意の数学的推論過程を模倣できることが暗示されている。鍵となる洞察はチューリングマシンであり、記号操作を抽象化した単純な理論上の機械である。チューリングマシンは一部の科学者が思考する機械の可能性を議論しはじめるきっかけとなった[18][26]

計算機科学

計算機械は古代から作られており、歴史の進展と共にゴットフリート・ライプニッツなど多くの数学者が洗練させていった。ブレーズ・パスカルは1642年、最初の機械式計算機を製作した。19世紀初め、チャールズ・バベッジはプログラム可能な計算機(解析機関)を設計したが、実際には製作しなかった。エイダ・ラブレスはその機械が「精巧で科学的な音楽の断片をそれなりの複雑さと長さで作曲するかもしれない」と推測し[27]、バベッジとラブレスはプログラム可能な機械式計算機の開発を行った。エイダ・ラブレスはその機関でベルヌーイ数を計算する方法を詳細に注記したことから、世界初のプログラマと言われている。

世界初の現代的コンピュータ(Zuse Z3ENIACColossus)は第二次世界大戦の際に開発された[28]。その後アラン・チューリングの理論的基礎をジョン・フォン・ノイマンが発展させた形でコンピュータが発達していった[29]

Remove ads

[1943年−1956年] 人工知能の誕生

要約
視点
Thumb
IBM 702: 第一世代のAI研究者が使ったコンピュータ
以降の節の表題についての注[30]

1940年代と1950年代、様々な分野(数学、心理学、工学、経済学、政治学)出身の一握りの科学者が人工頭脳(artificial brain)を作る可能性を議論し始めた。人工知能研究は1956年に学問分野として確立された。1950年代になるとAIに関して活発な成果が出始めた。

サイバネティクスと初期のニューラルネットワーク

思考機械についての最初の研究は、1930年代末から1950年代初期にかけて流行ったいくつかのアイデアをまとめるところから着想された。当時最新の神経学の成果で、脳は神経細胞の電気ネットワークであり、全てか無かというパルスで点火されるということがわかった。ノーバート・ウィーナーサイバネティックスは、電気ネットワークにおける制御と安定性を扱っていた。クロード・シャノン情報理論はデジタル信号(全てか無かの信号)を扱っていた。アラン・チューリング計算理論は任意の計算をデジタルで表せることを示した。これらの相互に密接に関連したアイデアが電子頭脳構築の可能性を示唆していた[31]

この文脈での業績例として、ウィリアム・グレイ・ウォルター英語版Johns Hopkins Beast英語版 のようなロボットがある。それらの機械はコンピュータもデジタル電子回路も記号推論も使っておらず、完全にアナログ電子回路のみで制御されていた[32]

ウォーレン・マカロックウォルター・ピッツは1943年に「神経活動に内在するアイデアの論理計算」と題する論文を発表し、理想化した人工神経細胞のネットワークを解析し、どうやって単純な論理関数のような働きをするのかを示した。それが後の研究者らにニューラルネットワークと呼ばれるものの最初の研究である[33]ピッツマカロックに触発された学生の1人に若きマービン・ミンスキー(当時24歳の学生)がいた。1951年、ミンスキーは世界初のニューラルネットマシンSNARC英語版を構築した[34]ミンスキーはその後50年間、AI界の重要なリーダーの1人となった。

ゲームAI

1951年、マンチェスター大学Ferranti Mark 1 というマシンを使い、クリストファー・ストレイチーチェッカープログラムを、ディートリッヒ・プリンツがチェスのプログラムを書いた[35]アーサー・サミュエルは1950年代中ごろから60年代初めにかけてチェッカーのプログラムを開発し、まともなアマチュアと互角に渡り合える程度のスキルを身につけるようになった[36]ゲームAIはその後もAIの進化の程度を測る手段として使われることになった。

チューリングテスト

1950年、アラン・チューリングは記念碑的論文 Computing Machinery and Intelligence を発表し、真の知性を持った機械を創りだす可能性について論じた[37]。彼は「知性」を定義するのは難しいとして、有名なチューリング・テストを考案した。これは知的ふるまいに関するテストを可能にする方法として導入された。テレタイプ端末を介した機械との対話が人間との対話と区別できない場合、その機械は「知的」だといえる。このように問題を単純化したことでチューリングは少なくとも「もっともらしい」「思考機械」の可能性を説得力のあるものとして主張でき、この論文は全ての一般的な反論に答えた[38]チューリング・テスト人工知能の哲学英語版における最初の真面目な提案となった。

記号的推論と Logic Theorist

1950年代中ごろにコンピュータにアクセス可能になると、一部の科学者は数を操作できる機械は記号も操作でき、記号の操作は人間の思考の本質を表しうると直観的に気付いた。それが思考機械に迫る新たな手法となった[39]

1955年、アレン・ニューウェルと(後にノーベル賞を受賞した)ハーバート・サイモンは(クリフ・ショーの助けも得て)"Logic Theorist" を作った。このプログラムはラッセルホワイトヘッドの『プリンキピア・マテマティカ』の最初の方にある52の定理のうち38の定理を証明してみせ、そのうち一部は新たな洗練された証明方法を見出した[40]。サイモンは彼らが「かの心身問題を解決し、物質で構成されているシステムが精神の特性をどのようにして持つことができるかを説明した」と述べている[41]。これは、後にジョン・サールが「強いAI」と呼んだ哲学的立場(機械は人間の身体と同じように精神を持ちうる)を表した初期の文章の1つである[42]

ダートマス会議 (1956): AIの誕生

1956年のダートマス会議[43]は、マービン・ミンスキージョン・マッカーシー、さらに2人よりやや年上のクロード・シャノンIBMナサニエル・ロチェスターが準備し組織した。1956年夏、ダートマス大学が入居している建物の最上階を引き継いだ数学と計算機科学者のグループの一人である若き教授ジョン・マッカーシーはワークショップでのプロポーザルで "Artificial Intelligence"(人工知能) という言葉を作り出した。この会議の提案書には「学習のあらゆる面または知能の他のあらゆる機能は正確に説明できるので、機械でそれをシミュレートすることができる」と書かれていた[44][45]。会議参加者としては他に、レイ・ソロモノフオリバー・セルフリッジトレンチャード・モア英語版アーサー・サミュエルアレン・ニューウェルハーバート・サイモンがおり、いずれもAI研究の最初の十年間で重要なプログラムを作った人々である[46]。この会議でニューウェルとサイモンが Logic Theorist を初めて公表し、マッカーシーがその分野の名称を "Artificial Intelligence" にしようと説得した[47]。ジョン・マッカーシーはまたプログラミング言語LISPを開発した。1956年のダートマス会議でAIには名前がつけられ、目標が与えられ、最初の成功例が見られ、主なプレーヤーが揃った。そのため、これをAIの誕生とするのが一般的である[48]

1957年、コーネル航空研究所に所属していたフランク・ローゼンブラットが当時のIBM 704を使用して、パーセプトロンをシミュレートした。その後米国海軍研究局の情報システム部門から資金援助を受け、画像分類学習システム「マークIパーセプトロン」を開発。紙に印刷された正方形と円を区別することに成功した。また図形だけでなく文字の区別にも成功し、統計的機械学習だけでなく二項分類に人工神経が有用とみなされた最初の事例となった[49]。1960年以降、これらの成功例を受けて中央情報局(CIA)は航空写真の分析にパーセプトロンの応用をテストした。

Remove ads

[1956年−1974年] 第1回AIブーム: 推論と探索の時代

要約
視点

ダートマス会議後の数年は発見の時代で、新たな地平を疾走するような勢いだった。この時代に開発されたプログラムは推論と探索に頼っており、巨額を投じて開発された当時の最高峰のコンピュータであっても、処理可能な計算量はごく僅かであったため、非常に限定的な領域の問題しか解けなかったが、それでも当時の人々にとっては「驚異的」だった[50]。コンピュータは代数問題をといてみせ、幾何学の定理を証明してみせ、英会話を学習してみせた。ごく少数を除いて、当時の人々はコンピュータにそのような「知的」な行動が可能だとは全く信じていなかった[51]。研究者らはプライベートでも印刷物でも強烈な楽天主義を表明し、完全に知的な機械が20年以内に製作されるだろうと予測した[52]ARPAなどの政府機関は、この新しい領域にどんどん資金を注ぎ込んだ[53]

成果

1950年代末から1960年代にかけて、プログラムと新たな方向性で多くの成功例がみられた。以下に特に影響の大きいものを示す。

手段目標分析

初期のAIプログラムの多くは同じ基本アルゴリズムを採用していた。(ゲームに勝つ、定理を証明するなど)何らかの目標を達成するため、迷路を探索するようにそれに向かって(実際に移動したり、推論したりして)一歩一歩進み、袋小路に到達したらバックトラッキングする。この技法を「手段目標分析」と呼ぶ[54]

根本的な困難は、多くの問題で「迷路」でとりうる経路の数が天文学的だという点である(これを組合せ爆発と呼ぶ)。探索空間を狭めるためにヒューリスティクスや経験則を用い、解に到達しそうもない経路を排除する[55]

ニューウェルサイモンはこのアルゴリズムの汎用版を確立しようと試み、そのプログラムをGeneral Problem Solverと称した[56]。他の探索プログラムは幾何学の問題を解くなど印象的な成果をもたらしている。例えば、Herbert GelernterのGeometry Theorem Prover(1958)、ミンスキーの指導する学生James Slagleが書いた SAINT(1961)などがある[57]。行動計画を立案するために目標を探索するプログラムもある。例えばスタンフォード大学のロボット「シェーキー」の行動を制御するために開発されたSTRIPSがある[58]

Thumb
意味ネットワークの一例

自然言語

AI研究の重要な目標の1つが、コンピューターと英語などの自然言語で会話できるようにすることである。初期の成功例として Daniel BobrowSTUDENT というプログラムがあり、高校レベルの代数問題を解くことができた[59]

意味ネットワークは、概念(例えば、「家」、「ドア」)をノードとし、概念間の関係(例えば "has-a")をノード間のリンクで表したものである。意味ネットワークを使った最初のAIプログラムは Ross Quillian が書いたもので[60]、最も成功した(議論も呼んだ)のはロジャー・シャンクCD理論である[61]

ジョセフ・ワイゼンバウムELIZAは、非常にリアルな会話が可能で、ユーザーは人間と会話しているかのような錯覚を覚えるほどだった。これは来談者中心療法を行うおしゃべりロボット: chatterbot)であった。しかし、ELIZAは単純なパターンマッチングで応答しているだけで、会話の内容を理解していない。ELIZAはいわゆる人工無脳のさきがけである[62]

マイクロワールド

1960年代末、MIT人工知能研究所マービン・ミンスキーシーモア・パパートは、AI研究をマイクロワールドと名付けた人工的かつ単純な状況に焦点を合わせて行うべきだと提案した。彼らは、物理学などの成功している科学でも摩擦のない平面や完全な剛体などの簡素化したモデルを使うことで基本原理が最もよく理解されたことを指摘した。多くの研究が注目したのは、色つきの様々な形状と大きさの積み木が平らな平面の上に置かれている「積み木の世界」である[63]

このパラダイムから、実際に積み木が積まれた状況を画像から認識するためのマシンビジョンが発達した。これにはチームを率いたジェラルド・サスマン、制約伝播の概念を確立したデイビッド・ワルツ英語版パトリック・ウィンストン英語版といった人々が関わった。同じころミンスキーパパートは積み木を積むことができるロボットアームを製作して、積み木の世界を現実のものとした。このマイクロワールドのパラダイムでの最終成果はテリー・ウィノグラードSHRDLUである。SHRDLUは普通の英語の文で対話でき、計画を立案し、それを実行する[64]

楽観主義

第一世代のAI研究者は以下のような予測を述べている。

資金

1963年6月、MITは新たに創設された高等研究計画局(後のDARPA)から220万ドルの資金提供を受けた。この資金で Project MAC が創設され、そこにはミンスキーマッカーシーが5年前に作ったAIグループも含まれることになった。ARPAは1970年代まで毎年300万ドルを提供し続けた[70]ARPACMUニューウェルサイモンの計画にも、スタンフォード人工知能研究所ジョン・マッカーシーが1963年に創設)にも資金を提供した[71]。もうひとつの重要なAI研究所は1965年、ドナルド・ミッキーエディンバラ大学に創設した[72]。この4つの研究拠点がAI研究の中心として長く資金供給を受けた[73]

その資金はほとんどひも付きではなかった。ARPAの部長J・C・R・リックライダーは「プロジェクトではなく人間に投資するのだ」という信念を持っており、研究者には好きなように研究させた[74]。それがMITでの自由奔放な雰囲気を生み出し、ハッカー文化を誕生させることになったが[75]、いつ結果が出るかも分からない「野放し」状態は続かなかった。

日本での研究動向 (1960年代末-1970年代)

1967年、数理工学者の甘利俊一多層パーセプトロン確率的勾配降下法を考え世界初の定式化に成功。この業績は当時あまり注目されずに終わったが、1986年にヒントンらが誤差逆伝播法として再発見。

1979年、NHK技研で研究者として所属していた福島邦彦が曲率を抽出する多層の神経回路にコグニトロン型の学習機能を取り入れて、多層神経回路モデル「ネオコグニトロン」を発明[76]

Remove ads

[1974−1980] AIの冬第1期

要約
視点

1970年代、AIは批判と資金縮小に晒された。AI研究者は直面していた問題の難しさを正しく評価できなかった。楽天主義から予想される成果への期待があまりにも高まったが、結果はその期待に応えられず、AI研究への出資はほとんど無くなった[77]。同じころマービン・ミンスキーパーセプトロンが排他的論理和を例として、特徴量をそのままでは線形分離可能でないものは学習できないことを示した。これが誤解・誇張されて伝わってしまったことで、データに対してコネクショニズム(またはニューラルネットワーク)の分野は約10年間あまり盛んでなくなった[78]。1970年代後半のAIは一般大衆の受けが悪かったが、新たに論理プログラミング常識推論英語版などの新たな領域が生まれている[79]

問題

1970年代前半、AIプログラムの能力は限定的だった。最も進んだものでも小さな問題しか扱えず、どのプログラムも言ってみれば「おもちゃ」だった[80]。AI研究者は1970年代には解決できない根本的限界に直面した。その一部は後に克服されているが、21世紀の今も残っている問題もある[81]

コンピュータ性能の限界
実用化に当たっては、コンピュータのメモリ容量や速度の不足は深刻であった。例えば、Ross Quillian の自然言語処理プログラムはわずか20の語彙しか扱えず、それが当時のメモリに収まる限界だった[82]。1976年、ハンス・モラベックはコンピュータが知性を持つには数百万倍も強化する必要があると主張した。彼は、人工知能がコンピュータの能力を必要とするのは、航空機が動力を必要とするのと同じだという比喩を示唆した。あるしきい値以下では不可能だが、性能が高まっていけば最終的に容易に知性が得られるだろうと主張した[83]。例えばマシンビジョンについてモラベックは、人間の網膜がリアルタイムで物体の境界や動きを検出する能力を機械で実現するには、毎秒109回の命令実行が可能な(1000 MIPSの)汎用コンピュータが必要だと推定している[84]。2011年現在、実用的なコンピュータビジョンのアプリケーションは10,000から1,000,000MIPSの処理能力を要する。1976年当時の最速のスーパーコンピュータ Cray-1 は、せいぜい80から130MIPSの能力であり、当時のデスクトップ型コンピュータは1MIPSにも達していなかった。
Intractability組合せ爆発
1971年のスティーブン・クック定理英語版に基づき、1972年、リチャード・カープ指数関数時間(入力のサイズに対して指数関数的になる時間)でしか解けない問題が多数あることを示した (en)。それらの問題の最適解を求めるには、問題がごく小さい場合を除いて極めて多大な処理時間を要する。これは、AIプログラムが「おもちゃ」のような問題に適用している解法の多くを、そのままスケールアップしても使えないことを意味していた[85]
常識的知識英語版推論英語版
コンピュータビジョン自然言語処理といった重要な人工知能アプリケーションの多くは、実世界についての大量の情報を必要とする。見えているものが何なのか、話している内容が何についてなのか、といったことをプログラムが知る必要がある。つまり、そのようなプログラムは話題や見えているものについて子ども程度の知識を持っている必要がある。研究者はそういった情報の量が非常に膨大になることに気付いた。1970年当時、そのような知識を蓄えられるほど巨大なデータベースは構築できなかったし、それだけの情報を蓄積するプログラムをどう書けばいいのかも不明だった[86]
モラベックのパラドックス
定理証明や幾何学問題を解くといったことはコンピュータにとって比較的簡単だが、人間にとって簡単な顔の識別や物に当たらずに部屋を横切るといったタスクはコンピュータには非常に難しい。1970年代中ごろまでマシンビジョンロボット工学があまり進展しなかった原因はそのあたりにあった[87]
フレーム問題条件付与問題英語版
ジョン・マッカーシーのように論理学に基づいているAI研究者らは、論理そのものの構造を変更しないと自動計画における普通の推論を表現できないことを発見した。このため、新たな論理(非単調論理様相論理)を開発して問題を解こうと試みた[88]

資金供給の終り

AI研究に資金を供給していた機関(イギリス政府DARPANRCなど)は、成果がないことに苛立ち、AI研究へのひもなしの資金供給がほぼ全て削減対象となった。最初の動きは1966年、機械翻訳の進展のなさを批判した ALPAC の報告書である。2000万ドルを注ぎ込んだ後、NRCは全サポートを終了させた[89]。1973年、イギリスにおけるAI研究の現状を報告した Lighthill report では「壮大な目標」の達成には完全に失敗していることが批判され、イギリスでのAI研究の解体が始まった[90]。この報告書ではAI研究失敗の原因として組合せ爆発問題を挙げている[91]DARPACMUでの音声認識プロジェクトの進展に失望し、毎年300万ドルの資金を停止した[92]。1974年ごろにはAI研究への公的資金提供はほぼ見られなくなった。

ハンス・モラベックは同僚たちの非現実的な予測がこの危機の原因だとし、「多くの研究者が誇張を増大させるクモの巣に巻き込まれた」と述べている[93]。しかし問題はそれだけではない。1969年、マイケル・マンスフィールドの改正案が可決され、DARPAは「方向を定めない基礎研究よりも方向を定めた任務的研究」に資金提供するよう圧力がかかった。60年代のDARPAからの自由奔放な研究への資金提供は継続できなくなった。その代わりに目標がはっきりしているプロジェクト、例えば自律式戦車や戦闘指揮システムなどといったものへ方向性が変化した[94]

他学界からの批判

一部の哲学者は、AI研究者の主張に強く反論した。最初の批判者の1人 John Lucas は、ゲーデルの不完全性定理形式体系(コンピュータプログラムなど)では人間が真偽を判断できることも判断できない場合があることを示していると主張した[95]ヒューバート・ドレイファスは60年代の守られなかった約束を嘲笑し、人間の推論は「記号処理」などではなく、大部分が身体的かつ本能的で無意識なノウハウによっているとし、AIの前提を批評した[96][97]。1980年、ジョン・サールが提示した中国語の部屋は、プログラムが記号群を使っているからといって、それについて「理解」しているとは言えないことを示したものである(志向性)。記号群が機械にとって何の意味もないなら、その機械は「思考」しているとは言えないとサールは主張した[98]

これらの批判は、AI研究者には的外れに見えたため、ほとんど真剣に受け取られなかった。intractability常識推論英語版の問題の方が身近で差し迫ったものとして感じられていた。「ノウハウ」または「志向性」が実際のコンピュータプログラムにどんな違いを生じさせるかは不明瞭だった。ミンスキーはドレイファスとサールについて「彼らは誤解しているから、無視してかまわない」と述べた[99]。当時MITで教えていたドレイファスは冷たくあしらわれることになった。後に彼はAI研究者らが「あえて私と昼食をとり、目を合わせないようにした」と述べている[100]ELIZAの作者ジョセフ・ワイゼンバウムは、同僚たちのドレイファスへの対応が子どもっぽいと感じた。彼もまたドレイファスの考え方には率直に批判していたが、彼は「彼らのやり方が人を扱う方法ではなかったと意図的に明らかにした」[101]

ケネス・コルビー英語版ELIZAを使ってDOCTORというセラピストの会話ボットを書いたことをきっかけとして、ワイゼンバウムはAIについて真剣に倫理的疑念を抱くようになった。コルビーがそれを実際の治療に使えるツールと考えたことにワイゼンバウムは混乱した。確執が始まり、コルビーがそのプログラムへのワイゼンバウムの寄与を認めなかったことで事態は悪化した。1976年、ワイゼンバウムは『コンピュータ・パワー 人工知能と人間の理性』という本を出版し、人工知能の誤用が人命軽視につながる可能性があると主張した[102]

パーセプトロンとコネクショニズムの暗黒時代

パーセプトロンニューラルネットワークの一種で、1958年にフランク・ローゼンブラットが発表した。彼はマービン・ミンスキーとは高校の同級生だった。他のAI研究者と同様ローゼンプラットも楽観的で「パーセプトロンは最終的には学習でき、意思決定でき、言語を翻訳できるようになるだろう」と予言している。このパラダイムの研究は60年代に活発に行われたが、ミンスキーパパートが1969年に出版した著書『パーセプトロン』によって状況が一変した。同書はパーセプトロンに重大な制限があることを示唆し、ローゼンブラットの予測がひどく誇張されたものだったことを示唆していた。その影響は破壊的で、コネクショニズムに関する研究は10年間事実上まったくなされなかった。結局、新世代の研究者が後に研究を再開させ、人工知能の有効な一部となった。ローゼンプラットはミンスキーらの著書が出版されて間もなくボートの事故で亡くなったため、コネクショニズムの復活をその目で見ることはできなかった[78]

論理、Prologとエキスパートシステム

論理学をAI研究に導入したのはジョン・マッカーシーで、1958年に Advice Taker の提案書でのことである[103]。1963年、ジョン・アラン・ロビンソン英語版がコンピュータで演繹を実装する簡単な方法、導出ユニフィケーションのアルゴリズムを発見した。しかし、マッカーシーと彼の学生達が60年代後半に試みたように、直接的な実装は非常に困難だった。そのプログラムは単純な定理の証明にも天文学的なステップ数を必要とした[104]。論理へのより有効なアプローチは70年代にエジンバラ大学ロバート・コワルスキー英語版が発展させ、間もなくフランスの研究者アラン・カルメラウアー英語版とフィリップ・ルーセルと共同で論理プログラミング言語 Prolog を生み出すことになる[105]。Prologは論理のサブセット(「プロダクションルール」と密接に関連するホーン節)を使い、扱いやすい計算を可能にしている。ルールの考え方は長く影響を及ぼし、エドワード・ファイゲンバウムエキスパートシステムアレン・ニューウェルSoarの基盤となっている[106]

ドレイファスのように論理的アプローチを批判する者は、人間が問題解決の際に論理をほとんど使わないと指摘する。ピーター・ウェイソン英語版エレノア・ロッシュ英語版エイモス・トベルスキーダニエル・カーネマンといった心理学者の実験でそれが証明されている[107]。マッカーシーは人間がどうやっているかは無関係だと応えた。彼は、必要とされているのは問題を解くことができる機械であって、人間のように考える機械ではないと主張した[108]

フレームとスクリプト

マッカーシーの方向性はMITのAI研究者にも批判された。マービン・ミンスキーシーモア・パパートロジャー・シャンクは「ストーリー理解」や「物体認識」といった問題を解決しようとしており、それには人間のように思考する機械が「必要」だった。「椅子」や「レストラン」といった概念を普通に扱えるようにするには、人間が普通に行っているように非論理的な仮定をする必要がある。だが、そういった不正確な概念は論理で表現しづらい。ジェラルド・サスマンは「本質的に不正確な概念を説明するのに精密な言語を使っても、正確さは向上しない」と気付いた[109]。ロジャー・シャンクは彼らの「非論理的」アプローチを "scruffy"、マッカーシー、コワルスキー、ファイゲンバウムニューウェルサイモンといった研究者のアプローチを "neat" と称した[110]

1975年、ミンスキーは論文で "scruffy" の研究者らが似たようなツールを使っていることを記した。それは何らかの事物についての我々の常識的知識英語版を全て捉えるフレームワークである。例えば、「鳥」という概念を考えたとき、飛ぶ、虫を食べる、などといった一連の事実がすぐさま思い浮かぶ。我々はそれらの事実が常に真実ではないと知っているし、そういった事実を使った推論が「論理的」ではないと知っているが、我々が何かを語り考えるときそういった一群の構造化された前提が文脈の一部を形成している。彼はその構造を「フレーム英語版」と呼んだ[111]。シャンクはある種のフレーム群を「スクリプト英語版」と呼び、それを使って英語の短いストーリーについての質問に答えることに成功した[112]

Remove ads

[1980年–1987年] 第2回AIブーム: 知識工学の時代

要約
視点

1980年代、AIプログラムの一形態である「エキスパートシステム」が世界中の企業で採用されるようになり、知識表現がAI研究の中心となった。同じころ、日本政府は第五世代コンピュータプロジェクトでAI研究に積極的に資金提供を行った。また、ジョン・ホップフィールドデビッド・ラメルハートの業績によりコネクショニズムが復活を果たした。AI研究は再び活況を呈するようになった。 1980年代から急速に普及し始めたコンピュータゲームでは、敵キャラクターやNPCを制御するため、パターン化された動きを行う人工無脳が実装されていた[113][114][115]

エキスパートシステムの隆盛

エキスパートシステムは、特定領域の知識について質問に答えたり問題を解いたりするプログラムで、専門家の知識から抽出した論理的ルールを使用する。初期の例として、エドワード・ファイゲンバウムらが開発した分光計の計測結果から化合物を特定するDendral(1965)[116]、伝染性血液疾患を診断するMycin(1972)がある。それらがこのアプローチの有効性を示した[117]

エキスパートシステムは扱う領域を狭くし(それによって常識的知識の問題を回避し)、単純な設計でプログラムを構築しやすくすると同時に運用中も修正が容易となっている。エキスパートシステムは実用的であり、それまでのAIが到達できていなかった段階にまで到達した[118]

1980年、CMUDECのためにエキスパートシステムXCON英語版を完成させた。これはDECのVAXシステムの注文に対応したコンポーネントを過不足なく抽出するもので、1986年まで毎年4000万ドルの節約効果を発揮するという大成功を収めた[119]。世界各国の企業がエキスパートシステムの採用を始め、1985年には全世界で10億ドル以上をAIに支出しており、そのほとんどが企業内のAI部門への支出だった。それをサポートする産業も成長してきた。例えばハードウェア企業のシンボリックスLMI英語版、ソフトウェア企業のインテリコープ英語版Aion がある[120]

知識革命

エキスパートシステムの能力は内蔵している専門家の知識に由来する。70年代を通して進展していたAI研究における新しい方向性の1つである。「AI研究者らは、それが倹約を旨とする科学の戒律を破ることになると知りつつ、知能が様々な方法で大量の多様な知識を使う能力に基づいている可能性が十分あると疑い始めていた」とパメラ・マコーダック英語版は書いている[121]。「1970年代からの大きな教訓は、知的行動は知識、時にそのタスクに関わる領域の非常に詳細な知識の扱い方に大きく依存しているということだった」[122] 1980年代には知識ベースシステムと知識工学がAI研究の大きな領域となった[123]

1980年代にはCycプロジェクトも始まった。常識的知識問題英語版に正面から立ち向かう最初の試みであり、一般人が知っているレベルのあらゆる知識を集めた巨大なデータベースを構築するものである。このプロジェクトの創始者ダグラス・レナート英語版は、機械に人間の様々な概念の意味を教えるには近道はなく、人の手で概念を1つずつ学習させるしかないと主張した。プロジェクトの完了には何十年もかかると見られていた[124]

資金復活:第五世代コンピュータプロジェクト

1981年、日本の通商産業省が570億円をかけた第五世代コンピュータプロジェクトを開始した。自然言語での人間との対話、機械翻訳、画像認識、人間のような推論など、様々な目標を実現するプログラムとマシンを構築することが目的とされていた[125]。"scruffy"側が悔しがったのは、彼らがProlog系の論理プログラミング言語をプロジェクトの主要言語とした点だった[126]

これに他国も反応し、それぞれ新たな計画を立てた。イギリスは3億5000万ポンドをかけて Alvey プロジェクトを開始した。アメリカでは企業群がコンソーシアム Microelectronics and Computer Technology Corporation (MCC) を結成し、AIおよび情報技術の大規模プロジェクトに資金提供した[127][128]DARPAStrategic Computing Initiative を創設し、1984年から1988年にかけてAI研究への資金供給を3倍に増やした[129]

Thumb
4ノードのホップフィールド・ネットワーク

コネクショニズムの復活

1982年、物理学者のジョン・ホップフィールド(後にホップフィールド・ネットワークと呼ばれるようになった)は、ある形式のニューラルネットワークが従来とは全く異なる方法で学習し、情報を処理出来ることを示した。同じ頃、デビッド・ラメルハートは、ニューラルネットワークの新たな訓練方法である「バックプロパゲーション」を一般化させた(ポール・ワーボス英語版より数年早く発見した)。それら2つの発見によって、1970年以来下火になっていたコネクショニズムが復活した[128][130]

1986年にラメルハートと心理学者のジェームズ・マクレランドの出版した2巻の論文集 Parallel Distributed Processing は、PDPモデルを提唱した。

ニューラルネットワークは1990年代には商業的成功を達成し、簡単な光学文字認識音声認識のプログラムで使われるようになった[128][131]

日本における第二次AIブーム

日本においてはエキスパートシステムの流行の後、1980年代後半から1990年代中頃にかけてニューロファジィが流行した。しかし、研究が進むにつれて計算リソースやデータ量の不足、シンボルグラウンディング問題フレーム問題に直面し、産業の在り方を激変させるようなAIに至ることは無く、遅くとも1994年頃までにはブームは終焉した。第二次AIブームにおける計算リソースと学習用データの不足は特に深刻であり、機械学習というパラダイムを本格的に試すことが難しく、人間による知識表現に重きを置く傾向にあった。1994年5月25日に計測自動制御学会から第二次AIブームの全容をB5判1391ページにわたって学術論文並みの詳細度でまとめた『ニューロ・ファジィ・AIハンドブック』が発売されている[132]。この書籍ではシステム・情報・制御技術の新しいキーワード、ニューロ・ファジィ・AIの基礎から応用事例までを集めている[133]

なお、日本政府や中央官庁が主導した第五世代コンピュータプロジェクト(1982年 - )やΣプロジェクト(1985年-)は巨額の費用を投入したが、世界的な評価も得られず産業応用の目途も付かないままとなり、1992年頃には失敗が明らかとなっていた。

小規模コンピュータにおけるAI

この当時、パソコンワークステーションを遥かに下回る性能の小規模コンピュータにもAIが搭載された。電卓の発展形であるポケットコンピュータではAI開発環境(LISP言語)を搭載した『CASIO AI-1000』という製品が発売された[134]。但し、計算量の多いニューラルネットワークの開発は殆ど不可能であった。本製品はポケットコンピュータでは唯一のAI開発に対応した製品であった。

1990年2月11日に発売された大人気ファミコンゲームの『ドラゴンクエストIV 導かれし者たち』では最新技術として学習を行うAIの搭載がパッケージに書かれていることから、エンタメを通して一般家庭にもAIが認知され浸透し始めたことが分かる[135]。このAIはファミコンでは最高水準であり、様々な評価値や先読みのシミュレーションとルールベースを組み合わせて構築されており、1990年というデジタルゲームのAIとしては極めて早い時期に発表されたまとまった成果であった[136]。こちらも計算量の多いニューラルネットワークは利用していない。

ニューロファジィ

[137] 1980年代後半から1990年代中頃にかけて、従来から電子制御の手法として用いられてきたON/OFF制御,PID制御,現代制御の問題を克服するため、知的制御が盛んに研究され、知識工学的なルールを用いるファジィ制御,データの特徴を学習して分類するニューラルネットワーク,その2つを融合し、ファジィルールをニューラルネットワークで調整するニューロファジィという手法が日本を中心にブームを迎えた。1987年には予見ファジィ制御が仙台市において開業した地下鉄ATOに採用[138]され、バブル期の高級路線に合わせて、白物家電製品でもセンサの個数と種類を大幅に増やし、多様なデータを元に運転を最適化するモデルが多数発売され始めた。更に後には、人工知能とは異なるものの制御対象のカオス性をアルゴリズムに組み込んで制御するカオス制御が実用化されることになる[139]。従来の単純な論理に基づく制御と比較して柔軟な制御が可能になることから、遅くとも2000年頃にはファジィ制御,ニューロ制御,カオス制御などの曖昧さを許容する制御方式を総称してソフトコンピューティングと呼ぶようになっている。この当時のソフトコンピューティングについては理論的な性能向上の限界が判明したため、各種機器の制御の柔軟性を限定的に向上させただけでブームが終わったが、ブームが去った後も実用的な知的制御技術として用いられ続けている。

ファジィについては、2018年までに日本が世界の1/5の特許を取得している事から、日本で特に大きなブームとなっていたことが分かっている[140]

ブームの経緯

松下電器(現パナソニック)が1985年頃から人間が持つような曖昧さを制御に活かすファジィ制御についての研究を開始し、1990年2月1日にファジィ洗濯機第1号である「愛妻号Dayファジィ」の発売に漕ぎ着けた。「愛妻号Dayファジィ」は従来よりも多数のセンサーで収集したデータに基づいて、柔軟に運転を最適化する洗濯機で、同種の洗濯機としては世界初であった。ファジィ制御という当時最先端の技術の導入がバブル期の高級路線にもマッチしたことから、ファジィは裏方の制御技術であるにもかかわらず世間の大きな注目を集めた[141]。その流行の度合いは、1990年の新語・流行語大賞における新語部門の金賞で「ファジィ」が選ばれる程であった。その後に、松下電器はファジィルールの煩雑なチューニングを自動化したニューロファジィ制御を開発し、従来のファジィ理論の限界を突破して学会で評価されるだけでなく、白物家電への応用にも成功して更なるブームを巻き起こした。松下電器の試みの成功を受けて、他社も同様の知的制御を用いる製品を多数発売した。1990年代中頃までは、メーカー各社による一般向けの白物家電の売り文句として知的制御技術の名称が大々的に用いられており、洗濯機の製品名では「愛妻号DAYファジィ」,掃除機の分類としては「ニューロ・ファジィ掃除機」,エアコンの運転モードでは「ニューロ自動」などの名称が付与されていた[142][143][144][145][146][147]

ニューロ,ファジィ,ニューロファジィという手法は、従来の単純なオン・オフ制御や、対象を数式で客観的にモデル化する(この作業は対象が複雑な機構を持つ場合は極めて難しくなる)必要があるPID制御や現代制御等と比較して、人間の主観的な経験則や計測したデータの特徴が利用可能となるファジィ、ニューロ、ニューロファジィは開発工数を抑えながら、環境適応時の柔軟性を高くできるという利点があった[137]。しかし、開発者らの努力にもかかわらず、計算能力や収集可能なデータ量の少なさから、既存の工作機械や家電製品の制御を多少改善する程度で限界を迎えた。理論的にもファジィ集合深層学習ではない3層以下のニューラルネットワークの組み合わせであり、計算リソースや学習データが潤沢に与えられたとしても、勾配消失問題などの理論的限界によって認識精度の向上には限界があった。

以降、計算機の能力限界から理論の改善も遅々として進まず、目立った進展は無くなり、1990年代末には知的制御を搭載する白物家電が大多数になったことで、売り文句としてのブームは去った[148]。ブーム後は一般には意識されなくなったが、現在では裏方の技術として、家電製品のみならず、雨水の排水,駐車場,ビルの管理システムなどの社会インフラにも使われ、十分に性能と安定性が実証されている。2003年頃には、人間が設計したオントロジー(ファジィルールとして表現する)を利活用するネットワーク・インテリジェンスという分野に発展した[149]

統計的機械学習、バックプロパゲーション、畳み込みニューラルネットワーク

日本の気象庁では1977年に気象数値モデルの補正に統計的機械学習の利用を開始した[150]。具体的には、カルマンフィルタロジスティック回帰線形重回帰クラスタリング等である。また地震発生域における地下の状態を示すバロメータである応力降下量を、ベイズ推定マルコフ連鎖モンテカルロ法によって推定したり、余震などの細かい地震の検知を補正するガウス過程回帰といった手法を気象庁は導入した[151]

米国では郵便局システムに導入する郵便番号の文字認識(OCR)アルゴリズムとして、SVMやニューラルネットを応用する研究が始まった。1989年、ベル研究所ヤン・ルカンらはバックプロパゲーションのアルゴリズムを初めて実用化し、タスクのドメインからの制約条件を与えることで、ネットワークの汎化学習性能を大きく向上させることができると考えた[152]。彼は、バックプロパゲーションアルゴリズムによって学習した畳み込みニューラルネットワークを組み合わせて手書きの数字を読み取り、1990年以降それを郵便番号の識別を目的としてシステムとして提供することを推し進め、この手法は米国以外の先進国でも導入されることとなった。この事例が公官庁における最初のDXであるとも捉えられる。 また1989年、カーネギーメロン大学のディーン・A・ポメルローという人物が畳み込みニューラルネットワークを自動運転の分野に持ち込もうとする最初のアイデアを発表した[153]

Remove ads

[1987−1993] AIの冬第2期

要約
視点

1980年代商業界でのAIへの関心の高まりは一時的であり、バブル経済の古典的パターンを踏襲した。批判はあったが、AI研究はさらに進歩し続けた。ロドニー・ブルックスハンス・モラベックロボット工学を専門とする研究者で、人工知能について全く新しいアプローチを主張した。

AIの冬

AIの冬」という言葉は1974年の資金供給停止を生き延びた研究者らが作った用語であり、彼らはエキスパートシステムへの熱狂が制御不能となってその後に失望が続くのではないかと心配した[154]。彼らの心配は現実となり、80年代から90年代初めにかけてAI研究は再び資金難に陥った。

最初の兆候は、1987年にAI専用ハードウェアの市場が突然崩壊したことだった。AppleIBMのデスクトップコンピュータは徐々に性能が向上し、1987年には両社のマシン[注釈 1]シンボリックスなどが生産する高価なLISPマシンを性能的に凌駕するようになった。LISPマシンを購入する理由がなくなり、5億ドルの市場が一瞬で消え去った[155]

また、XCONなどの成功を収めた初期のエキスパートシステムは、維持コストが非常に高くつくことが判明した。更新が難しく学習機能もなく、入力が間違っているととんでもない答を返してくるという問題もあり、数年前に明らかとなっていた条件付与問題英語版の餌食となった。エキスパートシステムは確かに有効だったが、それはごく限られた状況でのみだった[156]

80年代末、Strategic Computing InitiativeがAI研究への資金供給をカットした。新たなリーダーを迎えたDARPAはAIが「次の波」ではないと判断し、直近の成果が期待できるプロジェクトに資金を供給することにした[157]

1991年、第五世代コンピュータプロジェクトも当初掲げた様々な目標を達成することなく完了した。なお、人間と目的もなく普通に会話するなどの目標は2010年ごろまで達成されなかった[158]。他のAIプロジェクトと同様、予測は実際に可能だったものよりずっと高く設定されていた[158]

実体を持つことの重要性: 新AIと推論の具現化

80年代末、一部の研究者はロボット工学に基づく全く新しいアプローチを主張した[159]。彼らは機械が真の知性を獲得するには「身体」が必要だと信じていた。すなわち、知覚し、動き、生き残り、世界とやりとりできる身体が必要だとした。常識推論英語版のような高いレベルの能力には感覚運動能力が必須であり、抽象的推論は人間の能力としては興味深くないし重要でもないという主張である(モラベックのパラドックス)。彼らは知能を「ボトムアップで」構築することを主張した[160]

このアプローチは60年代以来下火だったサイバネティックス制御理論の考え方を復活させた。もう1人の先駆者は70年代末にMITにやってきたデビッド・マーで、それ以前に視覚の理論神経学的研究で成功を収めていた。彼は全ての記号的アプローチ(マッカーシーの論理やミンスキーのフレーム)を廃し、記号処理の前にボトムアップで視覚の物理的機構を理解する必要があると主張した。なお、マーは1980年に志半ばで白血病で亡くなった。[161]

1990年の論文"Elephants Don't Play Chess"で、ロボット工学者ロドニー・ブルックス物理記号システム仮説英語版を正面から扱い、「世界はそれ自身の最良のモデルである。それは正に常に最新である。知るべき詳細は常にそこにある。秘訣は適切かつ十分頻繁に世界を感知することである」と述べ、記号は常に必要とは限らないと主張した[162]。80年代から90年代にかけて、多くの認知科学者が精神の記号処理モデルを退け、推論には身体が本質的に必要だと主張し、その理論を「身体化された心英語版のテーゼ」と呼んだ[163]

1993年以降:特化したAI

AIは半世紀以上の歴史を経て、当初のいくつかの目標を達成するまでになった。裏方的ではあるが、産業界の様々な場所で使われ始めた。成功の一因はコンピュータの性能向上だが、具体的な特定の問題に集中した結果でもある。それでもビジネスの世界でのAIの評判は純粋なものとは言えない。1960年代に人間並みの知能をコンピュータで実現するという夢が何故失敗したかについて、AI研究者の間でも意見は一致していないが、少なくともコンピュータの性能が低かったことは非常に大きな障壁となっていた。様々な要因からAIは競合する小さな領域に分かれていき、それぞれ特定の問題やアプローチを扱うようになり、時には「人工知能」の流れを汲んでいることをごまかした新しい名称で呼ばれるようになった[164]。AI研究は従来よりも特定のアプリケーションに対して特化することで地味ではあるが成功を収めた。

特化型AIの成功、ムーアの法則の恩恵

ボードゲーム用AI

1990年代はAIの多くの分野で様々なアプリケーションが成果を上げ、特にボードゲームでは目覚ましかった。

1992年にIBMは世界チャンピオンに匹敵するバックギャモン専用コンピュータ・TDギャモン英語版)を開発した。

1997年5月11日、IBMが開発したディープ・ブルーチェスの世界チャンピオンであるガルリ・カスパロフに勝利した[165]。同年8月にはオセロで日本電気のオセロ専用コンピュータ・ロジステロに世界チャンピオンの村上健が敗れた[166]

ロボットカー

2005年のDARPAグランド・チャレンジで、スタンフォード大学ロボットカーが優勝した。これは、リハーサルなしで砂漠の中の131マイルの道のりをロボットカーが自律的に走破するレースである[167]。2年後のDARPAアーバンチャレンジでは、市街地を想定した55マイルのコース(障害物があり、法律遵守も求められる)をロボットカーが自律的に走破し、CMUのチームが優勝した[168]

成功の要因

それらの成功は何か革新的な新パラダイムがもたらしたのではなく、アプリケーションの地道な改良とコンピュータのすさまじい性能向上によるものである[169]。実際、1951年に世界初のチェスプログラムが動作した Ferranti Mark 1 に比べると、ディープ・ブルーは1000万倍の性能である[注 1]。この劇的な進化はムーアの法則に沿ったもので、コンピュータの速度とメモリ容量は2年ごとに倍増すると予言した法則である。かつて根本問題の1つだった「コンピュータ性能の限界」はこうして徐々に克服されていった。

AIという名称を伏せたAI、裏方的AI

元々はAI研究者が開発したアルゴリズムが大規模システムの一部として使われ始めた。AIは様々な非常に難しい問題を解決してきており、その解法は実用的であることが証明されてきた[170]。例えば、データマイニング産業用ロボット物流[171]音声認識[172]、銀行のソフトウェア[173]、医療診断[173]Googleの検索エンジンなどが挙げられる[174]

それらの成功がAIのおかげだということはほとんど知られていない。AIの偉大な技術革新の多くは、達成と同時に計算機科学のありふれたアイテムとして扱われてきた[175]ニック・ボストロムは「AIの最先端の多くは、十分に実用的で一般的になった途端AIとは呼ばれなくなり、一般のアプリケーションに浸透していく」と説明している[176]

1980年代の産業界ではファジィ理論を指す「ファジィ」と並んで、ニューラルネットワークを指す「ニューロ」という言葉がバズワード化し、白物家電製品にも搭載が明記されていた。1990年代に入るとファジィ理論とニューラルネットワークを組み合わせたニューロファジィが様々な製品に搭載されるようになり、白物家電製品にも機能として「ニューロファジィ」等と明記されるようになった。しかし、"裏方の" 制御技術とも言え、利用者にとっては目立った機能では無いため、2000年頃には、使用しているのに殆どの製品で明記されなくなっていた。

1990年代のAI研究者の多くは、意図的に自らの仕事をAI以外の名前で呼んでいた。例えば、インフォマティクス知識ベース、認知システム、計算知能などである。その理由は、もしかすると彼らが自分の研究をAIとは異なるものだと思っていたからかも知れないが、実際の理由は、新しい名前をつけるほうが資金提供を受けられると考えたからだろう。少なくとも産業界では「AIの冬」をもたらした失敗の影が払拭されておらず、ニューヨークタイムズ紙は2005年に「無謀な夢を見る人とみなされることを恐れ、計算機科学者やソフトウェア工学者は人工知能という用語の使用を避けた」と記している[177]

知的エージェント

90年代になると「知的エージェント」と呼ばれる新たなパラダイムが広く受け入れられるようになった[178]。初期の研究者らはAIに迫るためにモジュール化された分割統治法を提案していたが[179]知的エージェントが現代的形態に到達するのはジューディア・パールアレン・ニューウェルといった研究者がAI研究に決定理論経済学の概念を持ち込んで以降である[180]。経済学における合理的エージェント英語版の定義と計算機科学におけるオブジェクトまたはモジュールの定義が出会い、知的エージェントのパラダイムが完成した。

知的エージェントは環境を知覚し、成功の確率を最大化する行動をとる。この定義によれば、特定の問題を解く単純なプログラムも「知的エージェント」であり、人間も人間の組織、例えば企業も知的エージェントである。「知的エージェント」パラダイムでは、AI研究は「知的エージェント研究」と定義される。これは初期のAIの定義の一部を一般化したもので、単に人間の知能を研究するのではなく、あらゆる知性を研究対象とすることになる[181]

このパラダイムにより、孤立した問題を研究し、検証可能で実用的な解法を求めることが意味のあることだと言えるようになった。問題を説明し、経済学制御理論など抽象的エージェントの概念を扱う他の分野も含めて問題の解決策を共有できる共通語を提供している。いつの日か、完全なエージェントアーキテクチャ(例えば、ニューウェルSOAR)によって、対話型知的エージェントからより多用途で知的なシステムが構築できるようになることが望まれている[180][182]

"neat" の勝利

AI研究者はかつてないほど洗練された数学的ツールを開発し使い始めた[183]。AI研究で解決する必要のあった多くの問題が、数学経済学オペレーションズ・リサーチなどの分野の研究者によって既に解決されている。共通の数学的言語を使うことで、より確立された分野と高いレベルで協力でき、測定可能かつ検証可能な成果が生み出され、AIはさらに厳密な「科学的」領域となった。Russell & Norvig (2003)はこれを「革命」であり「"neat"の勝利」に他ならないと記している[184][185]

ジューディア・パールの1988年の著書[186]は、AIに確率決定理論をもたらし、大きな影響を及ぼした。多くの実用化されたツールが、ベイジアンネットワーク隠れマルコフモデル情報理論確率的モデリング英語版、古典的最適化などを活用している。ニューラルネットワーク進化的アルゴリズムといった「計算知能」パラダイムのための正確な数学的記述も発展してきた[184]

HAL 9000 はどこに? 2001年前後−2005年

1968年、アーサー・C・クラークスタンリー・キューブリックは、2001年には人間並みか人間を越えた知性を持ったマシンが存在するだろうと想像した。彼らが創造したHAL 9000は、当時のAI研究者が2001年には存在するだろうと予測していたものだった[187]マービン・ミンスキーは、「そこで問題は、なぜ我々は2001年になってもHALを実現していないのかだ」と問題提起した[188][注 2]

ミンスキーは当時、「AIの中心的課題(例えば常識推論英語版)が無視され、多くの研究者がニューラルネットワーク[注 3]遺伝的アルゴリズムの商用アプリケーションを追求しているのが原因だ」と思っていた。一方ジョン・マッカーシー条件付与問題英語版を非難していた[189]レイ・カーツワイルはコンピュータの性能がまだ十分ではないからだと考え、ムーアの法則から人間並みの知能を持った機械が出現するのは2029年だと予測していた[190]ジェフ・ホーキンスは、ニューラルネットワークの研究が人間の大脳皮質の基本的性質を無視し、簡単な問題を解くことに成功した簡単なモデルを好む傾向があると主張していた[191]。他にも、HAL 9000のような人工知能の開発に至っていない原因について様々な、あてずっぽう的な指摘があり、それぞれの指摘に反応していくつもの研究計画が練られた。

ディープラーニングに向けた準備

2000年に制限ボルツマンマシンやコントラスティブ・ダイバージェンスの提案が行われた。これらの提案は、2006年にディープラーニングの発明に向かう道筋を作った。 2002年以降、自然言語処理分野である品詞タグ付けや構文解析などの領域で、パーセプトロンや隠れマルコフモデルの適用が人気となりはじめた[192]

2005年、レイ・カーツワイルは著作で、「生物学的制約から解放された存在が知能の点で人間を超越し、科学技術や経済の進歩を担い世界を変革する技術的特異点(シンギュラリティ)が2045年にも訪れる」とする説を発表し、物議を醸した。

Remove ads

[2006年-2019年] 第3回AIブーム: ディープラーニングの時代

要約
視点

2006年ジェフリー・ヒントンによりオートエンコーダを利用したディープラーニングが発明された。この発明は人手を介さず特徴量を抽出できる点で、人間による知識表現の必要が無くなり、人工知能における大きなブレイクスルーとなった。この瞬間、長らく暗黒時代を迎えていたコネクショニズムが突如として復活することになった。同時に、人間が知識表現を行うことで生じていた記号接地問題も解決された。

2007年以降、Googleはボストンに拠点を置くニュアンス社から技術者を引き抜き、隠れマルコフモデルや順伝播型ニューラルネットを用いた音声認識アルゴリズムの開発を強化した[193]

2010年には、インターネットを流れるデータ転送量の増大を受けて、英国エコノミスト誌で「ビッグデータ」という用語が提唱された。同年に質問応答システムワトソンが、クイズ番組「ジェパディ!」の練習戦で人間に勝利し、大きなニュースとなった[194]。2010年代に入り、膨大なデータを扱う研究開発のための環境が整備されたことで、”過去データに基づく結果を出力するAI”関連の研究が再び大きく前進し始めた。

自動運転研究の進展

2010年代になると自動車や航空機での完全自動運転が実現可能と目されるようになり、自動車を中心に研究が盛んになった。商業販売を目指して公道走行試験が続き、限定的なオートクルーズ機能を持つ車も現れた。

また軍事利用の可能性についても議論されるようになった(この時代にも既に各国は無人戦闘機UCAV、無人自動車ロボットカーを運用していたが、遠隔操作であり完全な自動化には至っていなかった。UCAVは利用されているが、一部操作は地上から行っている)。日本ではP-1(哨戒機)のように戦闘指揮システムに支援用の人工知能が搭載された。

2016年6月、米シンシナティ大学の研究チームが開発した戦闘機操縦用のAIプログラム「ALPHA」が、元米軍パイロットとの模擬空戦で一方的に勝利したと発表された。AIプログラムは遺伝的アルゴリズムファジィ制御を使用しており、アルゴリズムの動作に高い処理能力は必要とせず、Raspberry Pi上で動作可能[195][196]

第3次人工知能ブーム (2010年代)

2012年、画像認識のコンペティション(ILSVRC)で驚異的なエラー低減を実現し画像認識精度で高スコアを叩き出したAlexNetが登場。これを受け開発者のジェフリーヒントンやイリアサツケバーが所属するDNN Research社をGoogleが買収した[197]。同年のGoogleによるディープラーニングを用いたYouTube画像からの猫の認識成功の発表により、世界各国において再び人工知能研究に注目が集まり始めた。この社会現象は第3次人工知能ブームと呼ばれる。これを受け、Google社内では深層学習をはじめとしたAI基礎研究専門チーム「Google Brain」を立ち上げ多大な開発投資と国際的な人材獲得へ動き出す。ニューラルネットワークの学習過程の数学処理を簡素化するフレームワーク「TensorFlow」も構築した。その後、ディープラーニングの研究の加速と急速な普及を受けて、レイ・カーツワイル2005年に提唱していた技術的特異点という概念は、急速に世界中の識者の注目を集め始めた。

2013年国立情報学研究所新井紀子がリーダー)や富士通研究所の研究チームが開発した人工知能「東ロボくん」で東京大学入試の模擬試験に挑んだと発表した。数式の計算や単語の解析にあたる専用プログラムを使い、実際に受験生が臨んだ大学入試センター試験と東大の2次試験の問題を解読した。代々木ゼミナールの判定では「東大の合格は難しいが、私立大学には合格できる水準」だった[198]。しかし2016年11月、「東ロボくん」は東大合格を諦めるとの報道があった[199]

2014年、弱いAI「Eugene」が英国のレディング大学で行われたイベントで33%の試験官に人間であると判定されチューリングテストに合格。しかし13歳で英語が母国語でないという設定から物議をかもす。[200] 2014年には、1990年代からシリコンバレーにて医療用システムの研究開発を行い、2010年代からは日本でスーパーコンピュータの研究開発を推進している斎藤元章により、特異点に先立ち、オートメーション化とコンピューター技術の進歩により衣食住の生産コストがゼロに限りなく近づくというプレ・シンギュラリティという概念も提唱された。 ジェフ・ホーキンスが独自の理論に基づき、人工知能の実現に向けて研究を続けた。ジェフ・ホーキンスは、著書『考える脳 考えるコンピューター』の中で自己連想記憶理論という独自の理論を展開した。 ロボット向け人工知能としては、MITコンピュータ科学・人工知能研究所のロドニー・ブルックスが提唱した包摂アーキテクチャという理論が登場している。これは従来型の「我思う、故に我あり」の知が先行する人工知能ではなく、体の神経ネットワークのみを用いて環境から学習する行動型システムを用いている。これに基づいたゲンギスと呼ばれる六本足のロボットは、いわゆる「脳」を持たないにも関わらず、まるで生きているかのように行動する。

実用化の波

2015年10月に、DeepMind社は2つの深層学習技術と強化学習、モンテカルロ木探索を組み合わせ「AlphaGo」を開発し、人間のプロ囲碁棋士に勝利することに成功した。 2016年10月、DeepMindが入力された情報の関連性を導き出し仮説に近いものを導き出す人工知能技術「ディファレンシャブル・ニューラル・コンピューター」を発表[201]。 2016年10月、Microsoftの開発する音声認識ソフトの聞き取りエラー率が人間並みになったと発表。[202] 2016年11月、DeepMindが大量のデータが不要の「ワンショット学習」を可能にする深層学習システムを開発[203]。 2016年11月、DeepMindがAIの学習を従来比で10倍高速化させる新手法を発表[204]。 2016年11月、ニューラル機械翻訳システムGoogle Neural Machine Translationが翻訳にあたって独自に普遍的な言語を作成しており、それに基づいて学習していない言語も翻訳できるという論文が発表される。[205]

2017年1月、初歩的な自己改良プログラムが成功しているとのレポートをMITが公表。[206] 2017年3月、DeepMindがニューラルネットワークが持つ欠陥「破滅的忘却」を回避するアルゴリズムを開発。[207] 2017年6月、DeepMindが関係推論のような人間並みの認識能力を持つシステムを開発。[208] 2017年6月、Facebookが開発したチャットボット同士に会話させていたところAIが英語を基にした独自の言語を生み出したと発表。[209] 2017年8月には、DeepMindが記号接地問題(シンボルグラウンディング問題)を解決した[210]2017年10月、ジェフリー・ヒントンにより要素間の相対的な位置関係まで含めて学習できるCapsNet(カプセルネットワーク)が提唱された[211]

従来、AIには不向きとされてきた不完全情報ゲームであるポーカーでもAIが人間に勝利するようになった[212]。 Googleの関係者はさらに野心的な取り組みとして、単一のソフトウェアで100万種類以上のタスクを実行可能なAIを開発していると明らかにした[213]

ディープラーニングの発明と急速な普及を受けて、研究開発の現場においては、デミス・ハサビス率いるDeepMindを筆頭に、Vicarious、OpenAI、IBM Cortical Learning Center、全脳アーキテクチャ、PEZY Computing、OpenCog、GoodAI、NNAISENSE、IBM SyNAPSE、Nengo、中国科学院自動化研究所等、汎用人工知能AGI)を開発するプロジェクトが数多く立ち上げられている。これらの研究開発の現場では、脳をリバースエンジニアリングして構築された神経科学と機械学習を組み合わせるアプローチが有望とされている[214]

2018年3月16日の国際大学GLOCOMの提言によると、課題解決型のAIを活用する事で社会変革に寄与できると分析されている[215]2018年8月31日、原油高が大きな負担となっていたJALがNECに開発を依頼して新たにAI支援による旅客システムを導入し、約50年続けてきた人間の経験に基づく旅客システム運用を取り止めたことで、空席を殆ど0にまで削減することに成功し、大幅に利益率を向上させた事例が報告された[216]。この事例はディープラーニング以後のAIが絶大な社会的インパクトをもたらす根拠となる事例と言える。 2018年8月、OpenAIが好奇心を実装しノーゲームスコア、ノーゴール、無報酬で目的なき探索を行うAIを公表。これまでのAIで最も人間らしいという[217]。 2018年9月、MITリンカーン研究所は従来ブラックボックスであったニューラルネットワークの推論をどのような段階を経て識別したのかが明確に分かるアーキテクチャを開発した[218]

一般的に2018年頃はまだ、人工知能は肉体労働や単純作業を置き換え、芸術的・創造的仕事が「人間の領域」となると予想されてきたが[219][220]、実際には2020年代前半から芸術的な分野へ急速に進出している[221][222]と学術界でさえ予想できなかった節がある[219][220]。また人工知能の実用化後も残るとされた翻訳、意思決定、法律相談など高度なスキルを必要とする分野への応用も進んでいる[223][224]

2019年、BERTなどの言語モデルにより、深層学習では困難とされてきた言語処理において大きな進展があり、Wikipediaなどを使用した読解テストで人間を上回るに至った[225]

Remove ads

[2020年代以降] 第4回AIブーム: 大規模言語モデル(LLM)と生成AIの台頭

要約
視点

2010年代後半には、深層学習の実用化成功により、AIの文字を新聞で見かけない日がないほどのAIブームが再来し、企業も人工知能という言葉を積極的に使っている。最終的には人間が生み出した知性が宇宙を満たし、情報処理が物理法則までも支配するというシンギュラリティ仮説や労働が不要の「瑞穂の国」が出現するというプレ・シンギュラリティ仮説が一定の支持を集めるなど、AIに対する期待は高まった。一方でAIによるディストピア論や、現状はAIに対する期待に技術が追い付いていないAIバブルだと批判する声もあった。デミス・ハサビスは「AIの歴史は誤ったはしごに登っては下りるの繰り返しだった。 『正しいはしご』にたどり着いたのは、大きい」と、AIの冬が再び訪れない可能性に言及した[226]。医療分野では、患者の大量の医療記録をAIに学習させる事で自殺願望があるかどうかを80%以上の精度で特定できるという研究結果がいくつかあり、AIをセラピストのように人を救う事に活用できないか模索されている[227]

2020年には、OpenAIがニューラルネットワークを基盤としたトランスフォーマー(Transformer)および大規模言語モデルLLM)を採用した1750億パラメータを持つ自然言語処理プログラムGPT-3を開発し、アメリカの掲示板サイトRedditで1週間誰にも気付かれず人間と投稿・対話を続けた。プログラムと気付かれた理由は文章の不自然さではなく、その投稿数が異常というものだった[228]DeepMindが開発したタンパク質の構造予測を行うAlphaFold2CASPグローバル距離テスト (GDT) で90点以上を獲得し、計算生物学における重要な成果であり、数十年前からの生物学の壮大な挑戦に向けた大きな進歩と称された[229]。 最先端のAI研究では2年で1000倍サイズのモデルが出現し、1000倍の演算能力を持つコンピュータが必要になって来ている[230]。2020年の時点で、メタ分析によれば、いくつかのAIアルゴリズムの進歩は停滞している[231]

2021年4月、NVIDIAの幹部、パレシュ・カーリャは「数年内に100兆パラメータを持つAIモデルが出てくるだろう」と予想した[232]。 2021年5月、マイクロソフトリサーチが32兆パラメーターのAIを試験[233]

2021年6月、中国政府の支援を受けている北京智源人工知能研究院がパラメーター数1兆7500億のAI「悟道2.0」を発表[234]

2021年6月、グーグルの研究者達がグラフ畳み込みニューラルネットと強化学習(方策勾配法最適化)を用いて配線とチップの配置を自動設計させたところ、消費電力、性能など全ての主要な指数で人間が設計したもの以上の行列演算専用チップ(TPU4.0)のフロアプランを生成した。そして、設計にかかる時間は人間の1/1000であった[235]

2021年8月、グーグルの量子人工知能研究部門を率いるハルトムート・ネベンは量子コンピュータの発達の影響がもっとも大きい分野として機械学習分野などAIを挙げた[236]

2021年8月、DeepMindはさまざまな種類の入力と出力を処理できる汎用の深層学習モデル「Perceiver」を開発した[237]

2021年10月、GoogleBrainは視覚、聴覚、言語理解力を統合し同時に処理するマルチモーダルAIモデル「Pathways」を開発中であると発表した[238]

ChatGPTの登場と大規模言語モデルの進化

2020年OpenAIは自然言語を用いた大規模言語モデルであるGPT-3を開発した。2022年11月30日、OpenAIは同様に大規模言語モデルのGPT-3.5を用いて人間とチャット会話)をするChatGPTをリリースした。全世界的に従来よりも圧倒的に人間に近い回答を返す質問応答システムとして話題となり、世界各国で産官学を巻き込んだブームを引き起こした。非常に使い勝手の良いChatGPTの登場により、AIの実務応用が爆発的に加速すると予想されたため、これを第4次AIブームの始まりとする意見も挙がっている[239][240]。対話型の生成AIであるChatGPTはプログラミングを含む多種多様な用途・業務への応用が可能であり、これを利用して論文を書く例も現れている。

2022年12月、Googleは、「Flan-PaLM」と呼ばれる巨大言語モデルを開発した。米国医師免許試験(USMLE)形式のタスク「MedQA」で正答率67.6%を記録し、PubMedQAで79.0%を達成した。57ジャンルの選択問題タスク「MMLU」の医療トピックでもFlan-PaLMの成績は他の巨大モデルを凌駕した。臨床知識で80.4%、専門医学で83.8%、大学生物学で88.9%、遺伝医療学で75.0%の正答率である[241]。Googleロボティクス部門はまた、ロボットの入力と出力行動(カメラ画像、タスク指示、モータ命令など)をトークン化して学習し、実行時にリアルタイム推論を可能にする「Robotics Transformer 1(RT-1)」を開発した[242]

2022年4月、Googleは予告どおりPathwaysを使い、万能言語モデルPaLMを完成させた。とんち話の解説を行えるほか、9-12歳レベルの算数の文章問題を解き、数学計算の論理的な説明が可能であった。デジタルコンピュータは誕生から80年弱にして初めて数学計算の内容を文章で説明できるようになった[243]。その後、自然言語処理としてPathwaysをベースにした数学の問題を解けるモデル「Minerva」を開発した[244]。また、Pathwaysをベースにした自然言語処理とDiffusion Modelを連携し、画像生成モデルPartiを発表した[245]

2022年5月、GoogleのチャットボットLaMDAの試験が行われた。それに参加していたエンジニアであるブレイク・ルモワンはLaMDAに意識があると確信、会話全文を公開したがGoogleから守秘義務違反だとして休職処分を受けた。この主張には様々な批判意見がある[246]。 2022年10月、DeepMindは行列の積を効率的に計算するための未発見のアルゴリズムを導き出す「AlphaTensor」を開発した[247]。「4×5の行列」と「5×5の行列」の積を求める際に、通常の計算方法で100回の乗算が必要なところを、76回に減らすことができた。またこれを受けて数学者もさらに高速な行列乗算プログラムを公表した[248]。 2022年、研究者の間では大規模ニューラルネットワークに意識が存在するか議論が起こった。深層学習の第一人者Ilya Sutskeverは「(大規模ニューラルネットワークは)少し意識的かもしれない」と見解を示した[249]。 2022年02月、DeepMindは自動でプログラムのコーディングが可能なAI「AlphaCode」を発表した[250]2023年2月、MicrosoftMicrosoft Bingにネット検索と連動可能なAIチャット機能を追加。世界初の対話型AIを搭載する検索エンジンとなった。 2023年3月、GPT-4に米国の模擬司法試験問題を解かせたところ上位10%に匹敵する成績を出した。日本の司法試験でも合格は厳しいがそれなりに高い正答率を示している[251][252][253]。 2023年5月11日、日本政府は首相官邸で、「AI戦略会議」(座長 松尾豊・東京大学大学院教授)の初会合を開いた[254]。 2023年12月、Googleはさらに「Gemini」と呼ばれる人工知能基盤モデルを発表した。この人工知能基盤モデルの特徴は、一般的なタスクにおいて専門家よりも高い正答率を示すことで、「Gemini」はついに専門家を超えたと宣伝されている[255]

画像生成AIの隆盛

注文に応じ絵を描いてくれるAIが登場した。

2022年4月にOpenAIから画像生成AIの一種であるDALL-Eが公開される。 2022年7月、Midjourneyのオープンベータ版が公開され、条件次第で極めて人間に近い、あるいは上回る水準でのイラスト生成が簡単に可能だと世界的な話題となる。人間の参加する絵画コンテストにてMidjourney製のイラストが優勝する事態[256](ただし細かい部分は人間の手が加えられている[256])も起きる。 2022年8月、拡散モデルがベースのStable Diffusionがオープンソースとして公開。 2022年10月にNovelAIの日本風イラストに強い画像生成機能が公開され、利用するユーザーの増加に伴い日本のpixivFANZA等が対応。 2022年以前には画像認識やカメラ補正などソフトウェアの一部として既に高度なAI技術が利用されていたが、「絵を描く」というそれまでAIの苦手分野だと予想されてきた分野に飛躍的な成果が表れたことで画像生成AIおよびAIアートに対し大きく注目が集まった。

だがしばらくするうちに、「AIがイラストレーター画家仕事を奪う」とイラストレーターや画家から、切実で深刻な指摘、強い怒りの声が上がり、画像生成AIは著作権がある画像を著作権者に無断でAI開発会社が学習データとして使用しそっくりの画風の絵を描かせているので著作権侵害だと提訴され、裁判沙汰になった。

2025年1月、人気アニメ『エヴァンゲリオン』などのキャラクターのポスターを生成AIを使って作成・販売したとして、男性2人が書類送検された[257]

自分の顔に裸(ヌード)の身体を組み合わせた画像を他人がAIを使い勝手に生成し拡散される人々が続出しており、本物の写真かAIによるフェイク画像か区別がほとんどつかないため大問題になっている[258][259][260]

テキスト、音声、動画、画像のいずれも扱うマルチモーダルなAIの登場

人間で言えば視覚、聴覚など感覚の種類をモーダルと言い、複数の感覚に関わることをマルチモーダルと言うが、人工知能もマルチモーダル化が進み、複数種の感覚をまたぐ人工知能が登場・発展した。

2022年5月12日、DeepMindは様々なタスクを一つのモデルで実行することができる統合モデル「Gato」を発表した。チャット、画像の生成と説明、四則演算、物体を掴むロボットの動作、ゲームの攻略等々、600にも及ぶ数々のタスクをこの一つのモデルで実行することができるという[261]。DeepMindのNando de Freitasは「今は規模が全てです。(AGIに至る道を探す)ゲームは終わった」と主張したが[262]人工知能の歴史の中で繰り返されてきた誇大広告だという批判も存在する[263]

2023年1月11日、DeepMindは、画像から世界モデルを学習し、それを使用して長期視点から考えて最適な行動を学習する事が出来る「DreamerV3」を発表した[264]

2024年5月、OpenAIはGPT-4oをChatGPTに実装する。

2024年9月、OpenAIOpenAI o1をChatGPTに実装する。CoTなどの長期思考を実現する内部工程を追加した。これにより、科学、コーディング、数学など、複雑な推論タスクを要する分野で特に優れた性能を持つ[265]

2025年3月13日、Google DeepMindはGemini 2.0スタンフォード大学発双腕ロボットプラットフォームである「ALOHA 2」を活用して事前訓練されたデータを利用し、空間を認識してリアルタイムに動作計画を立て、人間からの指示を理解しながらタスクを実行する一連の動画と技術報告書を公開した。[266][267]ただしリアルタイムで継続学習を行うものではない。Geminiは最初からマルチモーダルで訓練された汎用言語モデルであり、その基礎にはPathwaysPerceiver IOといった先行して開発された技術があるとされる。[268]またDeepMindはグリッド細胞等の神経科学からインスパイヤされた理論等も基礎研究で進めていた。[269][270]

2020年以降、失業への警戒、警告、反論など

生成系AIについても警戒の意見を述べる人々が世の中に増えたが、2023年、電子情報通信学会は「生成系AIの研究をやみくもに停止すべきではない」と声明を発表[271]。また合成文章によるインターネット全体の信頼性低下「情報汚染」が始まり、そのデータを学習してAIが劣化してしまう負のループが始まると予測する技術者もいる。自律型AIの暴走よりも、人間の書き込みを装ったSNS上での世論誘導、意図しない株価操作、戦う意欲の喪失など「AGIもどき」が道具を前提として悪用される可能性を危険視すべきという声もある。またAIのふりをしたアルゴリズムによる人の信用評価により差別が広がる意図した詐欺的リスクもある。

2023年末から、日本も加盟する経済協力開発機構(OECD)は、人工知能が労働市場に大きな影響を与える可能性が高いと警告しているが、2023年時点ではまだその兆候は見られない。人工知能の爆発的な普及は、世界の労働市場をまもなく一変させる可能性がある。日本を含む各国政府は、人工知能のような高度なスキルを持つ人材を育成し、低所得労働者の福祉を向上させるべきである。日本も加盟しているOECDは、高齢者やスキルの低い人々に人工知能の訓練を義務付けている。人工知能のような新興かつ高度なスキルが求められる時代は、従来のスキルがすでに時代遅れで使い物にならないということでもある[272]。生涯学習の時代に移り変わったといえる[273]。そういった状況の中、AIよりコストが安い人間が手を使う現場では使用されたり、3K労働といったブルーカラー業務の一部では依然として人間に優位性があると指摘する主張もある。現状のLLMの欠点として

  • データが少ない状況が起きた時柔軟に対応できない
  • 作業記憶と空間知能がないため、3D設計図が書けない
  • 過去の知識や人間が与えたデータに依存してしまっている
  • 中途半端な能力のまま社会実装され不具合が多発
  • 中身のない科学論文の大量生産

逆にこれらの欠点を無くしヒト脳に近い知能、もしくはそれを超える知能を実現できれば、単なる自動化を超え、画面の中だけでなく物理世界の基礎からイノベーションを起こせるポテンシャルを秘めると見られている。

ロボット工学と人工知能の融合、およびデータセンター強化 (2025年代以降)

高度な人工知能システムの発展形を鑑みると、人間の対話を高い精度で理解し応答する能力を備え、ロボット工学とのシームレスな統合を可能にし、製造業、家事自動化、医療、公共サービス、材料研究などの産業を変革すると考えられる。[274] 人工知能応用は、高度なデータ分析と仮説生成を通じて科学研究を加速している。[275] という意見もあるが、現在のLLMでは過去の技術革新を改良強化するだけであるという厳しい指摘も存在する。日本、米国、中国などの国々は、労働力不足の解消、イノベーションの促進、効率の向上を目的として、AI搭載ロボットの展開に向けた政策と資金に多額の投資を行い、倫理的かつ安全な開発を確保するための規制枠組みを導入しはじめている。[276]

中国

2025年、中国はスマート製造と医療におけるAIとロボット工学の推進に約7300億元(約1000億米ドル)を投資した。[277][278] 「第14次五カ年計画」[279]ではサービスロボットを優先し、AIシステムによりロボットが手術の補助や工場の組み立てラインの自動化といった複雑なタスクを実行できるように開発を進めた。[280] 例えば、中国の病院ではAI搭載のヒューマノイドロボットが患者の要求を解釈し、物資を届け、看護師の日常業務を支援している。

米国

2025年1月、AIインフラ投資における重要な進展として、Stargate LLCが設立された。この共同事業は、OpenAISoftBankOracleMGXによって創設され、2029年までに米国全土でAIインフラに5000億米ドルの投資を計画し、まず1000億米ドルから開始し、米国の再工業化を支援し、アメリカとその同盟国の国家安全保障を保護する戦略的能力を提供することを目指している。[281] この事業は、2025年1月21日にドナルド・トランプ米大統領によって正式に発表され、ソフトバンクのCEOである孫正義が財務責任者として任命された。[282][283]

2025年1月、大統領令14179号により、これらの技術の革新と展開を加速する「AIアクションプラン」が策定された。[284]

Remove ads

脚注

参考文献

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads