帰ってきたAI

1980年代の人工知能(AI)ブームから40年近く経ち、またまたAIブームがやってきた。前回のAIブームは今の若い人、特に学生諸君が生まれる遥か前のことである。

神経回路(ニューラルネット)の学習理論が甘利俊一らによって整備され、神経回路網を使った並列計算に期待が集まった。デイビット・ルンメルハルトとジェイムズ・マクレランドが構想したPDP(Parallel Distributed Processing)研究がブームとなり、これを搭載した人工知能が期待された。当時マスコミは「人工知能は究極の学問だ」とまで言ったのである。

並列に学習し、自己組織的に演算する神経回路とデジタル計算機の論理演算の融合が夢見られた。我が国において神経回路学会と人工知能学会がほぼ同時に設立されたのはそのような機運のあらわれでもあった。

マービン・ミンスキーがPDP批判を行い、PDPの一部の計算能力は旧来の三層パーセプトロンと本質的に変わらないということを証明して議論が巻き起こったが、結局それからしばらくして、これら脳型のAIブームは消えていった。

ハイパフォーマンスの秘密

現在のAIブームはフィードフォワード型のニューラルネットの学習である深層学習に基礎をおいているが、これ自体は40年前の福島邦彦のネオコグニトロンとジェフリー・ヒントン、デイビット・ルンメルハルトらの誤差逆伝搬法による学習、甘利俊一の確率勾配法による学習のアイデアを基本としている。これに、昨今のデジタル計算の高速化と記憶容量の大幅な増加、ウェブなどのネットワークによるこれら計算資源の圧倒的消費能力が加わった結果、“学習する機械”の能力が拡大し高度のパフォーマンスを行うことが可能になった。

パフォーマンスが上がった理由は(ニューラルネットの)ネットワークの層の多さにある。ネットワークの層を多くすることで、浅層ニューラルネットの時には困難であった多数のパラメーター調整が、ほとんど必要がなくなったように見えるのである。

二つの知能表現の興亡

もともとAI研究は計算機のプログラムによって人の知能を実現するという意味があった。現在の計算機の発明以前にも人類は知能の外在化を目指してきた。その時代のもっとも複雑な機械を脳のモデルに見立て知能の外在化を行ってきた。そろばん、時計、からくり人形を経て、ジョージ・ブールによる{0,1}の二値だけで世界を再構成するという発想とブール代数の発明、チャールズ・バベッジの解析機関、アラン・チューリングの万能計算のアイデアに次ぐジョン・フォン・ノイマンのデジタル計算機の実現は単に計算可能な関数を計算するという計算論的意義だけでなく、ヒトの思考の外在化という意義があった。これが従来のAIの基盤を作った数学的マインドである。

それに対して、ノーバート・ウィーナーが創始したサイバネティクスの研究の中からマッカロ・ピッツの形式ニューロンや神経細胞(ニューロン)の数学モデルをネットワーク化したパーセプトロンの研究によって、シナプス学習(シナプスとはニューロン間のつなぎ目のことで、その強度を調節することで学習が可能になる)を通して経験を積むことで現象に潜むルールを帰納的に発見する学習機械が生まれた。

このニューラルネットによる学習機械が示す知能の表現とデジタル計算機のプログラムによる知能の表現は、相容れず互いに何度かの興亡を繰り返した。

学習するニューラルネット

1980年代にこの二つの研究トレンドは融合するかに見えたが、融合にはさらに40年の歳月を必要とした。そして今日の深層学習によるAIはふんだんな計算機資源を使ってはいるが、その実体は脳の神経回路を模した学習するニューラルネットであり、それをAIと呼んでいるに過ぎない。

深層学習がなぜうまくいくのかという機構の数学研究はDeep Mind社、 Google社、 Facebook社のようなウェブの中で計算機資源をふんだんに使えるネット企業が数学科の学生を雇ったり、数学者と共同研究したりして盛んに行われているが、いまだに決定打は出ていない。筆者も一つ他と異なるアイデアを持っているが証明できないでいる。さらに言えば、深層学習で得られることは入力データの特徴抽出だけであり、それほど高度な知能が実現されているとは思えない。

他方、知的活動を特徴空間に還元する方法が見つかりさえすれば高度なパフォーマンスを機械がしているように見えることが、アルファ碁ゼロなどの具体例を持って示されたことは一歩前進したと言えるだろう。本来複雑な非線形構造を持つ対象を、スケーリングと類似度の抽出をうまく行うことで局所的な不変構造を大域的に拡大するということが深層学習では成立しているように思われるが、ここに繰り込み群的な構造(相転移の臨界点近傍の性質や素粒子・クォーク分布関数のように、広く物理観測一般の距離スケールや質量スケールを変えても不変な対象の作る群論的な数学構造)を見る読者も少なからずいるに違いない。

驚きの、さらに先

アルファ碁やアルファ碁ゼロなどは人々を驚かせるに充分であったが、ヒトの知能というのはこればかりではないことは言うまでもない。そもそも現在の学習機械であるAIは視覚情報処理をしているのだが、ヒトの脳の視覚情報処理機構は外界の画像を取り込みそれが何であるかを一意に決定する仕組みを備えていない。

そもそも網膜の二次元像から奥行きのある三次元像を再構築する神経回路が決定不能性を持つことはデビット・マーとトマソ・ポジオが1970年代に示したことだった。脳が視覚情報を再現するためには視覚情報以外の情報である体性感覚情報や自身の運動情報といった身体を介しての自己と環境との関係情報が必要であることは広く知られていることである。さらに、ヒトの脳が示す独特の情報処理はこれにとどまらない。

「美意識」が決定する

ヒトの持つ美的感覚が無限に可能な法則の形式を一つに定める作用をしている。原理的に決定不能な事や不定(不確定)であるような事に対して、ヒトは美意識という感性によって判断し、行動決定する。ヒトには感情があり、思考は論理だけでなく感情や感性に依存する。

そもそも論理は内在的なものではなく、ヒトの心が行動へと外在化されるときに定まる規則に基づいている。このことは自然言語(人が日常的に使う言語)についても当てはまる。ヒトの心は個々人の脳から生み出されるというよりは、胎児のときから少なくとも生後数年間は他者の心の影響を受けて脳が発達することに伴って発生するように見える。自我意識精神が生み出されるのは脳が十分に成長したのちのことである。このようにヒトの心は他者とのインタラクション(相互作用)によって生まれ、インタラクションの在り方によってその発達が規定されると言っても過言ではない。

他者との関わりが心を生む

また、他者を教育する=他者の学習を補助するのはヒトだけだと言われている。チンパンジーでさえ親は子供を教育しない。子どもが親の真似をして学習するのである。また、自らが獲得したものを他者に分け与える贈与という行為もヒトで際立っているそうである。このように、他者との関わりの中で、つまりインタラクションの中で個々のヒトの心が発生する。完成した脳や心が互いにインタラクションして社会を作るのではなく、インタラクションの中で要素としての個々の脳や心が発達し機能を発揮するのがヒトの社会である。

このような機能分化には生物進化とともにリアルタイムでの適応が関わっている。機能分化のこの特徴はこれからのAIが備えるべき特徴であろう。いったんプログラム化された知能は状況の変化に対して通用しない。同じことが進化や適応にも言うことができる。過剰適応は状況の変化に脆弱である。柔軟な機能分化の原理を明らかにしていかなければならない。

次世代への挑戦

私たちは昨年10月から、JSTのCREST間瀬領域「人間と情報環境の共生インタラクション基盤技術の創出と展開」の中で「脳領域/個体/集団間のインタラクション創発原理の解明と適用」(http://www.er.ams.eng.osaka-u.ac.jp/kawai/crest/)という課題を設定し、適応的な機能分化の原理をさまざまな分野の研究グループ間のインタラクションによって進めている。

私のグループでは主に数学者を中心に変分原理による機能分化の原理を追求している。これを拘束条件付き自己組織化の問題として定式化しようとしている。金沢大学の菊知グループでは、課題による拘束条件のもとで親子がインタラクションするときの脳機能の変化をMEG(磁場による脳活動計測)による親子同時測定によって調べている。東京大学の亀田グループでは複数のヒトのインタラクションによる集合知の発生など集団的効果をゲーム論的な拘束条件のもとで研究している。中部大学の松田グループでは進化的な観点からヒト以外の霊長類の重層社会にみられる集団間の機能分化を生物学的な拘束条件との関係において調べている。大阪大学の河合グループでは浅田稔氏の協力のもと、拘束条件の違いによって異なる機能を発現するロボットの研究を行っている。

これらのグループ研究を融合する形で、拘束条件付き自己組織化による機能分化と複雑にネットワーク化された環境への即時適応を実現する発達ロボットを阪大グループと他のすべてのグループとの共同によって実現する予定である。

社会変革に向けて

拘束条件のもとでそれに応じて機能分化することで環境に即時適応するエージェントは知的に見えるだろう。このようなエージェントは自身のニューラルネットの中にカオス(決定論的な方程式に従っているが予測不可能で複雑な振る舞いを保証する数学的概念。物理、化学、生物の多様なシステムにおいてランダムで複雑な多くの現象がこの概念によって説明されてきた)を発生させることでさまざまな時間スケールを発生させることができる。それによって複雑に時間変化する環境情報を独自に解釈し、タスクをこなすことが可能になる。

また、非常に難しい課題としてAbductionとして知られる仮説生成がある。ヒトは仮説生成ができるゆえに仮説から演繹法によって結論を得ることができ、またそうやって得られたさまざまな結論から帰納的に法則を導くこともできる。仮説生成の機構の解明は創発研究、言い換えれば複雑系研究の核心の一つである。私たちはこのようなインタラクションを創発インタラクションと呼んで知能の骨格にするつもりである。

ヒトにはこのような創発機能が備わっているので、ニューラルネットがカオス遍歴(複数のアトラクターと呼ばれる吸引領域間をカオス的に遷移する現象の総称)を生成することで意識の無意識化、無意識の意識化を行うことができるだろうと考えられる。私たちのプロジェクトの成果はこれから何十年と続く社会変革のためのAI研究の方向性を決定するだろう。

執筆者プロフィール

津田 一郎
津田 一郎中部大学創発学術院教授
1953年、岡山県生まれ。1982年京都大学大学院理学研究科物理学第一専攻博士課程修了。理学博士。

カオス研究、複雑系研究、脳のダイナミクスの研究を行う。Noise-induced orderやカオス遍歴の発見と数理解析などが注目された。また、脳の解釈学の提案、非平衡神経回路における動的連想記憶の発見と解析、海馬におけるエピソード記憶形成のカントールコーディング仮説の提案と実証、サルの推論実験、コミュニケーションの脳理論、脳の機能分化を解明するための拘束条件付き自己組織化理論と数理モデルの提案などがある。
昨年、noise-induced orderが数学的に正しいことがイタリアの数学者によって厳密に証明された。また今年、イタリアとブラジルの数学者の共同研究によって、カオス遍歴の極小モデルが正しいことが厳密に証明された。
最新の投稿