小脳のシミュレーションからヒト全脳シミュレーションへ

ABOUTこの記事をかいた人

山﨑 匡

山﨑 匡

電気通信大学大学院情報理工学研究科准教授
専門は神経科学・計算科学。現在の興味は小脳の計算原理の解明、大脳皮質・基底核・視床を含めた全脳学習アーキテクチャの構築、神経科学と高性能計算を融合した高性能神経計算という分野を確立すること。

ヒトをヒトたらしめる秘密

 

道具の使用や言語、意識や思考に代表されるような、ヒトをヒトたらしめる特徴は我々の脳の産物である[1]。

そのようないわゆる高次脳機能を生み出す脳の情報処理原理は未だ完全には解明されておらず、神経科学の究極の目標の一つとなっている。

一方、脳の構造については比較的よく分かっている。脳はニューロンとよばれる神経細胞が、シナプスとよばれる構造を介して互いに結合したネットワークである。

ヒトの脳は約1000億ニューロンからなり、ニューロン同士はスパイクとよばれる短い電気パルスを交換することで情報処理を行っている。スパイクは言ってみれば0または1のビットであり、ニューロンはビットを送受信する電気的素子であるとも言える。

たったこれだけのことで、例えば会話をしたり、ものを考えたり、自分自身について内省したりといった、現代の最高性能のスパコンですら到底できないような複雑な情報処理をおこなっているのである。

 

 

高性能にして省エネ

 

さらに驚異的なのは、脳はそれらの機能を極めて省電力に実現していることである(約20Wと言われている)。最先端のスパコンがその100万倍もの電力を消費しているのとは極めて対照的である。

なぜこのような超省電力で複雑な情報処理ができるのか、その仕組みを解き明かすことができれば、ムーアの法則の限界を迎えようとしている従来型のコンピュータを越える新たな計算原理を導くことができるだろう。

よって、脳の情報処理原理を明らかにすることは、神経科学の基礎研究のみならず、我々の生活を支える基盤技術の創出に繋がる。

 

脳と同等のアプリも作れる?

 

脳の構成要素はニューロンであると既に述べた(詳しい方からはグリア細胞は無視するのかとお叱りを受けるかもしれないが、それはこの文章の範疇を越えるので考えないことにする)。

1個の脳のことはよくわからないが、1個のニューロンのことはそれに比べるととてもよく分かっており、その挙動は具体的に数式で記述できる。

例えばニューロンがスパイクを発射する仕組みはホジキン・ハクスレー方程式とよばれる数式で記述できるし(ホジキンとハクスレーはこの式を導出した科学者であり、彼らはノーベル賞を受賞した)、スパイクがどのようにしてシナプスを介して伝播するのかや、ニューロン間の結合の強さがどのようにして変化するのかも、数式で記述可能である。

そして、それらの式はコンピュータを使えば数値的に解を求めることができる。つまり、例えば1000億ニューロン分の数式を全てプログラムし、スパコンを用いて解を求めることで、原理的にはヒトの脳と同じ働きをするアプリをスパコンで走らせることができるようになる。

このような研究を「脳神経回路シミュレーション」と呼び、EUの巨大プロジェクトであるHuman Brain Projectではそのようなヒトの脳のモデルを構築し、病気の診断や治療に役立てようとしている[2]。

 

「脳」だっていろいろある

 

我々が単に「脳」と言ったときは、漠然と大脳のことが想定されていると思われる。

大脳は霊長類、特にヒトで最も発達した脳部位であり、ヒトをヒトたらしめている機能は大脳、特に我々の額に位置する前頭葉の働きによるものだと考えられている。

しかし脳には他にも様々な部位がある。短期記憶を司ると言われている海馬や、意思決定を担っていると言われている大脳基底核、情動を司ると言われている扁桃体などの名前を聞いたことがある方もいらっしゃるだろう。

さらに我々の後頭部には「小脳」が存在している。この小脳がこの文章の主役である。

 

「小さな脳」が担う役割

 

小脳は文字通り「小さな脳」であり、ヒトの小脳は大人の握り拳程度の大きさ、脳全体の体積のわずか10%を占めるのみである。しかしそこに含まれるニューロンの数を数えると、なんと脳のニューロンは80%は小脳に存在していることが知られている。

逆に言うと、大脳は実はニューロン数としては少ない。大脳で多いのは実はシナプスの数であり、シナプスの数を数えると、今度は大脳の方が数千倍以上多くなっている。

言い換えると、小脳はニューロン数は多いけれどネットワークの構造は比較的シンプルであり、大脳は少ないニューロンながら非常に複雑なネットワークを構成して情報処理を行っていると言える。

小脳は伝統的に運動制御・運動学習において重要な役割を担っており、小脳を損傷すると運動失調が現れる。

小脳もまた霊長類、特にヒトで特徴的な発達をしており、「小脳半球」と呼ばれる外側部が特に良く発達している。そして、外側部は大脳皮質と双方向的に結合しており、前頭葉とも非常に密な双方向性の結合を有していることが解剖学的に発見されている。

つまり小脳は単なる運動制御器ではなく、大脳による高次脳機能を支える何らかの役割を担っているのである[3]。

 

小脳を再現してみよう

 

小脳は恐らく最も良く調べられている脳部位であり、解剖から行動まであらゆる動物種におけるあらゆるデータが揃っている。

小脳はシンプルな回路構造を持っており、特に小脳皮質核微小複合体と呼ばれる機能単位がひたすらコピー・ペーストを繰り返す構造となっている。

よって、その膨大なデータに忠実に一つの微小複合体のプログラムを作成すれば、それをコピペすることでスパコンの性能が許す限りの大規模な小脳神経回路シミュレーションが実現できる。

しかも、小脳を構成するニューロンの種類は10未満と少なく、かつほとんど全てのニューロンは顆粒細胞と呼ばれる単一種類のニューロンである。よって小脳神経回路シミュレーションは大脳のそれに比べて極めて容易であると言える。

我々は実際の小脳回路の解剖学的構造と、ニューロンの生理学的なパラメータを忠実に再現した、小脳の大規模なモデルを構築している[4]。

シミュレーションは数年で実現できる

 

我々はこれまでに、PEZY Computing/ExaScaler社製のスパコン「Gyoukou」をほぼ全系利用して、約100億ニューロンからなる小脳神経回路シミュレーションを実施している。

100億ニューロンというのはサル2頭分の小脳に相当する規模である。さらにスパコンの性能を引き出すための実装上の様々な最適化を施し、計算を高速化することで、1秒間の小脳の神経活動を1秒以内に計算可能となっている。

つまり現代のスパコンをフルに利用すれば、霊長類の脳活動は個々のニューロンレベルでリアルタイムに再現可能となるのである。

また、スパコンの性能が今後上がれば、回路規模もそれとともに大きくしていくことができる。これまでのスパコンの性能向上率から外挿すると、ヒト規模の小脳シミュレーションは今後数年で実現可能になる見通しである。

小脳という限られた脳部位ながら、ヒト脳の8割のニューロンの計算が射程圏内である。

 

小脳は「強化学習」をしている?

 

そして、我々の小脳シミュレーションでは、小脳のシナプス可塑性である平行線維ープルキンエ細胞間シナプスの長期抑圧(LTD)も計算に含めている。つまりオンラインで学習が可能である。

それにより、視機性眼球運動のゲイン適応と呼ばれる、小脳が関与している代表的な反射適応の再現や、小型のヒューマノイドロボットを用いたバッティングのタイミング学習のデモンストレーションに成功している。

さらに現在では小脳の計算原理そのものを再検討しており、従来言われてきた「教師付学習」ではなく「強化学習」と呼ばれる種類の学習を行っているのではないかと考えている。

強化学習はGoogleのDeepMindが開発し世界で初めて碁のプロ棋士を破ったAlphaGoの基礎になっている機械学習アルゴリズムである[5]。

小脳が強化学習器であるとすると、これまで説明しにくかった様々な動物実験の結果をきれいに解釈できるようになるし、小脳回路の並列性にもとづいた超並列の強化学習アルゴリズムを手に入れられる。

 

ヒトの脳を超えることはできるか

 

最後に、ヒトスケールの小脳神経回路シミュレーションが実現できた暁には何が達成できるだろうか?

ヒト小脳にはおよそ10万個の微小複合体、つまり機能モジュールが存在すると推定されている。

つまり10万強化学習モジュールからなる超並列強化学習アルゴリズムが実現できるかもしれない。並列強化学習、特に深層学習と絡めた並列深層強化学習は近年の機械学習におけるホットトピックの一つであり、与えられた問題を複数のサブ問題に分割し、それぞれを並列に独立に解くことで、元の問題に対する学習器を構成しようとするものである[6]。

小脳単体でもヒトスケールまで規模を拡大できれば、汎用の機械学習アルゴリズムとして非常に強力なものになりうる。

またそれを用いて、小脳の役割として伝統的に考えられてきた運動制御や運動学習、特にヒューマノイドロボットのリアルタイム適応制御などが可能になり、人間を単純労働から解放するようになるかもしれない。

さらに、スパコンの性能向上が今後も順調に続けば、原理的にはヒト小脳を越える、より巨大な小脳シミュレーションを行うことも可能である。

ヒトの脳よりも大きな脳神経回路が構築できた暁には、ヒトを凌ぐ能力を持つ情報処理機械が完成するのだろうか。

 

自分に作れないものは理解できない

 

一方、小脳以外の脳部位、例えば大脳皮質や大脳基底核といった部位についても、スパコンを用いた大規模なシミュレーションが進められている。

近い将来、それらが統合され、いわば全脳規模のシミュレーションがなされるようになることは十分予想できる。そのような全脳シミュレーションは基礎神経科学のツールとして有用なのは間違いないが、工学的な観点で、汎用人工知能(AGI)に資するものになるだろうか[7]。

脳神経回路シミュレーションはスパコンの性能向上とともに大規模化・精緻化してきた。ヒトスケール小脳のシミュレーションは2022年頃には実現すると想定している。

ヒトの脳は神秘的なものであり、現在でもその動作原理は完全には解明されていないが、それでも再実装可能な段階に来ている。

ノーベル賞を受賞したリチャード・ファインマンは次のような発言をしている。「What I cannot create, I do dot understand」(山﨑訳:「自分に作れないものは理解できない」)。

実にその通りだと考える。ヒトスケールの小脳シミュレーションができたときに何が実現されるのかは、自分の手でそのシミュレーションをやってみる必要がある。それを粛々と進めていきたい。

 

 

参考文献

[1] カンデル神経科学. メディカルサイエンスインターナショナル. 2014.
[2] https://www.humanbrainproject.eu/en/
[3] Masao Ito. The cerebellum: brain for an implicit self. FT Press, 2011.
[4] Tadashi Yamazaki, Jun Igarashi, Junichiro Makino, Toshikazu Ebisuzaki.
Real-time simulation of a cat-scale artificial cerebellum on PEZY-SC
processors. International Journal of High Performance Computing Applications.
OnlineFirst: https://doi.org/10.1177/1094342017710705
[5] David Silver, et al. Mastering the Game of Go with Deep Neural Networks and
Tree Search. Nature 529:484–489, 2016.
[6] Harm van Seijen, et al. Hybrid reward architecture for reinforcement learning.
NIPS 30:5392–5402, 2017.
[7] Demis Hassabis, Dharshan Kumaran, Christopher Summerfield, Matthew Botvinick.
Neuroscience-inspired artificial intelligence. Neuron 95:245–258, 2017.

ABOUTこの記事をかいた人

山﨑 匡

山﨑 匡

電気通信大学大学院情報理工学研究科准教授
専門は神経科学・計算科学。現在の興味は小脳の計算原理の解明、大脳皮質・基底核・視床を含めた全脳学習アーキテクチャの構築、神経科学と高性能計算を融合した高性能神経計算という分野を確立すること。