Presented by 『ゑれきてる 1998 第67号』

Chap.2

合原 一幸
東京大学大学院
工学系研究科計数工学専攻
助教授
酒井 邦嘉
東京大学大学院
総合文化研究科
助教授

アナログ非同期の新しい脳型コンピュータ
合原 私自身も脳には強い関心があります。脳を知りたいというのはもちろんあるんですけれども、どうしてもわれわれは工学者なので、やはり脳を創りたくなる。脳を創るという観点で 脳を見た時に、その一方の対極にあるのが今のデジタルコンピュータです。その特徴は何かというと、1つはデジタル。もう1つは、同期式だということです。クロックがあって、全てがそれに同期して動いてる。ところが脳を見てみると、脳の中の活動電位というのは非同期です。しかもそこで使われるニューロンというデバイスは極めて強い非線形性を持ったアナログデバイスなんですね。僕自身、今理化学研究所にいる松本元さんとイカの神経の実験を昔やって、実際の神経からカオスを観測しました。そういう非線形アナログ性と非同期性が脳の情報処理を本質的に支えていると思うのです。

脳を見ることによって、現在のデジタル同期コンピュータと相補的なアナログ非同期の新しい脳型コンピュータができるのではないか、というのがわれわれの最大の期待です。そこを意識して、これまでのコンピュータとは違う原理に立った脳のようなコンピュータを作りたいという立場で、脳のモデルを作っているというのがわれわれの研究なんです。

酒井 ニューロンレベルではカオスが見つかっているのですね。
合原 ええ、自分達で神経の実験をしましたから、そこには絶対の自信があります。脳は神経細胞が140億個くらい集まったシステムだとすると、カオスを出し得るような素子が140億集まっている複雑系であるという見方ができるわけです。そこでカオスが相互に結合しているようなネットワークの解析が重要だというのがわれわれの主張なんです。その際、酒井さんが進めてらっしゃるような脳研究の成果が大いに参考になるわけです。
ニューロンから脳全体へ至る道はあるか
酒井 脳にしても心にしても、どうしたら、それを見ることができるかというのが一番大事な問題になっています。理論的に一番、時間的・空間的分解能が高い方法というのは、1つ1つのニューロンの近くで、電極で見るという、単一ニューロン記録という方法です。そうすると要素的なものはよくわかってきますが、全体としての振る舞いをどの程度説明できるかという問題は常に生理学者の頭に残るわけです。そこでたくさんの電極を一ぺんに挿したら何が見えるかとか、逆に電気刺激したら何が起こるかとか、さまざまな手法が開発されましたが、まだまだ限界がある。それで本当に心のところまで駆け上がれるかと、今悩んでる所だと思うんですね。それでは、もっとマクロな構造を見ようということになります。これがもう1つの脳科学の流れで、これから非常に大事になってくると思いますね。

一方において心という大きな問題に駆け上がって行こうとすると、やはり人間の脳を調べたくなる。当然のことですがニューロンを調べたのは大半が動物実験ですから。頭蓋骨を開けない方法では古典的には脳波がありますが、脳の一体どこで何が起こっているのかということはほとんどわからない。そうするとPETとかファンクショナルMRIなどの機能画像でなんとか迫れないかということです。今、分解能でいくと、空間的には大体ミリメートルくらいまで、時間的には秒くらいまできています。それくらいの窓でもおそらくこれからいろいろ見えてくるものはたくさんあると思うんです。それで何か心の現象のかけらになるものが見えてくれば手掛かりになるかなというのが現状ということでしょうか。

合原 例えば、どういうものが見えればいいんですかね。
酒井 そうですね。期待しているものとしては、脳のどこがどういう時に活動するかというマクロなマップですね。
合原 心の座みたいな…。
酒井 それがもっと正確にわかるだろうということですね。例えば言語に関しても、文字を見て、声を聞いて、視覚や聴覚から両方入ってきたもので判断して、そして意味のある言葉をしゃべれるというメカニズムは、言語野だけでなく、おそらく脳のいろいろな場所がいろいろな意味に使われてるはずです。それぞれの場所について脳損傷の患者さんが出てくるのを待っているだけでは、多分100年、200年経っても、偶然出てくる以外には解けないということになります。そうすると、ある言葉の中でもこういう側面は脳がこういうふうに働く、もしくは何度か繰り返すうちに脳の活動は上がるのか下がるのかという非常に基礎的な所からスタートして、脳のもっとマクロな、全体としての活動を見るということが、これからますます大事になるということでしょうかね。

もう1つの切り口としては、複雑系という本質ですね。例えば脳の中でも大脳というのは非常に複雑に入り組んでいて細胞のパターンや種類も違う。それと比較すると小脳というのは非常にきれいな構造をとっています。ほんとに結晶パターンのような形で、意味のある回路のように見えるんですね。

合原 設計して作ったみたいな感じですよね。
酒井 そうですね。記憶にとって非常に大事な場所である海馬というのも美しい構造をとってるんですね。縦長の構造のどこを切ってもほぼ似たような断面になっている。海馬のような場所というのは、大脳皮質の豊かさとは別の意味で非常に大事な回路を作っているんでしょうね。その関係が少しずつほぐされてくると全体が見えてくる。だから、単に大脳だけじゃなくて海馬とか視床とか、大脳基底核とか、小脳とか、それぞれがどういう相互作用をして最終的に大脳を豊かにしてるのかという問題が少しずつわかりつつあるということでしょうか。そういう意味で脳はまさにシステム、複雑系そのものなんです。
合原 今の話で面白いのは、人間や高等動物は大脳が極めて複雑で、一方で小脳や海馬のような非常にきれいな構造の所もあるという、その混在ですね。

脳とは直接関係しないんですが、以前黒川紀章さんとお話した時に、面白いことをおっしゃったんですよ。街並みには分かり易い分かりにくさと、分かりにくい分かり易さと2種類あるんですよと。前者は何かというと、郊外に新しい街を作るとしたら碁盤の目のようにも作れるわけです。そうすると座標をふれて大変わかりやすい。でもそんな街を作ってしまうと、どこを見ても同じような風景なので、どこを歩いてもその通りの特徴が出ない。それが分かり易い分かりにくさだと。一方の分かりにくい分かり易さというのは、ヨーロッパの古い街並みのように、ごちゃごちゃになってる。ところが、そういう街は、通りごとに独自の香りのようなものがあって、一見分かりにくいけれども実は分かり易いんだと。そういう2つの側面を考えるのが都市の設計にとって非常に重要な視点を与えるというんですね。

脳というのも今のお話を聞いてると、アナロジーとしては非常に似ている感じがします。分かり易い分かりにくさと、分かりにくい分かり易さを混在させることによって高度な機能を実現しうるようになっているのかも知れないですね。カオスや複雑系というのは、いろいろな二項対立、決定論と確率論、偶然と必然、全体と部分、そういう対立をアウフヘーベンすることによって、より高いレベルに上がるような、そういう概念になっているように思えます。だからそういう所に脳と複雑系の接点があるのかも知れないですね。

脳の中にある文法を創る
酒井 もう1つ、複雑系という意味では、私が関心があるのは言語の問題です。われわれの言葉というのは非常に多種多様であるにもかかわらず、人間であればだれでも言葉を扱えるということに関しては全く変わりがないわけです。話すということ自体は、恐らく脳の中にプログラムされた言葉を操るという能力に基づいていると思われます。それだけ人間の脳に密着した能力であるならば、そこに当然脳が持ってるような規則性なり、論理が出てきてもおかしくないだろうという予想ですね。

そういうことを最初に言ったのが言語学者のチョムスキーです。文法自身が最初にあって、そこからどんどん言葉ができたという発想ですね。帰納的ではなくて、演繹的な文法を作ろうという発想なんです。抽象的な、数学みたいな文法から何語でも出てくる。そういう文法を作れば、おそらく人間の言語というものを記述するのに一番重要な手掛かりになるだろうということを考えたんですね。

合原 それと脳の機能が対応してるんじゃないかと。
酒井 ええ。なぜそういう演繹的な普遍文法があるのか。それは脳にあるからだ、というわけです。
合原 理論的にその問題が面白いのは、言語というのは時系列ですよね。その時系列を生成するニューラルネットワークという観点でたぶん見られると思うんです。脳みたいなダイナミカル・システムにおいて、時系列を生成するメカニズムの基本原理みたいなものが何かという問題に位置づけられると思うんです。そこが実際の脳のデータと、理論研究が繋がってくるための1つの重要な接点ですね。特に、最近の脳の理論研究で重要なのは、非線形ダイナミクスがどういう役割を果たしているのか、そこの解明が問題になってるわけで、そういう意味では言語というのはまさにダイナミカルだからこそ発生するものですから、これから脳を研究して行く上で非常に大切なポイントになるんですね。
酒井 もう1つの、チョムスキーが脳科学に与えたインパクトというのは、子供がなぜしゃべれるようになるかという問題です。幼児が接する言葉は、基本的には親のしゃべる不完全な言葉だけですよね。親が子供に対して明示的に文法を教えることは有り得ないわけです。にもかかわらす、子供が学校に上がる頃には、文法を身に付けるのはなぜかという問題ですね。それに対して初めてもっともらしい答えを出したのはチョムスキーで、元々脳にあるから、という答えなんです。たとえ不完全な情報が来てもパラメータをセットするだけで、あとは元々あるプリンシプルを使って、最終的な言語を作ることができるということなんです。その過程はまさにカオスであったり複雑系であるかも知れないわけです。
合原 元々あるというのは説得力がある程度ありますが、言語の学習過程を考えると、逆にそこで帰納してるという可能性もありますよね。いろんなサンプルを聞きながら、帰納的な法則を脳の中に構成する。
酒井 また、同時に脳ができていく過程ですから、元々なかったものが付け加わって、機能としてシェイプアップされたという可能性ももちろんあるわけです。ただ、おそらくかなり大きな所としては決まってるだろうという決定論があるんですね。
合原 逆に言うと、その辺のニューラルネットの構造がもしわかれば、理論的にはかなりいろいろなことができると思うんですね。そういう構造で可能なダイナミクスは何かという問題です。結局文法が、システムのダイナミクス、もしくはアトラクターと表現していますが、有り得る安定した振る舞いに担われているとすれば、そこの構造に関する情報が得られると、理論モデルもいろいろ作れるかもしれないですね。
酒井 そうですね。だから今私がこれからの研究として目指しているのは、そういうモデルを作るということで、それは一方において脳の機能イメージングのデータも必要ですが、やはり概念的に言語を獲得できる装置を作るという所ですかね。
合原 理論モデルでこういうことができるんですよ。カオスニューラルネットというモデルがあるんですが、そのニューラルネットワークに、普通のニューラルネットの記憶のように、いろいろなスタティックなパターン、これは文字だと思って良いんですが、覚えさせます。そうやって覚えたニューラルネットワークをカオス的に動かすと、覚えた文字から成る時系列を出すんですよ。そうすると、いくつかの断片的な言葉の要素を覚えると、後はネットワークのカオス的なダイナミクスとして、一種の言語のように覚えた文字からなる系列を生み出すのです。その時にまさにカオスダイナミクスが言語を生み出す文法になる。単純なオモチャモデルなんですけれども、そういうアプローチが、言語の生成に関しては使える感じはありますね。