シンギュラリティとは、人工知能がヒトの脳を超える瞬間のことを意味します。分野を限れば、すでに人工知能はヒトの脳の能力を遥かに超えていますが、シンギュラリティではヒトの脳が関わるあらゆる分野を対象としています。ヒトと同じような意識をもつことも想定されています。このような万能型の人工知能のことを、汎用人工知能、あるいは「強い人工知能」と呼びます。
いま世界中で、シンギュラリティは来るのか来ないのか、白熱した議論が戦わされています。産業革命よりも遥かに強力なインパクトを社会にもたらす事件です。強い人工知能は、有機体ではありませんので生物としての制約を受けません。人工知能内の全データをコピーすることが可能なので、その増殖速度はとんでもないことになるでしょう。その時なにが起こるのか想像がつきません。議論が白熱して当然です。
本稿では、この巷で噂のシンギュラリティについて、個人的な見解を述べておきます。私たちの片割れである渡辺は、人工知能を使って脳の仕組みを探る研究を進めています。その必然としてシンギュラリティについても考える機会がおおく、自分なりの意見をもっております。人工知能に関わる脳の研究者として、いつまでも自分の意見を潜めておくのは潔くないので、立場を明確にしたいとおもいます。もちろん、これは現時点での一科学者の考えですので、新しい科学的発見がなされることによって、意見をコロリと変える可能性は大いにあります。科学者とはそういう生きものです。
さて、強い人工知能なんてSF世界の絵空事ではないかとお考えの方に、ひとつ単純な算術をお示ししましょう。ゼブラフィッシュという熱帯魚がいます。この魚はとても小さくて、ちょうど日本のメダカと似たような大きさです。体は小さくても脊椎動物ですから、脊髄から終脳まで脳の構成はヒトと同じであり、脊椎動物のモデル動物として学問の世界では広く深く研究されています。このゼブラフィッシュの脳にある神経細胞を数えた研究者がおり、だいたい1000万個と算定されました。神経細胞同士はシナプスという構造で結合されており、その結合数は細胞の1000倍程度、すなわち100憶個くらいと推定できます。人工知能で脳を模倣するには、シナプス結合数をカバーできるだけのメモリー容量が最低必要になります。100憶個という数字をコンピュータの言葉に直すと、10ギガバイトです。現在個人向けに普及している人工知能用計算機のメモリー容量が11ギガバイトですから、スケールとしてはゼブラフィッシュのシナプス結合数とほぼ同等になります。
もちろんメモリー容量のスケールが同等だからといって、すぐにゼブラフィッシュの脳が模倣できるわけではありません。魚の脳がどのように動作しているかが皆目わかっていませんので、あくまでもスケールだけの問題です。ヒトの脳はゼブラフィッシュの1000倍ほどのスケールになります。上のゼブラフィッシュの例は「普通に市販されている計算機」の話です。現在のスパコンの性能を考えますと1000倍というのはとるに足らない数字です。スケールだけならヒトの脳はすでに射程距離に入ったと考えるべきでしょう。
つまり、強い人工知能を実現するためのハードウエアは整いつつあると考えてもいいのです。となると、あとは脳がどのように動作しているかが明らかになれば、強い人工知能への道筋は開かれることになります。現実の問題として、私達の脳は現に「動作している」のは間違いないわけですから、そこにはなんらかの動作するための原理原則があるはずです。それを人間が今知らないだけとすれば、それが明らかになった暁には強い人工知能の実現は自明のことのように思えます。
となると、「シンギュラリティが来ない」派にとって、まだ幾ばくかでも主張を裏付ける論拠は残っているのでしょうか。考えに考え、私なりに思いついた論拠の一つは、そもそも脳の構成要素が神経細胞やシナプス結合ではない場合です。レゴブロックで作られたお城の構成要素は、ひとつひとつのブロックになります。ひとつのブロックの性質を知れば、お城がどのようにできているかを知ることができます。もし、神経細胞やシナプス結合が脳のブロックでなかったとしたら、大前提が間違っていますから強い人工知能はできないことになります。しかし、これまでの神経科学の知見、人工ニューラルネットの研究から、この大前提は崩れそうにありません。
二つ目の論拠は、脳の動作原理が解明できなかった場合です。この可能性はまったくないとは言えません。例えば、物理学はとんでもなく発展したように見えますが、まだ量子力学と相対性理論を統合できるような究極の理論はみつかっていません。超弦理論やM理論のような可能性を秘めた素晴らしいモデルも現れてはいますが、実験で証明することはかなり困難です。脳の動作原理もその類でしょうか。答えは、おそらく「否」でしょう。量子力学はあくまでも量子一個一個で記述しないといけない超ミクロ世界のルールであって、それに比べて神経細胞が発生させる電気信号は超マクロな世界での出来事です。巨大な神経細胞やシナプスが量子の振る舞いを制御しているとはとても思えません。そのような神経細胞を構成要素にする脳の動作原理は、困難であるにしても解明されるのは時間の問題ではないでしょうか。意識による自身への保護作用はあるにしても、解明を逃れることは不可能に思えます。
三つ目の論拠は、強い人工知能が危険な技術と判断されて法律的に、あるいは政治的に規制される場合です。可能性が全然ないとは言えませんが、極めて魅惑的な技術を目の前にして、果たして欲深い人間がじっと我慢をすることができるのでしょうか。
文頭で「白熱して当然」と指摘しながら、今私は「来るか来ないか」の議論は不毛のような気がしています。なぜなら、待っていれば自然と答えがでるからです。だとしたら、黙って待てばいいことになります。議論をしなくても近い将来結論がでることに血道をあげることにどれほど意味があるのでしょう。もし本当に来ないと信じているのなら「来ない来ない」と声高に叫ぶのは、むしろ奇妙な行為におもえます。放置しておいても「来ない」だけです。
「来る」と信じている人工知能研究者は、淡々と実現に向けて研究を続けていくことでしょう。そういう研究者へ向けて「来ないのだから、そんなことをしても不毛です」という忠告でしたら、それこそ不毛です。人はそれぞれ趣味をもっていますが、ある人から見て不毛にみえる趣味でも本人にとってはかけがえのないものです。真実を探求する行為、新しいものを創造しようとしている行為は、誰にも止めることはできません。それは自由意志の賜物であり、たとえ一人になってもでもやり続けることでしょう。
では「来ない」という主張は「来るという主張は社会不安を煽る妄想だからやめなさい」という気持ちの表れでしょうか。それは一番ダメなパターンです。もし「来る」のであれば、それに対して社会基盤を整備しておかないといけません。地震と同じです。地震なんていつどこに来るのか来ないのかわかりません。それでも、来た時のための対策は入念に考えておくべきでしょう。来なかったとしても、来るとして考え抜いた議論は人類の知恵の宝になるはずです。この世を去る直前に、人工知能研究に対して真摯な警告を残したスティーブン・ホーキング博士の末期の眼は極めて真っ当であり、科学者としての責任感に溢れた態度です。
最後に、もうひとつの可能性を提示しておきます。「来たけど超えなかった」という可能性です。上のレゴブロックの例では、ひとつのレゴブロックの原理がわかれば、大きなお城を作ることも、またそれ以上大きなお城を作ることも可能です。しかし、神経細胞やシナプス結合ブロックの場合は、果たしてそれが可能でしょうか。例えば囲碁のような特別な技能に関しては超えることができたとしても、汎用性を付与したときに同じ方式が通用するでしょうか。恐ろしく長い時間をかけた生物の進化の過程で培われたヒトの脳が、わりとギリギリまで性能を高めた成果物であるという可能性はないでしょうか。意識には容量があるというのが定説です。この意識の容量がボトルネックにならないでしょうか。抽象的な言い方をすると、これ以上ヒトの脳を拡張した末に精神のバランスがとれるか否かです。これについては、私は50%50%と考えています。しかし、この可能性に対しても、きっとそのときに答えがでることでしょう。
このような議論は、私が学生だった80年代、90年代にはまったく成立しませんでした。アイデア自体はあったのですが、それこそ絵空事でした。それが現実のものとして議論され始めたことに、ただただ感動と人類への畏敬の念を感じます。私はずっと待っていたのです。私は学生のころから絵空事を絵空事と考えていませんでした。この先の人工知能研究、神経科学研究の展開にゾワゾワしています。生きている間に意識が生まれる瞬間に立ち会えるかもしれません。実装するべし、JUST DO IT.
人類が叡智の先に何を見るのかな?