正しさ

■AIXIとUAGISの比較

UAGISと似た研究に、AIXIがある。
AIXIもまた、汎用人工知能とは何かを数学的に定義するトップダウンアプローチである。
報酬を最大化するのを目的にするのは、UAGISと同じである。
大きく異なる点は、帰納推論の良し悪しの考え方である。
AIXIでは、より短いプログラムで表されるほど、もっともらしいと考える。
これは、「オッカムの剃刀」呼ばれる哲学の原理を基づいている。
「オッカムの剃刀」とは、「ある事柄を説明するためには、必要以上に多くを仮定するべきでない」とする指針。
AIXIは、「短いプログラム」は「長いプログラム」より良いプログラムである確率が高いと考えている。
しかし、「良い確率が高いプログラム」が、必ずしも「最良のプログラム」であるとは限らない。
とはいえ、プログラムの良し悪しが確率的にしか分からないなら、最も確率の高いプログラムが最良の選択である。
プログラムの長さでしか、プログラムの良し悪しが判断できないという仮定の下では、AIXIは正しい。
しかし、必ずしも短いプログラムの方が優れているとは限らない。
最も短いプログラムは、すべての入力を無視して、ランダムに出力するだけのプログラムである。
この世の全てはランダムな結果であり、規則的に見えるのは全て偶然であると解釈することができる。
おかしいと感じる人はいるだろうが、これは解釈の問題であり、何も間違っていない。
ランダムに出力するだけのプログラムは、「悪い」プログラムだと感じるだろう。
プログラムの長さとは無関係に、ランダム出力プログラムは、「悪い」と感じただろう。
すなわち、プログラムの長さ以外にも、帰納推論の良し悪しを判断する基準がある。
UAGISは、帰納推論に使った証拠の質(バイアス)と量で、良し悪しを判断する。
AIXIとUAGISのどちらかが正しくて、他方が間違っているわけではない。
帰納推論の正しさとして、異なる定義を採用しただけである。

■帰納推論における「正しさ」の定義

「正しい答え」を答えるプログラムを作るには、「正しい答え」を定義する必要がある。
演繹推論の正しさを示すのに、特に仮定は必要ない。
帰納推論の正しさは、定義してやる必要がある。
AIXIは、プログラムの長さで定義する。
UAGISは、証拠の質と量で定義する。
正しさを決める別の例で、「チューリングテスト」がある。
「チューリングテスト」は、赤ん坊としてテストを受ければ、簡単に合格することができる。
「チューリングテスト」は、区別できなければ同じだという、当然の考え方に基づいている。
しかし、目に見える範囲で区別ができるからといって、中身まで同じだとするのは、明らかな誤謬である。
現代科学では、結果だけに価値があるという考え方が主流である。
人工知能の性能の良し悪しは、試験結果の良し悪しで評価される。
言い換えれば、試験結果を見ないと、良し悪しを判断できない。
結果しか見ないため、偶然良い結果になったのかどうかは判断できない。
偶然でなかったとしても、その試験の場合にのみ成立するのかどうかも分からない。
「試験結果」という特定の状況での振る舞いだけで、「汎用」、「普遍的」を判断するのは、論理の飛躍である。

■脳を模倣する方針の正しさ

脳の視覚では、同じ色でも、周りが暗いと明るく感じるといったような錯覚を起こす。
他にも、さまざまな「認知バイアス」という誤りを起こす。
そのような振る舞いを再現したいのなら、脳を真似ると良い。
しかし、そのような誤りを起こさない汎用人工知能を作りたいなら、脳を参考にするだけでは足りない。
もちろん、脳と同じような錯覚を起こす状態こそが「正しい」と定義して、それを目指してもよい。
しかし、脳の振る舞いは、観察によってしか得られない。
ある状況で、脳がどう振舞うかは観察できるが、全ての状況について調べるには、全ての状況について観察が必要である。
全て調べるのは不可能なので、どこかで帰納推論による一般化を行う必要がある。
すなわち、「正しさ」、「知能」とは何かを、定義する必要がある。
何を、「正しい答え」とするかは、脳を参考にしても良いし、しなくても良い。
どいう答えが欲しいかで「正しさ」を決めればよい。
「知能」とは何なのか定義しようとするのに、「脳」は参考になるが、もっと参考になるものがある。
「知能」の解明には、「脳」を観察するよりも、「知能」を観察するべきである。
例えば、あるアプリがどういう仕事を行うのか知りたいのなら、機械語を読むより、アプリを起動して観察した方が良い。
アルゴリズムを知りたいのなら「脳」や「機械語」を調べるのは有効だが、先に「目的」が分かってないと難しい。
「脳」や「機械語」は、すべて読み終えなければ「目的」を理解するのは難しい。
あらかじめ「目的」が分かっていれば、「脳」や「機械語」の一部分を知るだけでも、「目的」のための何の処理なのか推測できる。
脳の解明が中途半端な状態で、脳を真似て汎用人工知能を作るのは、よほどの偶然が重ならない限り不可能である。
どこかの段階で、「知能」とは何かを決めれば、先に進むことができる。
現代の、脳を模倣した汎用人工知能の試みは、進む方向が誤っているかどうかではなく、まだ方向が定まっていない。
脳を模倣さえすれば汎用人工知能が完成すると信じている者は、方向が定まっていないのに気が付いていない。
ランダムウォークをしていては、ゴールへ到達するのは難しい。
現代社会では、研究資金を得るために、分かり易い「試験結果」が求められるが、本当に必要なのは「知能」の解明である。

■参考文献

Universal Artificial Intelligence
汎用エージェントの理論的枠組み : Marcus Hutterが提唱するAIXIの紹介(<特集>汎用人工知能(AGI)への招待)