2017/5/2

早稲田大学実学を重視するという方針を打ち出したか何かの記事で「アカデミックな教育課程に偏りがちな大学を変革し、産業界が求める「即戦力」となる人材を育てるのが狙い。」という文を読んでなかなか名文だと思った。このような「実学」を「虚学」という対立軸は遥か昔からあるらしい。ミームの視点から考えると「虚学」は純粋にミームの複製と保存のみを目指す活動だと考えられる。反対に「実学」を生活のために知識を役立てる活動だと考えると、それに対応して実学は遺伝子の複製のためいうことになる。このように実学と虚学の対立を遺伝子とミームの代理戦争と考えると面白いかもしれない。どちらに加担しても結局は利己的な自己複製子に寄与するだけである。そういう話をするなら人間の活動はすべて自己複製子のためということになってしまうのだが。

2017/5/1

今日は"The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World"の第5章を読んだ。この章では遺伝的アルゴリズムを使った機械学習について解説されている。ボールドウィン効果が適応度の勾配を緩やかにすると言った話を理解しやすかったので"Darwin's Dangerous Idea"などを読んでいて良かったと思う。同じく"Darwin's Dangerous Idea"の影響でグールドの進化論批判が登場するとつい身構えてしまう。ここで書かれている断続的平衡と漸進主義のような対立自体がグールドによる藁人形論法だとデネットは主張している。進化のプロセスを大きなスケールから捉えると漸進的に進んでいくがそのプロセスを拡大していくと急激な変化としばらくの平衡が見えてくるのだ。それはギザギザの線を遠くから見ると滑らかな線に見えると言った具合である。

2017/4/30

今日は"The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World"の第4章を読んだ。コネクショニズム、つまりニューラルネットによる機械学習の歴史が概説されている。あまり細部には興味がないけどディープラーニングとか言われるものがどういうものなのかが大体わかったので良かった。S字曲線というものが様々な場所に現れるという話も、やはり人間の認識の形式がそうなっているんだと思う。

あとはずっと積んでいた月村了衛の『機龍警察 暗黒市場』を読んだ。基本的に文章は文章としてしか読まないけど、ユーリ・オズノフがバーゲストに乗るシーンでは気持ちが入りすぎて脳内で自動的にアニメ化されて面白かった。歳を経るごとに涙もろくなってきて、宮城県警の警察官たちが被災した地元のために武器密売を検挙しようと意気込んでいる姿や、最後に夏川さんから手錠を渡されて涙ぐむ渡来さんとかですぐ泣いてしまう。

2017/4/29

"The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World"の第3章を読んだ。ヒュームの帰納法批判の上で帰納的な「学習」を研究する意義とか、データを元に記号主義的な推論を形成する手法が書かれている。哲学をやっている身としてはヒュームの批判の回避があまり満足いくものではなかった。そこは哲学史をもう一歩進んでカントを読めばいいのにと思う。それはそうと、自分なりにそのギャップを補完するなら人間によってパターン認識された形でしか「私たちの」世界は存在しえない。だから人間のパターン認識を分析すれば世界の法則性を発見できる。言い方を変えると、世界の法則とは人間が対象を発見する方法、ヒューリスティックなのだ。物理法則に従った形でしか人間は世界を見ることができないとも言える。これこそがカントのコペルニクス展開である。そして機械学習が導く答えは人間に認識されなければ意味をなさない。ゆえに機械学習はデータから帰納的に法則を見つけ出すことが(技術的問題は別として)可能である。なぜならそのデータは人間の認識パターンに従って収集されていて、機械学習はそのパターンという法則を見つけ出せば良いからである。ただしAIの内部でどのようなパターン認識が働いているかはまた別の問題となる。その内部動作がわからないからこそ機械学習ブラックボックスなのだ。そこでは私たちはデータと推論の演繹的に妥当な関係をもはや確保できず、入力されるデータと出力される推論の間の法則性を帰納的に見つけるしかない。しかしこの帰納的推論は私たちが日常的に用いているヒューリスティックだろうし、そこまで重大な問題とはならないかもしれない。

2017/4/28

"The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World"の第2章を読んだ。"The Master Algorithm"が実現するかどうかにはあまり哲学的な興味はないが、機械学習について"conceptual model"を作る必要があるという点には強く興味を惹かれる。

To use a technology, we don’t need to master its inner workings, but we do need to have a good conceptual model of it.

(Pedro Domingos "The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World"ページ44)

この"conceptual model"はデネットが言う"intentional stance"に近いものだと理解している。しかし人工知能に対して人間と同じ"intentional stance"を認めることは単なる擬人化でしかない。なぜ人工知能を擬人化するだけではいけないのか。それは人工知能が人間と同じ原理に基づいて行動するわけではなく、そしてそれらの変化する速度は人間をはるかに凌駕しているからだ。私たちは人間とは異質な知能をモデル化するという困難な課題に直面しているのである。

2017/4/27

デネットは"physical stance""design stance""intentional stance"という三つの説明レベルを考えている。そしてセラーズによるとそれぞれの説明言語の対象を実在物と扱っていいようだ。それなら"philosophical stance"というものを想定して形而上学的な対象に実在性を与えても良さそうである。その場合考えなければならないのは"philosophical stance"に有用性があるかどうかということだ。デネットの想定する三つの"stance"は物理現象、デザイン、人間の行動というそれぞれのレベルでの予測形成という有用性を持っている。しかし形而上学が新規な予想を行うというのは考えづらい(もっとよく考えれば可能かもしれない)。だが何も有用性は予測の形成だけに限られるわけではない。例えば形而上学的な対象を想定した説明が他のレベルでの説明をより直感的にし、それらのプログラムの予測形成を助けるということがあるかもしれない。イデアのような説明言語が物理学や心理学をよりクリアにするということがあり得るだろうか。もし可能なら分析哲学の理論が形而上学を擁護するという変な事態が発生して面白いかもしれない。

2017/4/26

なぜ私たちの予想は当たるのだろう?ヒュームの懐疑論によって「これまでそうだったから次もそうなるだろう」という帰納的な予想はその根拠を失った。これまでそうだったからこれからそうなるという保証はどこにもないのに私たちはそのような形式の予想を行い、現在に至るまでそれは成功している。この予想という能力が進化によって身についたものだと考えるとひとつ仮説が生まれる。帰納的な推論を行う能力は、これまで自然は同じように動作してきたというそれだけの理由で進化し得る。つまり、これからも今までと同じように自然現象が進行するという保証がなくても帰納的な予想を立てる能力が進化してくることが可能なのだ。なぜなら、今まで自然が斉一的だったという理由だけで、斉一性を前提として予測する個体は生存することができるからである。私たちが帰納的に予測し推論するのは今までそれがうまくいってきて、その能力を持たせる遺伝子が受け継がれてきたからであって、それが今この瞬間行う推論の正当性を保証するわけではない。ただし私たちはただ遺伝子の指し示す通りに生きるのではなく、ミームに感染することで得られた言語的思考によってそれを修正することができる。それが例えば演繹的な推論だったり、反証主義全体論といった科学の方法論ということになるのだろう。