2017/6/27

研究発表のためにいろいろ書いていたら、なぜか世界そのものの認識というところが問題となってきた。例えば個別の対象の認識の総和として世界が考えられるかどうかは一つの問題である。ひとつのシステムを理解するためにはその構成要素を個別に理解するだけでは足りず、それらの相互関係まで視野に入れる必要がある。しかし個別のもの同士がどう関係するのかはを知るためには全体を俯瞰的に知っている必要がある。分節化されていない全体の直接的な認識は可能なのだろうか。ショーペンハウアーは世界そのもの=「意志」の直接的な認識ということを語っている。しかしそれは証明されない直観的なものであり、読んでいて少々不満があった。しかし言語的な認識はすでに分節化されているという考え方もある。なぜなら言語はすでに世界の一部分を切り取っているからだ。そうすると世界全体の認識は言語によらず行わなければならないということになる。言語の領分を超えるならそれは哲学の領域ではないかもしれない。

2017/6/26

デネットの「会話ストッパー」としての道徳という考え方が気になっている。"Darwin's Dangerous Idea"では以下のように述べられている。

Now, how shall we avert a cacophony of colleagues? We need some conversation-stoppers. In addition to our timely and appropriate generators of considerations, we need consideration-generator-squelchers. We need some ploys that will arbitrarily terminate reflections and disquisitions by our colleagues, and cut off debate independently of the specific content of current debate.

Dennett, Daniel C.. Darwin's Dangerous Idea: Evolution and the Meaning of Life (p.506). Simon & Schuster. Kindle 版.

単に自分一人が行動する際に考えこみすぎて時宜を逃さないようにするための「会話ストッパー」だと思っていたが読み返してみると微妙に違うような気がする。他者と協調戦略をとる際に互いの行動を予想できるようにすることが「会話ストッパー」としての道徳なのではないだろうか。「会話ストッパー」がなければ相手の裏切りを常に考え込みすぎてしまう。相手が道徳的に振る舞うと確信できていれば裏切られる心配なく協調的な行動をとることができるということを言いたいのだろう。これもある意味で適応主義的な思考と言える。道徳は一つのミームでこのような意味で人間の適応度を高める共生的なものである。しかしadaptationが常にadaptiveではないことを考えると、現在の人間に利益にならない道徳が生き残っていることも考えられる。だからこそ倫理学というものは常に道徳を疑い正当化の根拠を見つけようとするのだろう。

2017/6/25

ケン・リュウの『母の記憶に』に収録されている「パーフェクト・マッチ」という短編が面白かった。生活を支援するAI(「ティリー」)による支配に争うという形式のよくあるディストピアSFだがティリーが機械学習を用いていたりして最近の感じになっている。特に興味深かったのが主人公サイがティリーの助言の「後に」自分の嗜好を認識するところだった。

ティリーはただ、ほしがっていることをサイ自身でもわかっていなかったことを見つけ出しただけなのだろうか?それともその考えをサイの頭に押しこんだのだろうか?
(p 255)

言語的認識が決断の後に生じるという見解を示す実験もある。ならば趣味判断が言語化される前に言語による助言を差し込めば、それが自己認識に取って代わることも可能かもしれない。そして言語的な自己認識は振る舞いへとフィードバックされていき、趣味嗜好や習慣、無意識の行動を形成していくのである。

他にもティリーによる支配から脱しようとする主人公たちにAIの管理会社の社長が言っていたことが面白い。

われわれは今やサイボーグ民族なんだ。ずっと前にわれわれの精神をエレクトロニクスの領域に拡張しはじめた、そしてもはやわれわれ自身のすべてを自分の脳髄に無理やりもどすのは不可能なんだ。
(p 279)

前に読んだ"The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World"という本で同じようなことが述べれられていた。

As technology progresses, an ever more intimate mix of human and machine takes shape. You’re hungry; Yelp suggests some good restaurants. You pick one; GPS gives you directions. You drive; car electronics does the low-level control. We are all cyborgs already. The real story of automation is not what it replaces but what it enables.
(ページ277).

「人間」というものをもはやタンパク質の塊と定義することはできないのかもしれない。機械は「延長された表現型」として私たちの一部であり、その中に人工知能が加わりつつあるのだろう。

2017/6/22

デネットの"Real Patterns"の残っていた部分を読み終わった。パターンを全て物理的に説明するのではなく"intentional stance"を採用する理由やフォーダーやチャーチランドの立場を取らない理由が述べられている。特に確認したかったのが"intentional stance"を採用する理由である。

My point is that even if the evidence is substantial that the discernible pattern is produced by one process rather than another, it can be rational to ignore those differences and use the simplest pattern description (e.g., bar code) as one's way of organizing the data.

(Daniel C. Dennett "Real Patterns" The Journal of Philosophy, Vol. 88, No. 1. (Jan., 1991), pp. 27-51.)

"physical stance"ではなくノイズの多い高次のパターンを用いるのは、その方がプラグマティックに有用であるからである。そして"intentional stance"を使って他の行為者の振る舞いを予測する方が「賭けに勝つ」、つまり進化的に適応度が高いのである。あの長大な"Darwin's Dangerous Idea"を書いて進化論について議論したデネットであるから、こういった価値判断について適応度という考え方を持ち込んでいるのだと思う。しかしダーウィニズムというのは"design stance"上での説明だから、これをメタ的に用いるのはどうなのだろう……という疑問もないことはない。いや、ドーキンスが「安定なものの生存」といったりする時、ダーウィニズムは"physical stance"に適用されているのかもしれない。それだと"intentional stance"上でのダーウィニズムは成り立ちのだろうか。ミームとか?

2017/6/21

デネットの"Real Patterns"という論文を読んでいる。パターン認識という形で三つの"stance"を見出すこととそのパターンの実在性が議論されている。ライフゲームの例は様々なところで登場していたが、物理、デザイン、志向性という三つの"stance"をスケールに従って採用していく過程として引き合いに出されていることがわかった。また能力に一対一で対応した遺伝子という考え方もリアルなパターン、ここでは"design stance"上の存在であることが書かれている。

A tractable oversimplification may be attractive even in the face of a high error rate; considering inherited traits to be carried by single genes "for" those traits is an example; considering agents in the marketplace to be perfectly rational self-aggrandizers with perfect information is another.

(Daniel C. Dennett "Real Patterns" The Journal of Philosophy, Vol. 88, No. 1. (Jan., 1991), pp. 27-51.)

この考え方によって"Sex and Death"で議論されていた"grain problem"を解決することができるかもしれない。つまり遺伝子、個体、種などは"design stance"上のパターンとして視座に相対的なものなのである。そのパターンは有用な"oversimplification"であるためある程度のノイズは許容されるのだろう。

2017/6/20

セラーズの"Philosophy and Scientific Image of Man"をなんとか読み終わった。最終セクションの"Putting Man into the Scientific Image"が全然わからない。もうちょっと全編通して一貫して読んでみる必要があると思う。

It follows that to recognize a featherless biped or dolphin or Martian as a person requires that one think thoughts of the form, ‘We (one) shall do (or abstain from doing) actions of kind A in circumstances of kind C’. To think thoughts of this kind is not to classify or explain, but to rehearse an intention.

(Sellars, Wilfrid. Science, Perception, and Reality (Kindle の位置No.897-900). Ridgeview Publishing Digital. Kindle 版. )

ある対象を「人間」として考えることが、それを共同体に置き入れることを意味しているらしい。そしてそのことによって"manifest image"上にある「人間」は道徳的な制約の中に置かれると言われている。このことによっていわゆるis/oughtのギャップ、「自然主義的誤謬」が解消されるというようなことが書かれていたような気がする。書いていて驚くほど自信がない。"rehearse an intention"というのが何を意味しているのか最後まで読んでも全然わからなかった。うーん、頑張ろう。

2017/6/19

"Sex and Death"を最終章まで読み終わった。最終章では"universal biology"つまりは「生命」とは何かという問題が扱われている。特にコンピューター上でシミュレートされる人工生命の話が面白かった。「強いAI」の話題と同じように「強い人工生命」の擁護者はこの人工生命は本来的な意味で生命を持っていると主張している。

Just as "strong AI" claims that some computing systems housed in current or near-current computers are not mere simulations of thought, but instances of it, the defenders of "strong A-life" argue that some computer models of lifelike interactions are not simulations of life, but instances of it. They are alive.
(Kim Sterelny, Paul E. Griffiths "Sex and Death: An Introduction to Philosophy of Biology" p361)

確かに強いAI論者もAIが「知性」や「意識」を持っていると主張するだろう。しかしデネットはこの知性や意識が「全か無か」の性質ではない、つまりある閾値を上回れば意識を持っていると言えるような性質ではないという。結局知性や意識は私たちがそこに"intentional stance"を見出すかどうかの問題なのである。同様に生命もまた「全か無か」の性質ではないと考えるなら、私たちがそこに生命を見出すかどうかが問題となる。つまり人工生命が生命かどうかの定義は境界設定者にある程度相対的だと言えるだろう。