認知科学におけるシンボリックアプローチ

心の表象理論と思考の言語仮説:心の自然化への道筋

1. 根本問題:心の自然化

2つの説明レベルのギャップ

志向的レベル:「彼女はコーヒーが欲しいから、カフェに行った」 どう繋がる? 物理的レベル:「ニューロンが発火して、筋肉が動いた」

自然化が答えるべき問い:

  • なぜ物理的に理解された行動が、心的に理解された行動と一致するのか?
  • なぜ心的なものと物理的なものが歩調を合わせるのか?
  • 理性(reason)をどう機械化できるのか?

2. 心の表象理論(RTM)による解決策

RTMの2つの核心的主張

主張1:志向的状態 = 表象との関係

「雨が降ると信じる」 = 「雨が降る」を意味する表象Rとの関係を持つ

  • 信念、欲求、希望などの命題的態度を表象で説明
  • 心の中に「言明」のようなものがある

主張2:心的プロセス = 計算

思考 = 表象の因果的系列 = 意味を尊重する統語的操作 = 計算

3. 計算とは何か:形式と意味の橋渡し

これが最重要ポイント:

計算の定義:「表象の意味(semantics)を尊重する統語的(syntactic)操作」

具体例:三段論法

前提1: 「ソクラテスは人間である」 前提2: 「すべての人間は死ぬ」 結論: 「ソクラテスは死ぬ」 形式的には: P(a) ∀x(P(x) → Q(x)) ───────── Q(a)

重要なポイント:

  • 統語的操作:記号の形(syntax)だけを見て機械的に操作
  • 意味を尊重:でも結果は意味的に正しい(semantics)
  • これがコンピュータが論理推論できる理由!

なぜこれで自然化できるのか

志向的レベル:「ソクラテスが死ぬと推論した」 説明される 計算レベル:「記号P(a)とルールに基づいてQ(a)を導出」 物理的に実装可能 物理レベル:「電気回路の状態変化」

4. 記号(Symbols)の本質的特徴

a) 離散的・明確・確定的(Discrete, unambiguous, determinate)

良い記号:0, 1, "cat", "dog"

悪い記号:「なんとなく猫っぽい」

これにより:

  • 再結合可能:「cat」+「black」→「black cat」
  • 合成可能:小さな記号から大きな構造を作れる
  • →思考の生産性と生成性を説明

生産性:

有限の記号から無限の思考を作れる
例:「大きな黒い猫」「とても大きな黒い猫」「非常にとても大きな...」

体系性:

「猫が犬を追う」を理解できる人は「犬が猫を追う」も理解できる
なぜ?構造を理解しているから

b) 抽象的:多重実現可能(Abstract: Multiply-realizable)

同じ計算:

  • シリコンチップで実装
  • 生物学的ニューロンで実装
  • 水道管で実装(理論上)
  • 紙とペンで実装

重要性:

  • 種差別主義(species chauvinism)を回避
  • タコの痛みと人間の痛みは物理的に異なる実装でも両方とも「痛み」
  • 異星人やAIも「思考する」と認められる

c) 統語論的/非意味論的(Syntactic/non-semantical)

記号 "cat" の性質:

  • 物理的性質:特定のビットパターン、インクの形
  • 統語的性質:他の記号とどう組み合わさるか
  • 意味論的性質:実際の猫を指す

重要:統語的性質だけで計算できる!

これが決定的に重要:

  • 意味を理解しなくても記号を操作できる
  • →機械が「思考」できる
  • →物理的プロセスとして実装できる

5. チューリングマシンの革命性

なぜチューリングマシンが重要か

問題:デカルトの挑戦

「機械は人間のように言語を使えない。なぜなら、可能なすべての文に対して別々のメカニズムを持てないから」

解決:万能性(Universality)

普通のチューリングマシン: ・足し算マシン:足し算だけ ・掛け算マシン:掛け算だけ →無限に異なる機械が必要? 万能チューリングマシン(UTM): UTM(プログラムq, 入力n) = TMq(n)

つまり:

  • プログラムを「データ」として扱う
  • 1つの機械ですべての計算可能な関数を計算

認知科学への含意:

「人間の認知は無限に多様だが、1つの万能機械(脳)ですべてを説明できる可能性がある」

ただし代償:

人間の認知を「入力記号→出力記号の関数」として概念化する必要がある
これは妥当な仮定か?→論争的

6. 思考の言語(LoT)仮説

Fodorの具体的提案

自然言語:「猫が黒い」 翻訳 LoT: CAT(x) ∧ BLACK(x) 心的処理 LoT: ∃x[CAT(x) ∧ BLACK(x)] 翻訳 自然言語:「黒い猫がいる」

構成要素構造(Constituent Structure)

文:「黒い大きな猫がマットの上にいる」 構造: [文] / | \ [主語] [動詞] [場所] | | | [形容詞+名詞] [いる] [前置詞句] / | \ | 黒い 大きな 猫 マットの上

操作は構造に敏感

能動態→受動態の変換:

「ジョンがボールを打った」 → [主語:ジョン] [動詞:打つ] [目的語:ボール] → [主語:ボール] [動詞:打たれる] [行為者:ジョンによって] →「ボールがジョンによって打たれた」

なぜこれが重要:

  • 有限の規則で無限の変換
  • 新しい文を理解・生成できる
  • 体系性を説明:「AがBを愛する」⇔「BがAを愛する」

7. LoTの論証:体系性と生産性

体系性(Systematicity)

能力の共変:

「猫が犬を追う」を理解できる

「犬が猫を追う」を理解できる

なぜ?
→記号が構成要素構造を持つから
→同じ構造を異なる要素で使えるから

生産性(Productivity)

有限の語彙:~50,000語 無限の文: 「猫」 「大きな猫」 「とても大きな猫」 「非常にとても大きな猫」 ...(無限に続く)

Fodorの主張:

「この生産性と体系性は、記号が構成要素構造を持たないと説明できない」

8. 生得性論証(LoTの最も急進的な主張)

Fodorの論理

前提1: すべての真の学習は概念学習である (新しい概念を獲得すること) 前提2: 概念学習の最良の説明は仮説検証である (仮説を立てて、検証して、修正する) 前提3: 仮説検証には仮説を定式化する言語が必要 (「もしかして、これは[X]かな?」と考えるための言語) 前提4: その言語は学習できない (無限後退:学習するための言語を学ぶための言語を...) 結論: 生得的な言語(LoT)が存在する

極端な含意:

  • "airplane"という概念も生得的?
  • 生まれた時から脳に"airplane"という記号がある?

批判:

「生得性は多くの人がLoTを拒否する理由。でも、シンボリックアプローチと生得性は切り離せるか?」

→これが残りの授業(Week 3-6)で探究されるテーマ

9. シンボリックアプローチの約束と課題

約束

1. 志向性の説明

  • 個人レベルの志向性(信念、欲求)を説明
  • 非物理的なものを仮定しない

2. 万能性

  • 1つのシステムで無限の認知を説明
  • 人間ごとに異なる機械は不要

3. 多重実現可能性

  • 生物種を超えた一般理論
  • AIも含む

未解決の問題

意味の起源問題:

個人レベル:「私はPを信じる」 RTMで説明 下位個人レベル:「表象RがPを意味する」 でも、Rの意味はどこから? ???

選択肢:

  • チェスコンピュータと同じ?(人間の解釈に依存)→主観的すぎる
  • 表象の理論?(因果理論、目的論的、進化的...)→コンセンサスなし

まとめ:シンボリックアプローチの核心

中心的アイデア:

  • 思考 = 記号操作
  • 記号 = 離散的、抽象的、統語的
  • 計算 = 意味を尊重する形式的操作
  • 心 = 構成要素構造を持つ記号システム

これにより:

  • 志向性を自然化(物理的プロセスとして説明)
  • 生産性・体系性を説明
  • 多重実現可能性を許す

しかし問題:

  • 意味の起源
  • 生得性の急進性
  • 学習の説明
  • (Week 3以降で)中国語の部屋、フレーム問題、常識問題...

The Symbolic Approach in Cognitive Science

Representational Theory of Mind and the Language of Thought: Paths to Naturalizing the Mind

1. The Fundamental Problem: Naturalizing the Mind

The Gap Between Two Levels of Explanation

Intentional Level: "She wanted coffee, so she went to the café" How do they connect? Physical Level: "Neurons fired and muscles contracted"

Questions Naturalization Must Answer:

  • Why does physically understood behavior match mentally understood behavior?
  • Why do mental and physical phenomena stay in sync?
  • How can reason be mechanized?

2. The Representational Theory of Mind (RTM) Solution

Two Core Claims of RTM

Claim 1: Intentional States = Relations to Representations

"Believing it will rain" = Having a relation to representation R that means "it will rain"

  • Explains propositional attitudes like beliefs, desires, hopes via representations
  • Something like "statements" exist in the mind

Claim 2: Mental Processes = Computation

Thought = Causal sequence of representations = Syntactic operations that respect meaning = Computation

3. What is Computation: Bridging Form and Meaning

The Most Crucial Point:

Definition of Computation: "Syntactic operations that respect the semantics of representations"

Concrete Example: Syllogism

Premise 1: "Socrates is human" Premise 2: "All humans are mortal" Conclusion: "Socrates is mortal" Formally: P(a) ∀x(P(x) → Q(x)) ───────── Q(a)

Key Points:

  • Syntactic Operation: Mechanical manipulation based only on symbol form (syntax)
  • Respects Meaning: But the result is semantically correct
  • This is why computers can perform logical reasoning!

Why This Achieves Naturalization

Intentional Level: "Inferred that Socrates is mortal" Explained by Computational Level: "Derived Q(a) based on symbol P(a) and rules" Physically implementable Physical Level: "Electrical circuit state changes"

4. Essential Features of Symbols

a) Discrete, Unambiguous, Determinate

Good Symbols: 0, 1, "cat", "dog"

Bad Symbols: "sort of cat-like"

This Enables:

  • Recombinability: "cat" + "black" → "black cat"
  • Compositionality: Build large structures from small symbols
  • →Explains productivity and generativity of thought

Productivity:

Generate infinite thoughts from finite symbols
Example: "big black cat" "very big black cat" "extremely very big..."

Systematicity:

If you understand "cat chases dog" you also understand "dog chases cat"
Why? Because you understand the structure

b) Abstract: Multiply-Realizable

Same Computation:

  • Implemented in silicon chips
  • Implemented in biological neurons
  • Implemented in water pipes (theoretically)
  • Implemented with paper and pen

Significance:

  • Avoids species chauvinism
  • Octopus pain and human pain are physically different implementations but both are "pain"
  • Aliens and AI can also be recognized as "thinking"

c) Syntactic/Non-Semantical

Properties of the symbol "cat":

  • Physical property: Specific bit pattern, ink shape
  • Syntactic property: How it combines with other symbols
  • Semantic property: Refers to actual cats

Important: Computation is possible using only syntactic properties!

This is Critically Important:

  • Can manipulate symbols without understanding meaning
  • →Machines can "think"
  • →Can be implemented as physical processes

5. The Revolutionary Nature of Turing Machines

Why Turing Machines Matter

Problem: Descartes' Challenge

"Machines cannot use language like humans because they cannot have separate mechanisms for all possible sentences"

Solution: Universality

Ordinary Turing Machines: ・Addition machine: only addition ・Multiplication machine: only multiplication →Need infinitely many different machines? Universal Turing Machine (UTM): UTM(program q, input n) = TMq(n)

In Other Words:

  • Treat programs as "data"
  • One machine computes all computable functions

Implications for Cognitive Science:

"Human cognition is infinitely diverse, but one universal machine (the brain) might explain it all"

But at a Cost:

Must conceptualize human cognition as "input symbols → output symbols function"
Is this a valid assumption? →Controversial

6. The Language of Thought (LoT) Hypothesis

Fodor's Concrete Proposal

Natural Language: "The cat is black" Translation LoT: CAT(x) ∧ BLACK(x) Mental processing LoT: ∃x[CAT(x) ∧ BLACK(x)] Translation Natural Language: "There is a black cat"

Constituent Structure

Sentence: "The big black cat is on the mat" Structure: [Sentence] / | \ [Subject] [Verb] [Location] | | | [Adj+Noun] [is] [PP] / | \ | big black cat on the mat

Operations are Structure-Sensitive

Active→Passive Transformation:

"John hit the ball" → [Subject:John] [Verb:hit] [Object:ball] → [Subject:ball] [Verb:was hit] [Agent:by John] →"The ball was hit by John"

Why This Matters:

  • Infinite transformations with finite rules
  • Can understand and generate new sentences
  • Explains systematicity: "A loves B" ⇔ "B loves A"

7. Arguments for LoT: Systematicity and Productivity

Systematicity

Co-variation of Abilities:

Can understand "cat chases dog"

Can understand "dog chases cat"

Why?
→Because symbols have constituent structure
→Can use same structure with different elements

Productivity

Finite Vocabulary: ~50,000 words Infinite Sentences: "cat" "big cat" "very big cat" "extremely very big cat" ...(continues infinitely)

Fodor's Claim:

"This productivity and systematicity cannot be explained unless symbols have constituent structure"

8. The Nativism Argument (LoT's Most Radical Claim)

Fodor's Logic

Premise 1: All true learning is concept learning (acquiring new concepts) Premise 2: Best explanation of concept learning is hypothesis testing (formulate, test, revise hypotheses) Premise 3: Hypothesis testing requires a language to formulate hypotheses (a language to think "maybe this is [X]?") Premise 4: That language cannot be learned (infinite regress: language to learn language to learn...) Conclusion: An innate language (LoT) exists

Extreme Implication:

  • Is even the concept "airplane" innate?
  • Does the symbol "airplane" exist in the brain from birth?

Criticism:

"Nativism is why many reject LoT. But can we separate the symbolic approach from nativism?"

→This theme is explored in the remaining weeks (Week 3-6)

9. Promises and Challenges of the Symbolic Approach

Promises

1. Explaining Intentionality

  • Explains personal-level intentionality (beliefs, desires)
  • Doesn't assume anything non-physical

2. Universality

  • One system explains infinite cognition
  • No need for different machines per person

3. Multiple Realizability

  • General theory transcending biological species
  • Includes AI

Unresolved Problems

The Problem of Meaning Origins:

Personal Level: "I believe P" Explained by RTM Sub-personal Level: "Representation R means P" But where does R's meaning come from? ???

Options:

  • Same as chess computer? (depends on human interpretation) →Too subjective
  • Theory of representation? (causal, teleological, evolutionary...) →No consensus

Summary: Core of the Symbolic Approach

Central Ideas:

  • Thought = Symbol manipulation
  • Symbols = Discrete, abstract, syntactic
  • Computation = Formal operations respecting meaning
  • Mind = Symbol system with constituent structure

This Enables:

  • Naturalizing intentionality (explaining as physical processes)
  • Explaining productivity and systematicity
  • Allowing multiple realizability

But Problems Remain:

  • Origin of meaning
  • Radical nativism
  • Explaining learning
  • (Week 3 onward) Chinese Room, Frame Problem, Common Sense Problem...