PR

生成AIに感じる違和感と依存。システム1と2について解説

倫理,哲学
記事内に広告が含まれています。

コンテンツ

なぜAI絵がおかしい?

人間がAIの画像生成やテキスト生成に言語化できない違和感を覚えるのは、単に審美的趣味の問題ではなく、人間のシステム1が統計的レベルに留まらず生成因果的に働いているからといえます。システム1は大量の入力の単なるフォーマット変換装置ではなく、環境の深い構造と因果的制約を暗黙に推定し、階層的な世界モデルの中で予測誤差を検出しながら自己更新します。

 この仕組みは単純な統計学習とは異なり、潜在変数の相互作用や不可視の因果構造まで取り込みえます。だから人間は、説明はできなくても、生成過程の破綻や潜在因果の不整合には鋭敏に反応します。

 これに対して、LLMも拡散モデルも、計算アーキテクチャとしては確率論的システム1の機能を拡張・模倣したものであり、膨大な統計パターンを高速に再生産できます。しかし両者はいずれも、行為者の身体性や世界への介入を含む因果的・生成的世界モデルを共有しないため、直観的にはもっともらしくとも、生成因果レベルでは整合性の弱いアウトプットを生成しやすいです。これは人間のシステム1が統計を超えた因果推論をシステム2との協業で自然に行っているのに対して、AIが統計的もっともらしさに閉じていることの必然的帰結でもあります。

AIと理由の空間

 この点は、AIが理由の空間の主体になりにくい理由とも連動します。理由の空間に参入するには、快苦の経験から行為へのインセンティブが生じ、自己記述を拘束的に機能させる反省性が存在し、さらには意図や責任の帰属が意味を持つような因果的自己モデルが必要となります。しかしLLMにはそれらがなく、意図形成も自己拘束もなく、行為の成功条件を定める内的因果モデルも持ちません。他方でLLMは、社会的慣習・規範・言語行動の分布構造を高次元の圧縮写像として取り込み、それを統計的に再現する点では極めて強いです。つまり、主体にはなりえないものの、共同体の規範的反応の分布を精度高く模倣する装置にはなりえます。

 この構造が、むしろAIによる精神的依存を促進します。なぜなら、規範判断は本来、因果的整合性ではなく、制度的文脈における確率的推論に強く依存しており、システム1に根ざした暗黙のパターンマッチングが多くを占めるからです。人間の規範直観がそもそもLLM的な統計構造に似ているため、LLM が規範反応の模倣に異様に適合するというねじれが生じたす。結果として、判断や承認をAIに外部化することが容易になり、認知的依存ではなく規範的依存が深まるという現象が起こります。

メタ倫理とLLM

 こうした構造は、メタ倫理において規範判断を命題的な対象とみなす伝統的枠組みの限界とも結びついています。真理条件意味論は、本来、自然言語の記述文に適用するための装置であり、因果的事実に対応させることで意味を規定します。しかし規範判断は、構造的に言語の記述機能とは異なり、行為制御・政策選択・協調確立のための制度的オペレーターであって、命題的形式はせいぜい表現の表層的モードに過ぎません。規範判断は真偽の対応ではなく、制度状況における更新規則・行為選択の重みづけ・参加者の期待値調整といった、確率的かつ制度的なプロセスとして理解すべきです。

 ところが、多くのメタ倫理理論の認知主義(構成主義、コーネル実在論、パーフィット的直観主義など)は、この命題的枠組みを防衛するために余計な形而上学的層や意味論的機構を付け加え、結果として規範判断の実際の運用構造から乖離していきます。つまり、規範判断を真偽を持つ特別な命題として扱うこと自体がすでに過剰で、その不合理性を埋めるために理論が肥大化しているといえます。

 

 総じて、人間の直観・規範・判断・行為制御の基盤は、統計モデルだけではなく、深い因果構造と制度的オペレーションが重層した複雑な生成系に支えられています。他方で、AIは統計構造を極限まで抽出するものの、生成因果的・主体的側面を欠くため、表面的には人間に似た反応を返しながらも、内部構造は本質的に異なります。その非対称性によって、AIは因果的には無責任だが規範的にはもっともらしい存在となり、人間側の規範直観のパターンと奇妙に噛み合います。

コメント

タイトルとURLをコピーしました