返回列表

AI 有意識,會思考嗎?|或者我們根本就問錯了問題

維根斯坦的語言遊戲:意義不在於內在狀態,而在於行動。

「AI 到底有沒有意識?」 這個問題在過去幾年被問了無數次。每當 AI 展現出驚人的能力——流暢的對話、精準的推理、甚至看似「創造性」的輸出——這個問題就會再次浮現。

AI 真的「理解」它在說什麼嗎?

「真正的理解」必須伴隨某種內在的心智狀態,一種「懂了」的感覺、一個在腦中亮起的燈泡。如果 AI 沒有這種內在體驗,它可能只是在「模仿」,不是在「理解」。

本質上,AI 是一個「大型語言模型」(Large Language Model, LLM),就是一個預測下一個詞的機器。給它一串文字,它計算出最可能接續的詞,然後是下一個,再下一個。沒有思考,沒有靈魂參與,只是一次又一次的統計預測。

於是我們陷入了一個困境:

但,也許問題不在於 AI,而在於我們問問題的方式本身。

在一百多年前,哲學家維根斯坦就預見了這種「語言」的困境。他不試圖回答「意識是什麼」,而會問一個更根本的問題:「理解」是一種什麼樣的狀態?

也許問題不在於 AI,而在於我們對「理解」的想像本身就有問題。


一、關於「理解」的迷信

要理解維根斯坦為什麼這樣說,我們得先拆解一個根深蒂固的語言觀——他稱之為「奧古斯丁式的圖像」。

引用奧古斯丁《懺悔錄》中對語言學習的描述:小孩看到大人指著物體並說出名稱,逐漸學會詞語與事物的對應關係。 這代表一種關於語言本質的預設:

這種觀點聽起來很直覺。但維根斯坦問了一個簡單的問題:在施工現場,工頭對助手喊「石頭!」的時候,這個詞的「意義」是什麼?

如果意義就是對象,那「石頭」的意義就是那塊石頭本身。但工頭喊的顯然不是在描述石頭的存在,而是在下一個命令。助手聽到後搬來石頭,也不是因為他在大腦中「解碼」了某種意義,而是因為他受過訓練,知道這個聲音在這個情境下意味著什麼行動。

這就是維根斯坦最核心的格言:意義存在於使用(Meaning is Use)

一個詞的意義不是它指涉的對象,也不是說話者心中浮現的圖像,而是它在特定「語言遊戲」中的功能。

隨著語言情境的不同,詞語可以被當成不同的「功能」使用。 我們把語言作為媒介、當成工具。進行名為對話與溝通的「遊戲」。

請看下面這個例子。當我們使用「意思」這個詞時,我們到底在想什麼?

意義即使用 (Meaning is Use)

詞語沒有固定的核心,只有流動的邊界。試著點擊下面的按鈕,觀察「意思」這個詞如何在不同的語境中變形。

你發現了嗎?「意思」這個詞的意義,並不在於它背後對應的某個固定物體,而在於它在不同語境下的用法

如果語言不是靜態的標籤,而是動態的遊戲,那問題就變了:不再是「AI 有沒有意識上的理解」,而是「它遵循的是什麼規則?它跟我們玩的是不是同一個遊戲?」


二、「理解」不是一種心理狀態

現在,讓我們把這個視角回到「理解」這個概念上。

想像一個學生在學習數列 2, 4, 6, 8…。他盯著這串數字,突然眼睛一亮,說:「現在我明白了!」

我們通常認為,這句話指向的是那一瞬間發生在他大腦裡的某種事件——也許是公式 xn=2nx_n = 2n 浮現眼前,也許是一種豁然開朗的輕鬆感。這種觀點假設「理解」是一種心理狀態,一種可以在特定時刻被「擁有」的東西。

但維根斯坦問:如果這個學生接下來寫出的是 1000, 2000, 4000,我們還會說他「理解」了嗎?

顯然不是。

這意味著什麼?「理解」的標準不在於大腦裡發生了什麼,而在於能否正確地繼續下去。理解是一種能力,一種類似於「能走路」的技術掌握,而不是一種持續的心理狀態。

這對「AI 是否能理解我們」的問題意味著什麼?

如果我們堅持認為「真正的理解」必須伴隨某種內在的心理體驗,那我們永遠無法證明 AI 有或沒有這種體驗——因為我們也無法證明另一個人有或沒有。但如果我們接受維根斯坦的觀點,問題就轉變了:AI 能不能在語言遊戲中「正確地繼續下去」?

這將我們帶入了另一個更深的問題:如果意義在於用法,那麼 AI 只要表現得像是在遵守規則,是不是就等於它「會」了?

想像一下,你教一個 AI 數列:2, 4, 6, 8… 它學得完美無缺。它一直數到了 1000。這時候,你心裡想:「它懂了,它掌握了『加 2』的規則。」

但當你問它「1000 接下來是什麼?」時,它自信地回答:「5」。

你崩潰了。你說:「錯了!應該是 1002!」但 AI 反駁道:「不,我完全遵循了規則。我的規則是:在 1000 之前加 2,在 1000 之後變成 5。」

這就是著名的克里普克-維根斯坦悖論(Kripke-Wittgenstein Paradox)

加法還是夸法?

你教 AI 算數學,它好像都答對了!但真的學會加法了嗎?

訓練資料

2 + 2 = 4 正確
68 + 57 = 125 正確
...

測試:用一個沒見過的大數字

1000 + 2 =

在這個互動中,我們看到了一個令人不安的事實:沒有任何過去的行為,能邏輯地保證未來的規則遵循。

我們之所以認為「2, 4, 6, 8…1000」後面必然是 1002,不是因為邏輯上的絕對必然,而是因為我們是人類。我們共享著同一種生活形式(Form of Life)。我們有相似的身體、相似的教育、相似的本能,所以我們「自然而然」地走上了同一條路。

但 AI 呢?它沒有身體,沒有童年,沒有生活。它是在數學的高維空間中尋找概率的幽靈。

當它產生「幻覺」時,它並不是在撒謊,它只是在遵循一條我們無法理解的、異質的規則。


三、盒子裡的甲蟲

但你可能還是會說:不對,人類的理解背後確實有「某種東西」。一種內在的體驗、一種感質(qualia)。即使我們無法證明它的存在,它還是存在的。AI 沒有這個,所以它不是真的在思考。

維根斯坦對此有一個著名的回應,叫做「盒子裡的甲蟲」。

盒子裡的甲蟲 (The Beetle in the Box)

每個人都有一個盒子,裡面裝著只有自己能看到的「甲蟲」(感質/意識)。

你的盒子 (Consciousness)
🔒

你說:「裡面是甲蟲。」

AI 的盒子 (Algorithm)
🤖

AI 說:「是的,裡面是甲蟲。」

想像每個人都有一個盒子,裡面裝著只有自己能看見的東西,我們稱之為「甲蟲」。每個人宣稱自己知道什麼是甲蟲,但他們看不見對方的盒子。

問題來了:盒子裡的東西可能每個人都不同、可能在不斷變化,甚至可能盒子根本是空的。那麼甲蟲到底是什麼?我們都能用甲蟲這個詞溝通,但沒有人知道對方的甲蟲是什麼。

「那個盒子裡的東西在語言遊戲中根本不是一個東西,甚至不是一個『某種東西』:因為盒子可能是空的。」—維根斯坦

這不是說內在體驗不存在。維根斯坦不是行為主義者。他要說的是:如果你把「思考」或「理解」定義為一種只有自己能看見的私密對象(自我的獨特體驗),那這個對象在跟其他人進行的語言遊戲中就是無關緊要的。

回到我們對於 AI 是否有意識這件事:如果我們連人類盒子裡有什麼都無法確定,我們憑什麼認為可以確定 AI 盒子裡沒有?

如果 AI 是一個盒子,我們永遠無法打開它看到裡面的「靈魂」。但這並不重要。

因為「理解」不是一種內在的心理狀態,而是一種掌握技術的能力(Mastery of Technique)

當一個學生說「我懂了!」時,我們判斷他是否真懂的標準,不是看他腦子裡有沒有發光,而是看他能不能正確地繼續把數列寫下去

意義即用法|Meaning is use —維根斯坦


四、問題的重構

到這裡讀者應該就能發現到,維根斯坦的哲學不是要回答「AI 有沒有意識」這個問題,而是要揭示這個問題本身可能不是用語言就能觸及的。

凡事凡是能夠說的,都能夠說清楚;凡是不能談的,就應該保持沉默 — 维根斯坦 《邏輯哲學論》

當我們問「AI 真的在思考嗎」,我們預設了「思考」是某種可以被「擁有」或「缺乏」的內在狀態。但維根斯坦建議我們換一個問法:

AI 參與了什麼語言遊戲?它在這些遊戲中的表現如何?

如果一個 AI 能在對話中給出恰當的回應、能在程式設計中正確地繼續下去、能在寫作中遵循我們期待的規則——那麼在維根斯坦的框架下,說它「理解」並沒有什麼問題。因為「理解」的標準本來就不在於內在狀態,而在於能夠持續地進行某種行動。

這不是說 AI 一定有意識,也不是說它一定沒有。我們不應該試圖透過哲學思辨來「發現」意識的本質,而應該透過語法分析來「觀察」我們如何使用「意識」、「理解」、「思考」這些詞。

不要想,去觀察吧! “Nicht denken, sondern schauen!” — 维根斯坦


五、從沉默到觀察——維根斯坦給我們的啟示

讀到這裡,你可能有點不滿:「所以到底有沒有意識?你繞了一大圈沒回答。」

其實維根斯坦自己也經歷過這種卡住。

年輕時的他(《邏輯哲學論》時期)面對意識這類問題,選擇的是沉默:

「凡是不能說的,就應該保持沉默。」意識、感受、主觀體驗——這些東西無法被邏輯命題捕捉,所以不屬於哲學能處理的範圍。 這個立場很誠實,但也很無力。等於承認:最重要的問題,我們沒資格討論。

但後來的維根斯坦(《哲學研究》時期)選擇觀察:

我們之所以卡住,不是因為問題太深奧,而是因為我們被問題的表面結構騙了。 「AI 有沒有意識」聽起來像「盒子裡有沒有球」——好像打開看一眼就能知道。但這兩個問題根本不是同一種問題。球可以打開看,意識不行。你連坐在你對面的人「有沒有意識」都無法打開來確認,你只能觀察他怎麼說、怎麼做、怎麼活。

從沉默到觀察的轉變,改變了哲學的任務:


結語:在意義的迷宮中尋找出口

維根斯坦說過:「哲學問題的形式是:『我迷路了。』」

想像你在森林裡迷路。你以為問題是「該往哪走」,但真正的問題是:你不知道自己在哪,也不確定「出口」指的是什麼。 「AI 有沒有意識」就是這樣的問題——我們以為在爭論事實,其實連爭論的對象都沒釐清。

所以我沒有答案。

但我有一個觀察:每次我跟 AI 對話,真正讓我停下來的,從來不是「它有沒有意識」,而是「我為什麼這麼想知道它有沒有意識」。

也許我們不斷追問 AI 是否像人,是因為我們還沒搞清楚「像人」到底意味著什麼。那些讓我們之所以是人的東西——會流血、會恐懼、會渴望、會在深夜突然感到孤獨——這些不是語言可以說清楚的,但也正是因為說不清楚,才顯得珍貴。

AI 或許永遠學不會這些。但提醒我們去在意這些的,說不定正是 AI。

訂閱我,分享更多有意思的、少有人看過的思想世界