-->
AI會有意識嗎?
曾瑞明博士(香港中文大學哲學系前兼任講師、香港大學哲學系博士)
提要:
本文旨在討論AI是否有意識的問題。作者先區分弱AI(為特定目的而設的能力)和強AI(有學習、處理問題的一般能力)兩種,並指出前者已出現,而後者有爭議性。他接著說,意識是能夠感知並思考自身存在、感受、思想以及環境的狀態或品質的主觀經驗;功能主義者認為一個具有足夠先進功能的AI可以達到意識狀態,但反對者質疑功能難以解釋主觀經驗。
正文:
AI有意識(consciousness)嗎?若你直接問人工智能,他們可是不會作回應的,他們會說這是哲學問題,想起早二、三十年我們讀心靈哲學時還把這問題當作純粹的「理論」問題,但現在已經是一個迫在眉睫的實際問題了。當然,我們也可以看到哲學問題其實跟現實世界一直相關的。
若要回答這問題,看來我們先要分辨AI的種類,然後界定意識是什麼。但這不代表問題可以直接、簡單解決。
AI可分為弱AI和強AI,前者是為了某特定目的而設,比如下棋或者人面辨識。而後則是一般性的,有學習能力,可處理各類問題。理論上,他/她能理解問題,有自己的意識。前者已出現,問題是後者可能嗎?
強AI的支持者認為,理論上此類系統可以擁有真正的理解,有自我意識和意向性(即「關於」事物進行思考的能力)。這意味著人工智慧可以像人類一樣思考、理解並對世界進行推理。
然而,意識是什麼?人類又是怎樣思考的?只有人類的思考才算思考嗎?
我們說意識,其實是指一種能夠感知並思考自身存在、感受、思想以及環境的狀態或品質。我意識到這朵花很美,是指我能有這朵花很美的主觀經驗,我有當中的質感(qualia)。痛就是一個最佳例子,我只能痛我的痛。
我們質疑強AI能否出現,其實就是質疑一個純粹通過程式或演算法驅動的系統,是否真的能擁有主觀經驗,即真正的意識。強人工智慧的支持者認為,隨著運算能力和演算法的複雜性不斷增強,AI可能會模擬出類似人類的認知和感知模式。然而,反對者指出,即使AI系統能夠模仿人類的思考過程,這不代表它具有真正的「內在體驗」或主觀感受。問題就變成了我們人類的思考模式有什麼獨特之處。
不是所有人都認為人的思考有什麼特別,或者一定要有人的形態才有思考或者意識。物理主義或者功能主義會認為意識可以從足夠複雜的計算功能中「出現」,因此在理論上,AI也可以達到「擁有主觀經驗」的狀態。功能主義理論由丹尼爾·丹尼特(Daniel
Dennet)等認為意識是由功能性過程產生的,不一定需要生物材料。根據此觀點,一個具有足夠先進功能的人工智慧理論上可以達到意識狀態。
然而,哲學家戴維•查莫斯(David Chalmers)提出質問,為什麼主觀體驗會從大腦中的物理過程中產生?雖然神經科學可以解釋某些功能(如感知和對刺激的反應),但它很難解釋內在的、質性的意識層面。為什麼大腦活動會感覺「像什麼東西」,而不是僅僅作為一個機械性的過程?假設意識是由物理過程產生的,那麼它為何帶有獨特的主觀經驗?
這必然要追溯至笛卡兒的心物二元論(mind body
dualism)。笛卡兒認為心靈或意識是非物質的,獨立於身體和大腦之外的存在。心靈跟身體的性質是不同的。然而,物理主義則認為意識是純粹由物理過程產生的,一切關於意識的問題理論上可以通過理解大腦活動來解釋。問題在於我們如何能在科學和物質世界的框架,可合理地解釋意識如此「獨特的東西」呢?
假設意識是非物質的,那它如何與物質世界互動? 如果意識是非物質的,那麼它如何影響物理世界?這個問題被稱為「交互作用問題」。笛卡爾的心靈二元論認為,意識與物質是獨立的兩種實體,心靈是一種非物質的存在。然而,這導致了一個難解的問題:既然非物質不應該影響物質,那麼我們的意識如何引起身體的動作,或者我們的選擇如何導致物理行為的改變?
但是,如果我們假設意識是由大腦中的物理過程產生的,那麼為什麼意識帶有如此強烈而獨特的主觀感受?這個問題被稱為「意識的質感問題」,提出者戴維·查默斯稱之為「困難問題」。雖然科學可以解釋大腦中的神經活動如何引發行為反應,但很難解釋為什麼這些活動會產生內在感受,例如看到紅色的鮮豔或品嘗到苦味的感覺。
在功能與經驗之間,我們可以說缺失了一種難以捉摸的「主觀性」,即內在的感知或「質感」(qualia)。純粹的功能性描述,無論多麼精確,都只能告訴我們一個系統如何運作,卻無法解釋這個系統是否擁有真正的主觀經驗。因此,哲學家常說在功能與經驗之間存在著一個解釋鴻溝(explanatory
gap)。
然而,我們若不一口咬定AI沒有意識,我們最終還是要判定AI有沒有這種主觀性,來判斷他/她有沒有意識。但主觀經驗卻是私人的,無法直接觀察。哲學家稱之為「他心問題」(The
Problem of other Mind):即我們如何知道其他存在,不只AI,還包括其他人類是否擁有真正的內在意識。
然而,我們一旦用「客觀方法」,都是試圖將解釋鴻溝忽略。比如圖靈測試(Turing
Test)的行為主義測試,就會要求AI在交流中讓人類無法區分其身份,但這測試僅能證明AI在行為上與人類相似,並不能證明它具備內在的意識或主觀經驗。即使AI可以表現出擁有情感和明白理解,但這並不意味著它「真的」有感覺。
在這種情況下,我們或會接受不可知論。意識的性質被視為一種不可知的現象。我們可能無法獲得足夠的信息來確定其他存在是否具有意識,也即是說,我們再問AI是否有意識意義不大,重點只是他/她能做什麼,他/她是否可靠有用。我們可能更關心的是AI的表現、可靠性和對人類的實際價值,而不是試圖揭開其是否具有主觀經驗的謎團。
同時,即使AI不具備主觀經驗,他/她是否仍需要對其行為負責?人們或會說責任主要在於設計者和使用者。不過,我們也會追問,其實人(每一個人)是否有主觀經驗也存在不確定性(因為人也有「他心問題」),但我們卻因人類擁有推理、思考和自我反省的能力,就得個體要承擔相應的責任。隨著技術的進步,社會、法律和倫理標準可能會隨之調整。如果AI在某些方面的智能與人類相似,如法律和倫理框架可能會需要重新考慮對AI的責任分配。與此同時,我們是否也要AI負更多責任,還是要人類減一些責任呢?這都是我們由AI是否有意識引發可以思考的問題。
—全文完—
前往現代人文文庫:
http://www.hksh.site/modernhumanities.html
※請前往人文臉書讚好、分享或評論:
https://www.facebook.com/modernhumanities