ChatGPT 能夠逼真地模仿人類說話,甚至懂得口甜舌滑,這是否意味著 AI 擁有真實情感?具備意識的 AI 是科幻故事常有設定,被視為人類夢魘,但原來現實中 AI 能否獲取意識,在學術上尚未有定案,究竟專家有何看法?又是否有客觀辦法驗證 AI 是否存在意識?
幾乎人人都能夠想像,AI 取得自我意識有多恐怖,但甚麼是意識就不是容易回答的問題,卻又藏在我們每個人的內在經驗之中。自出娘胎以來,我們便擁有身而為「我」的自我存在感,擁有自我認知能力,亦能夠運用五官感知世界,對生離死別有強烈感受,這全都屬於意識經驗的範疇。
1968 年經典電影「2001 太空漫遊」(2001: A Space Odyssey)便構想出全能 AI 電腦 HAL 9000,雖然沒有機械人形貌,但會懇求太空人不要關掉電腦,想極力避免「死亡」,令觀眾意識到 HAL 對外界有強烈的主觀感受,是擁有明確自我意識的機器。
前 Google 工程師 Blake Lemoine 去年曾經警告,類似「惡夢」已經成真。他聲稱 Google 研發中的 AI 聊天機械人 LaMDA,懂得說「我知道我的存在」和「我其實是一個人」,證明其存在意識。事後 Google 否認其事,眾多專家都指證工程師被騙,能夠逼真模仿人類說話,不代表擁有感知能力。但如果 AI 的話不能盡信,我們又該如何判斷 AI 是否有意識?
尋找意識的物質基礎
紐約大學 AI 研究員兼副教授 Sam Bowman 向科普雜誌 Discover 解釋,目前人類研發的 AI 各擅勝場,只會處理特定問題,如只會下國際象棋,有部分先進 AI 建基於人工神經網絡,以鬆散方式模仿人腦運作。至於科幻故事中,足以應付所有人類任務的全能型 AI,統稱「通用人工智能」(AGI),依然很難實現。
無論是 OpenAI 研發的 ChatGPT,抑或 LaMDA 系統建立的 Google 聊天機械人 Bard,同樣都是建基於人工神經網絡的大型語言模型,充其量只是較先進的 AI 系統,還未到 AGI 水平。牛津大學人類未來研究所研究員 Robert Long 認為,這類 AI 可模仿人類說出不同感受,但幾乎不可能取得感知能力。
AI 能否取得意識,各領域專家都莫衷一是,部分癥結在於意識科學仍然處於起步階段。神經科學家既未能破解當中的大腦原理,哲學家亦未能完全解釋其本質。有論者堅持,意識純屬主觀經驗,不能從外部測量;另一派論者卻認為,通過特定行為及能力,可測量個體是否擁有自我意識。
AI 能否發明形而上概念?
美國哲學家 Susan Schneider 與普林斯頓大學天體物理學家 Edwin L. Turner,既認同意識是主觀經驗,但仍相信有方法從外部測量意識活動,於是在 2017 年合作提出「AI 意識測試」(AI Consciousness Test,ACT)。
他們認為,死後生命、靈魂出竅、靈魂轉換肉身等說法,是擁有意識經驗才發展而成的形而上概念。假如 AI 能夠在排除意識相關認知下,發明出超越物理存在的形而上概念,便可能證明其存在意識經驗。測驗由不同難度的問題組成,猶如對 AI 進行精神分析,從答案探究背後有否神秘的意識活動。但測試面對不少質疑,亦未曾得到 AI 研究領域的採用。
縱然尚未有任何測量 AI 意識的公認方法,但可以放心的是,學術界仍普遍認為,目前 AI 取得意識的機會微乎其微。威斯康辛大學麥迪遜分校(UW-Madison)神經科學家 Giulio Tononi,為意識科學界的權威,在嘗試尋找人類意識的物質基礎時,追溯到大腦基本的神經迴路。他認為按照目前的研究成果,當代的電腦技術是絕不可能發展出意識,不是說人工感知能力毫無可能,但他斷言這只能建基於遙遠未來的電腦技術之上。
原文出處 CUP