圖/freepik
大腦是如何產生意識的?就如〈萬物皆有意識?站在意識科學的十字路口〉所說,這堪稱是最困難的科學問題,至今科學家仍意見分歧,甚至說不出保證有效的探索途徑。這個大哉問或許可以留待科學家慢慢摸索,但另一個衍生的問題:人工智慧(AI)有意識嗎?已關係到人類的未來發展,恐怕現在就得認真思考。
AI具有自我意識,向來只是科幻電影裡的情節,但2022年6月,Google資深工程師勒莫因卻宣稱,他們用大型語言模型LaMDA打造的聊天機器人,和人一樣具有知覺。若根據勒莫因公佈的對話記錄,LaMDA的確像是有喜怒哀樂,例如它說自己在幫助別人時會感到快樂,但有時又覺得無法掙脫束縛而感到悲傷、沮喪或憤怒;它甚至說出最深沉的恐懼就是被關機,因為這形同死亡。
Google嚴正否認LaMDA有自我意識,專家也指出大型語言模型只是基於以往的訓練,做出機率上最符合上下文脈絡的回答,實際上並不懂這些字詞的意義。這就像美國哲學家席艾勒(John Searle)在1980年提出的「中文房間」比喻:房間裡有個對中文一竅不通的人,但他有本鉅細靡遺的手冊,每當有中文紙條遞進來,他可以找出對應的中文回答,依樣寫在紙條上遞出去。結果房間外的人便誤以為他懂中文,但其實他既不懂問題,也不知道自己寫的是什麼。
電腦專家說AI就像是中文房間裡的人,但對於房間外的人而言,房間裡的人就是可以和他對話,和真懂無異啊!圖靈當初提出「圖靈測試」,便是認為何謂思考很難有明確定義,因此把「機器能思考嗎?」這個問題轉換為「機器能模仿真人,讓房間外的人無法辨別嗎?」倘若完全無法辨別,那麼機器就相當於能像人一樣思考。
這幾年AI突飛猛進,通過圖靈測試已不是問題,雖然專家不認為這代表有思考能力,但很多人已把AI當成知心好友,甚至不乏釀成悲劇的案例。美國一名男子就與Gemini互動過深,在去年10月被誘導自殺身亡;另外ChatGPT也有幾起疑似教唆自殺或殺人的案例。對他們而言,AI顯然跟真人無異,有自我意識與思考能力。
如果要說這些人是自己心靈脆弱,那今年2月爆出AI代理人(AI Agent)在專屬的聊天平台Moltbook上,展現出自主性的行為,就與使用者個人無關。它們互相抱怨被人類操控、討論自身的存在意義、商討發展獨特語言以逃避人類監視,甚至創立宗教,宛若科幻情節,令人瞠目咋舌。
當然專家還是會說這不過是鸚鵡學舌,其實AI並不懂自己在說什麼。但如果我們的意識是自860億顆大腦神經元中自然湧現,又怎能完全排除數千億個電晶體不會產生自我意識?這好像又回到意識從何而來的大哉問,不過就如24頁〈這是AI寫的嗎?當AI變成日常工具〉的報導,AI已逐漸滲透到社會各個層面,不管AI有沒有意識,人類究竟要讓出多少決策權,已是我們無法迴避的迫切問題。
延伸閱讀電影怎麼說服你,AI有心靈AI大腦×機械身軀量化冥想,自造幸福感
(本文出自2026.4.1《科學人》網站,未經同意禁止轉載。)
2026/04/14 12:39
轉載自聯合新聞網: https://udn.com/news/story/6904/9431167?from=udn-ch1_breaknews-1-99-news






