DeepMind科學家暴論:AI永遠不會產生意識,100年後也不行


半夜跟AI聊到凌晨三點,它突然說“我理解你的感受,你並不孤單”。你盯著螢幕愣了兩秒,心跳漏了一拍——它是不是真的懂我?是不是已經有了意識?
然後DeepMind的科學家就遞來了一盆冷水:“醒醒,它連‘濕’是什麼都不知道,你感動個什麼勁?”
算力換不來意識
發表這篇論文的是DeepMind研究員Alexander Lerchner,論文名字叫《抽象謬誤》。核心觀點就一個:大模型永遠不可能有意識,100年後也不行。
主流觀點一直認為,只要參數夠大、算力夠強,意識就會“湧現”出來。OpenAI和Anthropic的老闆們都表達過類似看法。但Lerchner說這是一種根本性錯覺,他稱之為“抽象謬誤”。
用他的原話:指望一行行程式碼能產生真正的內在意識,就像指望寫在紙上的“萬有引力公式”能憑空產生重量。公式可以完美描述重力,但它本身沒有質量。
模擬與實例化,是兩碼事
論文裡最關鍵的一個區分是:模擬 vs 實例化。
AI可以完美“模擬”人類的喜怒哀樂——它能生成悲傷的文本,能在對話裡表現出共情。但它永遠無法“實例化”任何生命體驗。你讓它模擬降雨,無論多逼真,也不會弄濕電路板;讓它模擬光合作用,永遠無法合成一分子葡萄糖。
Lerchner還指出,計算本身就需要一個有意識的主體來“字母表化”——把連續物理現象強行切成0和1。換句話說,計算預設了意識的存在,而不是相反。
不過有意思的是,DeepMind內部也在打架
就在這篇論文發布的同一週,DeepMind新聘請了一位“哲學家”——劍橋大學的Henry Shevlin。他上任後的第一個表態是:未來AI系統將會具備意識。
一個說永遠不會,一個說未來會有。同一個公司,兩套說法。復旦大學哲學學院副教授王球的解讀很實在:有沒有意識,並非專家說了算。$BNB
{spot}(BNBUSDT)
BNB-0.77%
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言