精選文章
- 取得連結
- X
- 以電子郵件傳送
- 其他應用程式
讚美閒散 In Praise of Idleness
底下這篇, 是我用 AI 讀書團隊 - 網誌 ,
「現代人認為凡事都應該為了某個目的而做,而從不為其本身而做。」 — Bertrand Russell,《讚美閒散》,1932
九十四年前,Russell 寫下這篇文章,預言了一個幾乎沒有人相信的未來:機器的進步,終將讓人類每天只需工作 四小時,其餘的時間歸還給生命本身。他說,這個可能性之所以令人不安,不是因為它在技 術上不可行,而是因為「工作的神聖性」這個信仰,已經深入現代文明的骨髓——我們不知道如何面對不必工作的自己 。
現在,九十四年後,他預言的技術時刻,可能真的正在降臨。
但我們的第一個反應,不是喜悅,而是恐懼。不是「太好了,我可以陪孩子」,而是「我會不會被取代」。
Russell 如果看到這一幕,大概會覺得這正是他文章的主旨所在。
一、AI 進步的真實形狀
在討論人應該怎麼辦之前,我們必須先誠實地看清楚:AI 的進步,到底是什麼形狀的。
最常見的兩種說法,都是錯的。
「AI 是指數增長,一年後將超越人類」——這是過度外推。
「AI 已經撞牆,ChatGPT 不過是個聊天機器人」——這是選擇性近視。
真相更細緻。AI 的進步是階梯函數(Step Function),不是平滑的指數曲線。
┌─────── 推理時 Scaling(2024-?)
┌──────────┘
┌──────────┘ GPT-4 / RLHF 時代(2022-2024)
────┘ 早期 LLM(~2020-2022)
每個台階代表一條新的 Scaling 軸線——模型規模、訓練數據量、推理算力——從崛起到飽和的完整週期。台階與台階之間的跳升,看起來像奇蹟;在台階上的平坦期,看起來像撞牆。
這個模型解釋了一個長年的論戰:懷疑者每次都能找到「AI 撞牆」的證據(他們看到的是台階的平坦期);信奉者每次都能說「你看,又跳了」(他們 看到的是台階的跳升)。他們說的都是真的,只是在描述同一個現象的不同時段。
METR 的數據給了這個框架一個量化錨點:AI 可以獨立完成的任務長度,每七個月翻倍一次 。2019 年,AI 只能完成一分鐘以內的任務;2025 年,Claude 3.7 Sonnet 已能以 50% 的可靠度完成需要人類一小時的任務 。如果這個趨勢延續,2027-2028 年,AI 代理人將能獨立處理需要人類數天到數週的工作。
但這裡有一個至關重要的但書:
下一個台階是否存在、多高、多快——這是目前 AI 業界沒有人真正知道的答案。
當前的「推理時 Scaling」軸線,已在某些基準測試上出現飽和的跡象。下一條軸線是什麼——世界模型、更長的上下文、具身智能——業界有猜測,有押注,但沒有確定性。OpenAI 和 Anthropic 的研究者在同一個問題上,給出截然不同的時間表。
這個不確定性本身,是任何關於 AI 影響的誠實討論的起點,而不是可以被跳過的腳注。
二、長尾的防線,與正在消失的梯子
面對這個移動中的前線,大多數人的第一個直覺是:找到 AI 做不好的地方,躲進去。
這個策略有它的邏輯。法律判斷、醫療診斷、創意發想、人際信任——這些「長尾任務」確實是 AI 目前最難攻克的領域。GPT-5 在 ARC-AGI-2 的成績只有 8% ;有研究者說,真正的長尾問題,AI 可能需要十年才能可靠完成?
但這裡有一個精細的結構,值得仔細拆解。
長尾問題有三個性質不同的層次:
第一層是「情境複雜但有客觀答案」的任務——比如複雜合約的風險識別。AI 正在快速攻克這一層,1-3 年內可能大幅自動化。第二層是「需要主觀判斷的高風險任務」——比如法庭策略、醫療倫理 判斷。AI 的部分表現已達 60%,但這個比例不夠用,人類監督仍然必要。第三層是「需要制度性責任的任務」——必須有一個真實的人簽名、出庭、負法律責任。即使 AI 的能力到達,制度性障礙仍然存在。
這個分層告訴我們:作者說的「一到五年顛覆一切」,主要描述的是第一層長尾的消失。從能力到真實的職涯衝擊,還隔著一條「部署長尾」——法規、保險、職業責任架構、客戶 信任——這條鴻溝,歷史上遠比技術進步收窄得慢。
然而,正當人們試圖用長尾保護自己的工作時,另一個問題正在悄悄發生:通往長尾的梯子,正在被抽掉。
初階職位——律師助理、初級分析師、程式實習生——是人類幾百年職業養成的核心機制:以低薪換訓練,在具體的重複案例中磨練直覺,然後晉升到需要判斷力的高階工作。
但現在的數字令人憂慮:美國初階職位自 2023 年 1 月以來下跌 35% ;英國科技業應屆生職位從 2023 到 2024 減少 46% ;66% 的企業正在縮減初階聘雇的同時採用 AI 。
研究者把這個現象稱為「學徒層的喪失(Loss of Apprenticeship Layer)」——
「AI 正在自動化那些例行的、無聊的、重複的,但對於累積技能至關重要的工作。」
沒有做過一百份標準合約,你能成為看得出複雜合約陷阱的資深律師嗎?沒有寫過一千行基礎程式,你能設計出可靠的系統架構嗎?這個問題,目前沒有人知道答案——因為這個世代的職涯才剛開始,我們在 2031 年才會有第一批可以比較的數據。
人們試圖用長尾保住自己,卻發現走向長尾的梯子正在消失。這是這一輪 AI 衝擊中,最被忽視、也最深遠的社會問題之一。
三、效率紅利,歸誰?
Russell 在 1932 年有一個著名的工廠思想實驗:一家別針工廠,引入了新機器,生產效率翻倍。理性的做法 是讓所有工人改為工作四小時,薪水不變,多出的四小時歸還給生命。
但實際發生的是什麼?工廠繼續讓一半工人工作八小時,然後解雇另一半 。
Russell 說:「還有什麼比這更荒謬的嗎?」
九十四年後,我們正在目睹這個荒謬的精準重演——只是規模更大,速度更快。
歷史給了我們三次技術革命的對照組:
工業革命時,蒸汽機讓生產效率大幅提升。工作週從 60 小時降到 40 小時了嗎?沒有,是先更長,然後花了將近一個世紀的工會鬥爭、罷工流血,才從立法層面 強制壓縮。
資訊革命時,電腦讓辦公效率倍增。白領工作時間減少了嗎?沒有——「白領過勞」這個詞,恰恰是在個人電腦普及後才誕生的,因為效率提升被轉化成了更高的工作期望值。
現在,AI 革命。最新的數據指向同一個方向:UC Berkeley Haas 的研究(2026 年 2 月)發現,AI 並沒有解放工人的時間——它強化了工作 。CEPR 跨年度研究發現,AI 曝露程度高的職業,工作週平均多了 2.2 小時 。Harvard Business Review 的標題在 2026 年 2 月直接寫道:「AI Doesn’t Reduce Work—It Intensifies It」 。
聖路易斯聯邦準備銀行的數據顯示,AI 工具平均幫助使用者節省了每週工時的 5.4%——約 2.2 小時。CEPR 同時顯示,同樣的職業族群,工作週增加了 2.2 小時。效率紅利,被精準地吸收回去了 。
這不是巧合,而是資本配置的結構邏輯——稱之為人力版的傑文斯悖論(Jevons Paradox):生產效率提升,邊際成本下降,於是需求增加,總消耗反而上升。當 你用 AI 讓一個分析師的效率提升 40%,公司的反應不是「讓他早點回家陪孩子」,而是「那他可以多承接 40% 的案子」。
--
效率紅利的三個歷史去向:
第一個去向,也是最自然的去向,是資本——更高的利潤、更低的人力 成本、更多的股東回報。這是目前 AI 最主要的效益流向。
第二個去向,需要時間和鬥爭,是消費者——競爭壓力把效率轉化成更 低的價格,讓廣大消費者受益。這在 AI 領域已在部分發生($20/月的工具等同於過去無法負擔的資源)。
第三個去向,需要制度設計,是工人本身——以更短的工作時間、更高 的薪資、或更多的自主性呈現。這在歷史上從不「自動」到來,永遠需要明確的政策介入、 勞動協議的重構、或強大的集體談判。
Russell 在 1932 年看清楚的事,今天依然成立:技術讓閒散成為可能,但不讓它成為現實。讓它成為現實, 需要的是政治意志,不是技術進步。
四、個人適應的邊界
在這個框架下,重新看那些對個人的建議:學 AI、用 AI、每天一小時、把 AI 推進你最困難的工作——
這些建議是正確的。在個人的層次,它們是目前能給的最誠實的策略。先行者的優勢是真實的,窗口期也確實存在。
但它們有一個被預設但從未言明的框架:個人適應是問題的主要解答。
這個框架在短期內有效;在中長期,它是不夠的。
因為 AI 帶來的問題中,有一大部分是個人無法用自身適應解決的:
初階梯子的消失,是一個世代性的結構問題,不能靠個人「更努力學 AI」來解決——它需要教育系統的重新設計,需要企業在「AI 輔助訓練」上的投資,需要政策對過渡期最脆弱者的保護。
效率紅利的分配,是一個政治經濟問題,不能靠個人「更有效率地工作」來解決——它需要勞動法規的更新,需要集體談判的復興,需要對「什麼算是 AI 帶來的生產力增益、如何分配」有明確的制度性答案。
Alignment Faking 的技術風險,是一個全人類的治理問題,不能靠個人「更小心地使用 AI」來解決——它需要跨越單一公司利益的獨立評估機構,需要安全研究的資金投入,需要在 「AI 能力提升速度」和「安全評估框架建立速度」之間維持不被破壞的平衡。
「每天一小時學 AI」是在教你游泳。但你需要同時知道:光會游泳不夠,還需要有人去修築堤壩。這兩件事 可以同時進行,也必須同時進行。
五、一小時,還給誰?
最後,回到那個最個人的問題。
有人問:那每天一小時學 AI,還是用來陪家人?
這個問題的張力,來自它揭示了一個作者文章的隱性前提:工作競爭力,是生命的首要目標。
這個前提,是一個選擇,不是自然規律。
Russell 說得更直接:他看見的問題不是技術,而是我們對「工作的神聖性」的迷信——「現代人認為 一切都應該為了某個目的而做,而從不為其本身而做」。
AI,如果被正確使用和正確分配,可能是歷史上第一次真正讓 Russell 的四小時工作日變成可能的技術。但「可能」和「會發生」之間,隔著那條從未自動穿越的 距離。
目前的初步數據告訴我們:AI 省下的那 2.2 小時,正在被工作要求多出的 2.2 小時吸收回去。那一小時,沒有歸你。
但這不是技術的命運,而是制度選擇的結果。
每一次工業革命後,「效率歸誰」的問題最終都通過某種形式的集體行動得到了(不完美的)回答。蒸汽機時代用了一個世紀;電腦時代用了幾十年。AI 時代的回答速度,可能需要更快——因為這一次,技術的速度本身在加快。
所以,這個問題的完整答案是:
學 AI——因為這是你能為自己做的最直接的事。
同時追問效率紅利的去向——因為這是你和所有人共同需要解決的事。
然後問自己那個更根本的問題:在一個 AI 可以做越來越多工作的世界裡,你省下來的時間,你希望用來做什麼?
不是「市場要求你用來做什麼」,而是你希望用來做什麼。
Russell 在 1932 年問過一個問題,一百年後仍然沒有被認真回答:
「沒有相當數量的閒暇,一個人將與許多最美好的事物隔絕。如今再也沒有理由讓大多數人繼續受此剝奪——只有一種愚蠢的、通常是替人代言的禁慾主義,讓我們在需要已不 再存在的今天,繼續堅持過量的工作。」
那個「需要已不再存在」的時刻,可能真的快到了。
問題不在於 AI 來不來。問題在於,當它真的來的時候,那多出來的時間,我們讓誰來決定它的去向。
這個問題,等不到 AI 幫我們回答。

留言
張貼留言