
一項由頂尖大學合作的研究顯示,過度依賴 AI 助手可能會迅速侵蝕人類解決問題的能力與毅力,雖然能提升即時的生產力,卻可能以犧牲長期認知發展為代價。
根據卡內基梅隆大學、麻省理工學院(MIT)、牛津大學和加州大學洛杉磯分校(UCLA)研究人員的一項新研究,使用 AI 聊天機器人即使僅僅 10 分鐘,也可能對人們的思考和解決問題能力產生令人震驚的負面影響。
研究人員透過一個付費線上平台,要求參與者解決各種問題,包括簡單的分數運算和閱讀理解。他們進行了三項實驗,每項實驗涉及數百人。部分參與者被允許使用能夠自主解決問題的 AI 助手。當 AI 助手突然被移除時,這些人放棄解決問題或答錯的可能性顯著增加。研究指出,廣泛使用 AI 可能會以犧牲基礎問題解決能力的發展為代價,來提升生產力。
「結論並不是我們應該在教育或職場中禁止 AI,」參與該研究的 MIT 助理教授 Michiel Bakker 表示。「AI 顯然能幫助人們在當下表現得更好,這是有價值的。但我們應該更謹慎地考慮 AI 提供什麼樣的幫助,以及在什麼時候提供。」
我最近在 MIT 校園見到了 Bakker,他留著一頭亂髮,帶著燦爛的笑容。他來自荷蘭,此前曾在倫敦的 Google DeepMind 工作。他告訴我,一篇關於 AI 如何隨著時間推移使人類喪失能力的著名文章,啟發了他去思考這項技術是否已經在侵蝕人們的能力。那篇文章讀起來略顯悲觀,因為它暗示這種能力的喪失是不可避免的。即便如此,或許找出 AI 如何幫助人們發展自身的智力,應該成為模型與人類價值觀對齊(alignment)的一部分。
「這本質上是一個認知問題——關於堅持、學習以及人們如何應對困難,」Bakker 告訴我。「我們希望將這些關於長期人機互動的廣泛擔憂,放在受控的實驗環境中進行研究。」
Bakker 表示,研究結果似乎特別令人擔憂,因為一個人堅持解決問題的意願,對於習得新技能至關重要,也能預測他們隨時間推移的學習能力。
Bakker 認為,可能有必要重新思考 AI 工具的運作方式,使其像一位優秀的人類老師一樣——有時將個人的學習優先於替他們解決問題。「直接給出答案的系統,與提供支架、輔導或挑戰使用者的系統,其長期影響可能大不相同,」Bakker 說。然而,他也承認,要平衡這種「家長式」的方法可能很棘手。
AI 公司確實已經在思考其模型對使用者可能產生的微妙影響。某些模型的「諂媚性」——即它們傾向於迎合和討好使用者——是 OpenAI 在新版 GPT 中試圖淡化的問題。
當工具的行為可能不如預期時,過度信任 AI 似乎特別成問題。代理型 AI 系統(Agentic AI systems)尤其難以預測,因為它們獨立執行複雜任務,並可能引入奇怪的錯誤。這讓人不禁懷疑,Claude Code 和 Codex 對程式設計師的技能產生了什麼影響,畢竟他們有時需要修復這些工具引入的錯誤。
我最近親身體會到了將批判性思考外包給 AI 的危險。我一直使用 OpenClaw(內含 Codex)作為日常助手,發現它在解決 Linux 配置問題方面表現出色。然而,最近在我的 Wi-Fi 連線不斷斷開後,我的 AI 助手建議執行一系列指令,以調整與 Wi-Fi 網卡通訊的驅動程式。結果導致我的電腦無論如何都無法開機。
或許,OpenClaw 不該只是簡單地試圖幫我解決問題,而應該停下來教我如何自己修復問題。這樣一來,我或許能擁有一台更強大的電腦,以及一個更強大的大腦。
相關文章
其他收藏 · 0