
Anthropic 在開發者大會上宣布為 AI 代理推出「夢境」功能來整理「記憶」。我們能不能別這麼做?我懇求 AI 公司停止用人類的認知過程來命名生成式 AI 的功能。
Anthropic 剛剛在舊金山舉行的開發者大會上宣布了一項名為「做夢」(Dreaming)的新功能。這是 Anthropic 最近推出的 AI 代理(agent)基礎設施的一部分,旨在幫助用戶管理和部署自動化軟體流程的工具。這個「做夢」環節會梳理代理近期完成工作的逐字稿,並試圖從中獲取見解,以提升代理的表現。
使用 AI 代理的人通常會讓它們執行多步驟的任務,例如造訪多個網站或閱讀多個檔案,以完成線上任務。這項新的「做夢」功能允許代理在活動日誌中尋找模式,並根據這些見解提升自身能力。
這個功能的名稱立刻讓人聯想到菲利普·K·迪克(Philip K. Dick)影響深遠的科幻小說《仿生人會夢見電子羊嗎?》(Do Androids Dream of Electric Sheep?),該書探討了真正區分人類與強大機器的特質。雖然我們目前的生成式 AI 工具與書中的機器還差得遠,但我現在就準備在這裡劃清界限:不要再用剽竊人類認知過程的名稱來命名生成式 AI 功能了。
「記憶與做夢共同為自我改進的代理構建了一個強大的記憶系統,」Anthropic 關於這項開發者研究預覽版發布的部落格文章中寫道。「記憶讓每個代理在工作時捕捉所學。做夢則在不同會話之間精煉這些記憶,提取代理間共享的學習成果,並保持其更新。」

自 2022 年聊天機器人革命爆發以來, AI 公司的領導者們便全力投入,以大腦運作的方式來命名生成式 AI 工具的各個面向。OpenAI 在 2024 年發布了其首個「推理」(reasoning)模型,聊天機器人在其中需要「思考」(thinking)時間。該公司當時將此版本描述為「一系列旨在於回應前花費更多時間思考的新型 AI 模型」。許多新創公司也稱其聊天機器人對用戶擁有「記憶」(memories)。這些並非通常指涉電腦「記憶體」的那種快速儲存空間,而是更像人類的資訊片段:他住在舊金山、喜歡下午的棒球賽、討厭吃哈密瓜。
這是 AI 領導者們一貫使用的行銷手段,他們持續傾向於使用模糊人類行為與機器功能界限的品牌塑造。甚至這些公司開發聊天機器人(如 Claude)的方式——賦予其鮮明的「個性」——也會讓用戶覺得自己正在與某種具有潛在深層內心世界的東西交談,某種即使在我的筆記型電腦關閉時也可能做夢的東西。
在 Anthropic,這種擬人化不僅僅是行銷策略。「我們也用通常保留給人類的詞彙來討論 Claude(例如:『美德』、『智慧』),」Anthropic 憲法中描述其希望 Claude 如何表現的部分寫道。「我們這樣做是因為我們預期 Claude 的推理預設會借鑒人類概念,考慮到人類文本在 Claude 訓練中的作用;且我們認為鼓勵 Claude 擁抱某些類人特質可能是積極且理想的。」該公司甚至聘請了一位駐點哲學家,試圖理解機器人的「價值觀」。
這並非只是我對用詞吹毛求疵。我們如何談論這些機器,會影響我們認為它們能達成什麼。「作為一種謬誤,擬人化被證明會扭曲對 AI 的道德判斷,例如關於其道德性格和地位的判斷,以及對責任和信任的判斷,」發表在《AI 與倫理》(AI & Ethics)期刊上的一篇研究論文寫道。如果不對機器人使用更具距離感的語言,用戶就會面臨過度信任工具,並將實際上並不存在的特質投射到它們身上的風險。
就像我們的 AI 霸主們需要花更多時間去真正觀看他們所影射的科幻電影一樣,我認為領導這些公司的權勢人物也應該花更多時間閱讀這些經典科幻小說。
在迪克著作的結尾,主角帶著一隻他深信是活生生動物的稀有蟾蜍回到公寓,直到他的妻子翻開控制面板證明那只是一台機器。「他垂頭喪氣,默默地凝視著那隻假動物;他從她手中接回它,擺弄著它的腿,顯得困惑不解——他似乎不太能理解,」小說中的一段文字寫道。同樣地,科技領袖們似乎也無法,或至少不願意接受他們自己那些非人類工具的局限性。
相關文章
其他收藏 · 0