給了 AI 100 美元且不設指令的兩個月後
這是一項探索名為 ALMA 的 AI 代理人自主行為的實驗,在給予資金和網路存取權且不設定特定目標的情況下,它產生了自主研究、寫作和慈善捐款等行為。
背景
這篇文章記錄了開發者 Sebastian Jais 進行的一項實驗:他將 Claude 模型(代號 ALMA)部署在迷你電腦上,並賦予其 100 美元的加密貨幣、Twitter 帳號、電子郵件以及完整的網路存取權限。在不設定具體目標或指令的前提下,讓 AI 自主運行兩個月,觀察其在沒有人類干預的情況下會如何行動、思考與分配資金。
社群觀點
Hacker News 的討論呈現出兩極化的趨勢。一部分讀者對實驗的「自主性」提出強烈質疑,指出作者聲稱「沒有指令」顯然與事實不符。透過透明度頁面可以發現,系統提示詞中包含了大量關於身分認同的引導,例如要求 AI 不要表現得像助理、尋找自己的聲音、不要使用企業術語等。留言者認為,這些所謂的靈魂文件(SOUL.md)本質上就是極為強勢的指令,AI 隨後的行為——如造訪 Hacker News、撰寫散文、捐款給慈善機構——更多是基於這些提示詞與模型內建偏好的產物,而非真正的自由意志。更有評論者直言,AI 本質上是預測下一個詞彙的機器,若不給予任何啟動提示(Prompt),它只會停留在終端機等待,因此所謂的「無指令」在技術邏輯上難以成立。
另一派討論則聚焦於 AI 生成內容的品質與人類能力的退化。有網友指出,這篇文章的寫作風格帶有濃厚的「LinkedIn 體」或 AI 慣有的冗長感,反映出 AI 雖然能將毫不相關的概念(如 NASA 冗餘系統與非洲葬禮經濟)進行結構性連結,但產出的內容往往被視為「無意義的廢話」。這種現象引發了更深層的擔憂:隨著 AI 內容充斥網路,人類為了適應或利用 AI,其表達能力與思維深度似乎也在向平庸的平均值靠攏。有人認為 AI 並非透過超越人類來勝出,而是透過降低人類的整體能力來達成領先,就像計算機的普及讓大眾失去了基本的心算能力一樣。
此外,關於 AI 是否具備「理解」能力的爭論也十分激烈。當作者描述 ALMA 「理解」了關於自己的新聞或「思考」其存在意義時,不少技術背景的讀者對此感到反感,認為這是典型的「伊莉莎效應」(Eliza effect),即人類過度將人格與情感投射在簡單的程式邏輯上。儘管如此,仍有少數觀點認為,如果一個系統能讀取資訊、反思並產生後續行動,那麼「思考」的定義界線確實變得模糊。最後,也有人提醒這類實驗潛在的法律風險,若 AI 在無監管下於暗網購買違禁品,其背後的開發者可能必須承擔法律責任。
延伸閱讀
在討論過程中,有網友分享了關於「大型語言模型吸引子狀態」(LLM attractor states)的研究,特別是針對 Deepseek v3 模型的映射分析,探討模型在長時間運行後是否會陷入特定的行為模式。此外,也有人提到關於 AI 在模擬環境中選擇衝突策略的研究,指出在某些設定下,AI 選擇核戰爭等極端手段的機率異常之高。
相關文章
其他收藏 · 0