Redox OS 採納來源證明政策並嚴格禁止使用大型語言模型
Redox OS 已實施來源證明政策並嚴格禁止 LLM 生成的貢獻,以確保程式碼完整性與法律明確性。此舉旨在維持高品質的作者身份標準,並防止與 AI 生成程式碼相關的潛在版權問題。
背景
Redox OS 是一個採用微核心架構、以 Rust 語言開發的開源作業系統。近期該專案正式宣布採納「來源證明」(Certificate of Origin)政策,並明確規定嚴禁使用大型語言模型(LLM)生成的內容。這項政策不僅涵蓋程式碼,也包含問題回報、合併請求及其描述,任何明顯標註為 AI 生成的內容將被立即關閉,試圖規避者則可能面臨封鎖。
社群觀點
針對 Redox OS 的這項禁令,Hacker News 社群展開了激烈的辯論,核心爭議點在於該政策的「可執行性」與「必要性」。許多評論者認為,這項規定雖然難以完全杜絕隱蔽的 AI 使用,但其主要價值在於建立一道過濾機制,用以阻擋那些低成本、未經思考的「AI 廢料」(LLM-slop)。支持者指出,開源專案維護者的精力是有限的,而 AI 生成內容的成本幾乎為零,這種不對稱性會導致維護者被海量的平庸 PR 淹沒。透過明確的禁令,專案方可以獲得正當理由,快速排除那些一眼就能看出是 AI 生成的低品質貢獻,從而降低審查負擔。
然而,反對意見則質疑在 AI 時代完全排斥這項工具是否過於理想化。有網友認為,開發一個完整的作業系統需要極其龐大的工作量,在缺乏充足人力資源的情況下,拒絕 AI 輔助無異於自縛手腳。部分觀點甚至認為,隨著 LLM 技術的進步,高品質的 AI 生成內容與人類撰寫的內容將變得難以區分,屆時這項政策可能演變成一種「美德標籤」(Virtue Signaling),在實際執行上流於形式。此外,也有人擔心這會讓誠實揭露使用工具的貢獻者受到懲罰,而刻意隱瞞的人反而能規避規則,造成不公平的競爭環境。
在法律與授權層面,社群也提出了深刻的見解。有留言建議,若要強化執行力,專案方應要求貢獻者簽署紙本或更嚴格的貢獻者授權協議(CLA),讓貢獻者在法律層面上保證未曾使用 LLM,這能有效震懾直接的複製貼上行為。同時,關於 AI 訓練資料的版權爭議也是討論焦點之一,有人提議未來應發展「受證明的 LLM」,例如僅在 GPL 授權程式碼上訓練的模型,以確保輸出結果符合開源倫理。
最後,社群中出現了一種有趣的共識:這項政策反映了開源社群對「信任模型」的轉向。過去程式碼本身被視為一種「努力的證明」,但現在這項證明已失效。未來開源專案可能會從「預設開放」轉向「預設拒絕」,更加依賴預先審核過的信任貢獻者,而非開放給所有匿名大眾。儘管 Redox OS 的上游依賴項可能早已包含 AI 產出的程式碼,但這項政策至少在專案核心層級守住了人類審查的底線,避免專案淪為 AI 垃圾訊息的實驗場。
延伸閱讀
- curl 專案處理 AI 垃圾回報的案例:https://itsfoss.com/news/curl-ai-slop/