
在政策文件中發現人工智慧生成的幻覺後,兩名內政部官員已被停職,這引發了對於認知卸載以及過度依賴人工智慧工具的擔憂。
南非內政部近期發生兩名高階官員遭到停職的事件,主因是他們提交的政策文件中被發現含有由人工智慧生成的「幻覺」內容。這份文件不僅引用了不存在的參考資料,其內容準確性也受到嚴重質疑,引發了關於政府官員過度依賴 AI 進行「認知外包」以及公務體系審核機制失靈的廣泛討論。
在 Hacker News 的討論中,網友對於這起事件的看法呈現兩極化。部分觀點認為,當今社會與企業都在推廣 AI 輔助工作,但一旦員工在成果中留下 AI 使用的痕跡,往往會面臨嚴厲的懲處。這種觀點指出,職場上的成敗似乎不再取決於是否使用 AI,而是在於使用者隱藏 AI 痕跡的技術高低。然而,這種看法隨即遭到反駁,多數評論者強調,問題的核心不在於「使用工具」,而是在於「產出錯誤」。無論是否使用 AI,提交錯誤且未經查證的資訊本就該承擔責任,尤其是當 AI 生成的虛假引用被用來偽裝研究深度時,這已涉及誠信與專業操守的問題。
針對政府部門的特殊性,社群普遍認為公職人員應承擔更高的道德與法律責任。有網友指出,政府政策直接影響民眾的公民權、居留權甚至人身安全,若因 AI 幻覺導致錯誤的行政處分,將對個人生活造成毀滅性打擊。因此,政府官員在處理此類社會關鍵任務時,若僅是為了省事而將思考外包給 AI,且未進行嚴謹的校對,這種行為已接近瀆職。這類「懶惰導致的公共尷尬」不應歸咎於技術本身,而是使用者未能履行其審核職責。
此外,討論也觸及了系統性壓力與職場文化的矛盾。有觀點同情基層員工,認為管理層一方面要求員工提高效率並採用 AI,另一方面卻未給予足夠的時間進行事實查核。這種矛盾就像工業意外一樣,系統性的壓力往往是導致個人犯錯的主因。然而,也有評論者憂心,隨著這類 AI 錯誤案例的常態化,社會可能會逐漸對平庸與錯誤感到麻木,就像大眾現在對資安外洩事件感到疲勞一樣,最終導致整體社會品質標準的下滑。
最後,關於南非特定背景的討論也浮上檯面。有留言直言不諱地表示,南非政府部門的行政品質長期堪憂,即便不使用 AI,其產出未必會更好。但無論如何,這次停職處分被視為一個正確的信號,明確界定了 AI 使用的底線:工具可以輔助,但使用者必須對最終產出的品質負起百分之百的責任。這種「責任自負」的原則正逐漸成為各大企業與政府機構制定 AI 使用規範時的共識。
相關文章
其他收藏 · 0