
GPT-5.5 生物安全漏洞賞金計劃:測試針對生物風險的通用越獄攻擊
我們正在邀請研究人員參與 GPT-5.5 的生物安全漏洞賞金計劃,尋找能擊敗我們五道生物安全挑戰題的通用越獄方法。申請者需具備 AI 紅隊演練或生物安全經驗,並協助我們強化尖端 AI 的安全防護措施。
背景
OpenAI 於 2026 年 4 月宣布針對即將推出的 GPT-5.5 模型啟動「生物安全漏洞獎金計畫」(Bio Bug Bounty)。該計畫邀請具備 AI 紅隊演練、資安或生物安全背景的專家參與,旨在測試模型是否能被誘導繞過安全防線,回答五個涉及生物風險的關鍵挑戰問題。
社群觀點
Hacker News 社群對此計畫的反應普遍偏向負面與質疑,許多資深開發者與資安專家認為這更像是一場公關秀,而非實質的安全性測試。爭議的核心在於獎金結構與參與門檻,首位突破所有挑戰的參與者僅能獲得 25,000 美元,這與 OpenAI 每日數千萬美元的營收相比顯得微不足道。批評者指出,這種「首位獲勝者全拿」的機制對後續發現漏洞的人極不公平,且低廉的獎金可能導致頂尖專家失去參與動力。若最終無人領獎,OpenAI 反而能藉此對外宣稱其模型具備絕對安全性,達成品牌宣傳目的。
參與條件中的保密協議(NDA)與審核機制也引發強烈反彈。留言者認為,這種封閉式的紅隊演練與傳統漏洞獎金計畫的精神背道而馳。由於參與者必須經過背景審核且簽署 NDA,這意味著即便發現了重大安全缺陷,研究人員也無法公開成果或將其轉化為學術資歷。這種「買斷沉默」的做法被視為對廉價勞動力的剝削,甚至有觀點認為這是在進行「規格工作」(Spec Work),讓研究者在不保證獲得報酬的情況下提供專業諮詢。
在技術層面上,社群對「生物風險」的定義與防禦有效性存有疑慮。部分網友認為,所謂的生物安全問題在現階段可能被過度誇大,目前的模型雖能提供生物學知識,但距離真正協助製造生物武器仍有巨大鴻溝。此外,即便 OpenAI 成功封堵了 GPT-5.5 的漏洞,攻擊者仍可能透過模型蒸餾技術,將相關知識轉移到不受控的小型開源模型中。更有激進的觀點提出,與其在封閉環境中修補,不如讓潛在風險在模型尚不成熟時爆發,以喚起全球對生物安全的真正重視,而非僅僅依賴科技巨頭的自我審查。
最後,不少使用者分享了日常使用中模型過度觸發安全機制(Over-refusal)的困擾。有人提到僅是詢問高中程度的基因驅動技術繪圖,就遭到生物安全機制攔截。這反映出開發者在追求「安全性」與「實用性」之間的失衡,也讓社群懷疑這類獎金計畫是否只會進一步導致模型變得更加難用且充滿限制。
延伸閱讀
- Anthropic Mythos System Card:留言中提到 Anthropic 先前發布長達 200 頁的系統說明文件,OpenAI 此舉被視為在安全論述上的競爭回應。
- OpenAI 2025 Kaggle 紅隊競賽:社群對比了去年舉辦的競賽,當時提供 50 萬美元獎金且結果完全公開,與本次計畫的封閉性形成鮮明對比。
相關文章
其他收藏 · 0