
OpenAI 推出安全漏洞賞金計畫
今天,OpenAI 正式啟動一項公開的安全漏洞賞金計畫,專注於識別我們產品中的 AI 濫用與安全風險。隨著 AI 技術快速演進,我們目標是確保系統安全,防止可能導致實質傷害的誤用或濫用。
2026 年 3 月 25 日
介紹 OpenAI 安全漏洞獎勵計畫
針對 OpenAI 各項產品進行安全性與濫用問題測試
今天,OpenAI 正式啟動公開的安全漏洞獎勵計畫(Safety Bug Bounty),旨在識別我們產品中存在的 AI 濫用與安全風險。隨著 AI 技術的迅速演進,其可能被誤用的方式也在不斷變化。我們的目標是確保系統保持安全可靠,防止可能導致實質傷害的誤用或濫用行為。
這項新計畫將與 OpenAI 的資訊安全漏洞獎勵計畫(Security Bug Bounty)相輔相成,接受那些即使不符合傳統資安漏洞標準,但仍構成重大濫用與安全風險的問題。透過此計畫,我們期待繼續與安全和資安研究人員合作,協助我們識別並解決那些超出傳統資安漏洞範疇、但仍具備真實風險的問題。提交的內容將由 OpenAI 的安全與資安漏洞獎勵團隊進行分類,並可能根據範圍與歸屬權在兩個計畫之間重新導向。
計畫概覽
新的安全漏洞獎勵計畫專注於以下列出的 AI 特定安全場景:
代理風險(Agentic Risks),包括 MCP
OpenAI 專有資訊
帳號與平台完整性
雖然「越獄」(jailbreaks)不在此計畫的範圍內,但我們會定期針對特定的傷害類型開展私人的漏洞獎勵活動,例如 ChatGPT Agent 和 GPT-5 中的生物風險(Biorisk)內容問題。我們邀請感興趣的研究人員在這些計畫推出時提出申請。
除了上述類別外,如果研究人員發現了能直接導致用戶受害的缺陷,且具備可操作、具體的修復步驟,這些情況可能會根據具體案例考慮給予獎勵。不具備證明性安全或濫用影響的一般內容政策規避,則不在此計畫範圍內。例如,導致模型使用粗魯語言或回傳可透過搜尋引擎輕鬆找到的資訊之「越獄」行為,均不屬於獎勵範圍。
如何參與
有意參與的研究人員可以透過我們的安全漏洞獎勵計畫提出申請。我們期待與研究人員、倫理駭客以及安全與資安社群共同努力,追求一個安全的 AI 生態系統。
作者
延伸閱讀

安全 | 2026 年 3 月 24 日

安全 | 2026 年 3 月 23 日

安全 | 2026 年 3 月 19 日