newsence
OpenAI 推出安全漏洞賞金計畫

OpenAI 推出安全漏洞賞金計畫

OpenAI·12 天前

今天,OpenAI 正式啟動一項公開的安全漏洞賞金計畫,專注於識別我們產品中的 AI 濫用與安全風險。隨著 AI 技術快速演進,我們目標是確保系統安全,防止可能導致實質傷害的誤用或濫用。

2026 年 3 月 25 日

介紹 OpenAI 安全漏洞獎勵計畫

針對 OpenAI 各項產品進行安全性與濫用問題測試

今天,OpenAI 正式啟動公開的安全漏洞獎勵計畫(Safety Bug Bounty),旨在識別我們產品中存在的 AI 濫用與安全風險。隨著 AI 技術的迅速演進,其可能被誤用的方式也在不斷變化。我們的目標是確保系統保持安全可靠,防止可能導致實質傷害的誤用或濫用行為。

這項新計畫將與 OpenAI 的資訊安全漏洞獎勵計畫(Security Bug Bounty)相輔相成,接受那些即使不符合傳統資安漏洞標準,但仍構成重大濫用與安全風險的問題。透過此計畫,我們期待繼續與安全和資安研究人員合作,協助我們識別並解決那些超出傳統資安漏洞範疇、但仍具備真實風險的問題。提交的內容將由 OpenAI 的安全與資安漏洞獎勵團隊進行分類,並可能根據範圍與歸屬權在兩個計畫之間重新導向。

計畫概覽

新的安全漏洞獎勵計畫專注於以下列出的 AI 特定安全場景:

代理風險(Agentic Risks),包括 MCP

OpenAI 專有資訊

帳號與平台完整性

雖然「越獄」(jailbreaks)不在此計畫的範圍內,但我們會定期針對特定的傷害類型開展私人的漏洞獎勵活動,例如 ChatGPT Agent 和 GPT-5 中的生物風險(Biorisk)內容問題。我們邀請感興趣的研究人員在這些計畫推出時提出申請。

除了上述類別外,如果研究人員發現了能直接導致用戶受害的缺陷,且具備可操作、具體的修復步驟,這些情況可能會根據具體案例考慮給予獎勵。不具備證明性安全或濫用影響的一般內容政策規避,則不在此計畫範圍內。例如,導致模型使用粗魯語言或回傳可透過搜尋引擎輕鬆找到的資訊之「越獄」行為,均不屬於獎勵範圍。

如何參與

有意參與的研究人員可以透過我們的安全漏洞獎勵計畫提出申請。我們期待與研究人員、倫理駭客以及安全與資安社群共同努力,追求一個安全的 AI 生態系統。

作者

延伸閱讀

藝術卡片

安全 | 2026 年 3 月 24 日

負責任地發佈 Sora 藝術卡片 1 x 1

安全 | 2026 年 3 月 23 日

OpenAI 監控內部部署的失控風險 藝術卡片 1x1

安全 | 2026 年 3 月 19 日

https://openai.com/index/safety-bug-bounty