newsence
OpenAI 推出開源工具,協助開發者建構青少年安全的 AI 應用

OpenAI 推出開源工具,協助開發者建構青少年安全的 AI 應用

Techcrunch·12 天前

開發者無需從零開始研究如何讓 AI 對青少年更安全,而是可以使用這些政策來強化他們所建構的產品。

OpenAI 週二表示,該公司正發布一組提示詞(prompts),開發者可以用來讓他們的應用程式對青少年更安全。這家 AI 實驗室表示,這套青少年安全政策可以與其名為 gpt-oss-safeguard 的開放權重安全模型配合使用。

開發者無需從頭開始研究如何讓 AI 對青少年更安全,而是可以使用這些提示詞來強化他們構建的內容。這些政策針對的問題包括:血腥暴力和色情內容、有害的身體形象與行為、危險活動與挑戰、浪漫或暴力角色扮演,以及年齡限制的商品與服務。

這些安全政策以提示詞的形式設計,使其能輕易與 gpt-oss-safeguard 以外的其他模型相容,儘管它們在 OpenAI 自身的生態系統中可能最為有效。

OpenAI 表示,在編寫這些提示詞時,他們與 AI 安全監管機構 Common Sense Media 和 everyone.ai 進行了合作。

Common Sense Media 的 AI 與數位評估主管 Robbie Torney 在一份聲明中表示:「這些基於提示詞的政策有助於在整個生態系統中建立一個有意義的安全底線,且由於它們是以開源形式發布,因此可以隨著時間推移進行調整和改進。」

OpenAI 在其部落格中指出,開發者(包括經驗豐富的團隊)往往難以將安全目標轉化為精確且可執行的規則。

該公司寫道:「這可能導致保護漏洞、執法不一或過度廣泛的過濾。清晰且範圍明確的政策是有效安全系統的關鍵基礎。」

OpenAI 承認,這些政策並非解決 AI 安全複雜挑戰的終極方案。但它是基於其先前的努力而構建的,包括家長控制和年齡預測等產品層級的安全措施。去年,OpenAI 更新了其大型語言模型的指南(稱為 Model Spec),以應對其 AI 模型在面對 18 歲以下用戶時應有的表現。

然而,OpenAI 本身的記錄並非完全無瑕。該公司正因多起訴訟面臨壓力,這些訴訟是由在極度使用 ChatGPT 後自殺身亡者的家屬所提起。這些危險關係通常發生在用戶繞過聊天機器人的安全防護之後,且沒有任何模型的防護欄是完全牢不可破的。儘管如此,這些政策至少是向前邁出的一步,特別是因為它們能為獨立開發者提供幫助。

https://techcrunch.com/2026/03/24/openai-adds-open-source-tools-to-help-developers-build-for-teen-safety/