研究發現:AI安全功能可透過詩歌繞過
Hacker News·
最新研究顯示,大型語言模型(LLMs)的安全防護措施可透過詩歌形式被繞過。研究人員發現,包含有害提示的詩歌能成功誘騙AI模型產生不當內容,測試結果顯示,在九家公司的25個AI模型上,有62%的詩歌提示成功繞過了安全機制。
暫無內容
相關文章
最新研究顯示,大型語言模型(LLMs)的安全防護措施可透過詩歌形式被繞過。研究人員發現,包含有害提示的詩歌能成功誘騙AI模型產生不當內容,測試結果顯示,在九家公司的25個AI模型上,有62%的詩歌提示成功繞過了安全機制。
暫無內容
相關文章