Anthropic 在 Claude 中使用可疑的暗黑模式獲取 AI 資料使用同意
Hacker News·
Anthropic 為 Claude AI 推出的新隱私政策要求用戶在 2025 年 9 月 28 日前主動選擇退出 AI 訓練資料使用,其介面設計採用了暗黑模式,使退出選項難以察覺,並鼓勵用戶不經思考便接受。
暫無內容
相關文章
Anthropic 為 Claude AI 推出的新隱私政策要求用戶在 2025 年 9 月 28 日前主動選擇退出 AI 訓練資料使用,其介面設計採用了暗黑模式,使退出選項難以察覺,並鼓勵用戶不經思考便接受。
暫無內容
相關文章