newsencenewsence
探索
歡迎

你的個人知識庫

從開放網路上發現值得讀的內容,收藏真正重要的。AI 為你摘要、串連、整理你所知道的一切。

了解更多

Anthropic 在 Claude 中使用可疑的暗黑模式獲取 AI 資料使用同意

Hacker News·8 個月前

Anthropic 為 Claude AI 推出的新隱私政策要求用戶在 2025 年 9 月 28 日前主動選擇退出 AI 訓練資料使用,其介面設計採用了暗黑模式,使退出選項難以察覺,並鼓勵用戶不經思考便接受。

暫無內容

— Hacker News

相關文章

  1. Anthropic 用戶面臨新選擇:選擇退出或分享數據以用於 AI 訓練

    Techcrunch · 8 個月前

  2. Anthropic 將使用 Claude 對話作為訓練資料,教你如何選擇退出

    Wired - AI · 7 個月前

  3. Anthropic 試圖隱藏 Claude 的 AI 行為,開發者對此感到不滿

    2 個月前

  4. Anthropic 撤銷 OpenAI 對 Claude AI 模型的使用權限

    Techcrunch · 9 個月前

  5. Anthropic 的 Claude AI 服務出現中斷

    5 個月前

相關文章

  1. Anthropic 用戶面臨新選擇:選擇退出或分享數據以用於 AI 訓練

    Techcrunch · 8 個月前

  2. Anthropic 將使用 Claude 對話作為訓練資料,教你如何選擇退出

    Wired - AI · 7 個月前

  3. Anthropic 試圖隱藏 Claude 的 AI 行為,開發者對此感到不滿

    2 個月前

  4. Anthropic 撤銷 OpenAI 對 Claude AI 模型的使用權限

    Techcrunch · 9 個月前

  5. Anthropic 的 Claude AI 服務出現中斷

    5 個月前