newsencenewsence
探索
歡迎

你的個人知識庫

從開放網路上發現值得讀的內容,收藏真正重要的。AI 為你摘要、串連、整理你所知道的一切。

了解更多

Predictability and Surprise in Large Generative Models

Anthropic Research·大約 4 年前

Anthropic的研究指出,大型生成模型雖在訓練分佈上表現出可預測的損失(Scaling Laws),但在特定能力、輸入和輸出上卻難以預測,這種特性可能導致難以預料的社會危害。

暫無內容

— Anthropic Research

相關文章

  1. 預測罕見語言模型行為

    大約 1 年前

  2. The engineering challenges of scaling interpretability

    將近 2 年前

  3. 會說謊、作弊、策劃謀殺的AI模型:大型語言模型(LLMs)的真實危險性為何?

    Hacker News · 7 個月前

  4. 為何人工智慧會變壞

    Wired - backchannel · 6 個月前

  5. Sycophancy to subterfuge: Investigating reward tampering in language models

    將近 2 年前

相關文章

  1. 預測罕見語言模型行為

    大約 1 年前

  2. The engineering challenges of scaling interpretability

    將近 2 年前

  3. 會說謊、作弊、策劃謀殺的AI模型:大型語言模型(LLMs)的真實危險性為何?

    Hacker News · 7 個月前

  4. 為何人工智慧會變壞

    Wired - backchannel · 6 個月前

  5. Sycophancy to subterfuge: Investigating reward tampering in language models

    將近 2 年前