newsencenewsence
探索
歡迎

你的個人知識庫

從開放網路上發現值得讀的內容,收藏真正重要的。AI 為你摘要、串連、整理你所知道的一切。

了解更多

In-context Learning and Induction Heads

Anthropic Research·大約 4 年前

Anthropic 的研究文章探討了語言模型中的「In-context Learning」和「Induction Heads」機制,並提及了與模型行為、角色特徵控制及潛在風險相關的研究項目。

暫無內容

— Anthropic Research

相關文章

  1. A Mathematical Framework for Transformer Circuits

    超過 4 年前

  2. Persona vectors:監測與控制語言模型中的角色特質

    9 個月前

  3. Sycophancy to subterfuge: Investigating reward tampering in language models

    將近 2 年前

  4. 大型語言模型中出現內省跡象

    6 個月前

  5. Circuits Updates – August 2024

    超過 1 年前

相關文章

  1. A Mathematical Framework for Transformer Circuits

    超過 4 年前

  2. Persona vectors:監測與控制語言模型中的角色特質

    9 個月前

  3. Sycophancy to subterfuge: Investigating reward tampering in language models

    將近 2 年前

  4. 大型語言模型中出現內省跡象

    6 個月前

  5. Circuits Updates – August 2024

    超過 1 年前