從開放網路上發現值得讀的內容,收藏真正重要的。AI 為你摘要、串連、整理你所知道的一切。
Anthropic 的可解釋性團隊致力於理解大型語言模型的內部運作,以增強 AI 安全性和正面成果。他們採用跨學科方法,包括電路追蹤等技術來分析模型行為和內部狀態。
暫無內容
— Anthropic Research
相關文章
Anthropic 的可解釋性研究
大約 2 個月前
Anthropic 開源大型語言模型電路追蹤工具以增進可解釋性
11 個月前
The engineering challenges of scaling interpretability
將近 2 年前
電路更新 – 2024年9月
超過 1 年前
理解人工智慧,觀察其演進
Hacker News · 7 個月前