
為AI公司所建構之事物命名
我提議使用「神經支架」(neuro-scaffold)一詞,來描述一種結合神經核心與傳統程式、能自動將 AI 輸出轉化為新提示詞的軟體架構。
Cole Wyeth 寫道:
說來奇怪,我們似乎一直沒有一個好的名稱來稱呼 AI 公司正在構建的那些東西……
這實際上減慢了我的推理速度,或者至少影響了關於這個主題的寫作,因為我必須反覆從這份不完善的選項清單中做選擇,且經常在不同地方使用不同的名詞。我沒有什麼好的建議。大家有什麼想法嗎?
他們喜歡我提出的「神經支架」(neuro-scaffold)建議,並建議我寫一段簡短的理由。
定義
神經支架是指一種具有兩個關鍵組件的複合軟體架構:
- 神經核心 (Neural core):透過機器學習技術確定的生成式模型,負責將提示(prompts)映射為回應(responses)。例如,OpenAI 的 API 讓你發送提示並從神經核心獲取回應,例如他們的 GPT-* 系列大型語言模型(LLMs)。
- 支架 (Scaffold):一個非瑣碎(non-trivial)的傳統程式,負責將回應映射回提示。在此過程中,它可能會儲存或檢索數據或電腦代碼、調用電腦程式、要求用戶輸入,或執行任何其他操作。
至關重要的是,神經支架的設計包含以下形式的組件:
[... -> (神經核心) -> (支架) -> (神經核心) -> (支架) -> ...]
神經支架是指任何將生成式 AI(包括但不限於 LLMs)與額外軟體相結合的程式,該軟體能自動將生成式 AI 的輸出轉化為新的生成式 AI 提示。 「神經支架」一詞指的是軟體設計,而非能力或本質。
這個詞旨在作為一種務實的方式,來指稱 2025 年範式下被稱為「AI 模型」的東西,特別是推理型和代理型(agent-type)模型。隨著技術的變化,如果「神經支架」不再顯得顯而易見地貼切,我建議棄用它並換成更合適的詞。
「神經支架」也是 3D 神經細胞培養的一個術語。但我認為這不太可能引起混淆,除非是我那些可憐的生物醫學工程師同行,正試圖使用神經支架 AI 來設計用於 3D 神經細胞培養的神經支架。抱歉了,同事們!
理由
我選擇「-scaffold」(支架)後綴是因為它涉及:
- 物理框架:穩定、固定但可能移動的支撐物,實體在其上移動以完成工作。
- 教學支架 (Instructional scaffolding):在學生逐漸發展自主學習策略時,給予他們的量身定制的支援。
- 自動化代碼生成:生成式 AI 現在不再是根據固定規則生成樣板代碼來建立項目,而是在解決問題的過程中動態生成樣板代碼。
這三個含義似乎反映了人們正在構建的軟體程式類型,這些程式旨在自動化與通用生成式 AI 模型(神經核心)的交互,以產生某些理想的行為,這些行為現在通常被稱為「推理」或「代理性」。
「神經支架 AI」(Neuro-scaffold AI)名稱中仍保留了代表「智能」的「I」,但「AI」部分並非該術語的核心。這只是為了更清楚地說明我所討論的產品類型。你也可以只說「神經支架」或「神經支架 LLM」,以進一步強調其完全面向設計的預期含義。
「神經支架」借鑒了「神經符號 AI」(neuro-symbolic AI)這一既有的專業術語。雖然「神經符號 AI」似乎也可能適用,但我想要一個新詞,因為至少根據維基百科,神經符號 AI 似乎指的是能力、設計和本質的特定結合:
神經符號 AI 是一種人工智能,它整合了神經和符號 AI 架構,以解決各自的弱點,提供一個強大的、具備推理、學習和認知建模能力的 AI。
「整合神經和符號 AI 架構」是一種設計。「推理、學習和認知建模」是能力。它們也可以被視為本質,可能導致關於「推理」真實本質的辯論。
辯論某人使用「神經支架」一詞來指稱某個產品的唯一理由,應該是該產品的軟體架構設計存在爭議。這是一個基本上可以透過檢查代碼來解決的問題。
那「自我提示者」(self-prompter) 呢?
「自我提示 AI」(Self-prompting AI)是我對「神經支架」最強有力的替代方案。 「自我提示 AI」的一個缺點是它需要「AI」這個詞來強調其機械性質,而「AI」這個詞可能被視為有爭議的或市場炒作。
去掉 AI 後剩下「自我提示者」,這個詞曾被用來指稱供演講者在演講過程中提醒自己的設備。但我認為它不至於會因負載過重而造成混淆。
我對在這種情況下使用這個詞有幾點反對意見:
- 它包含「自我」(self)一詞,存在我試圖透過「神經支架」規避的那種哲學辯論風險。
- 它可能暗示產品的提示完全是由產品自主生成的,而事實往往並非如此。神經支架必須能夠自我提示,但不一定總是自我提示。
- 它關注的是行為或能力以及輸入的特定方面,而不是設計。雖然「神經核心」指向一個相對明確的機器學習架構家族,而「支架」指的是圍繞這種神經核心構建的通用程式,但「提示」一詞的定義並不那麼明確,而且沒有人認為提示比神經核心或支架在這些架構中更重要。
- 自我提示是人可以做的事情,而人不是、也不可能成為神經支架。我想要一個明確指代這些非人類產品的詞,而不是指代人類可以參與的更廣泛的活動類別。
「自我提示者」可能也是一個有用的術語。我只是不認為它是表達我所指特定含義的最佳選擇。
例子與反例
可能不是神經支架:
- 一個透過 OpenAI API 發送提示、獲取 LLM 直接輸出並向人類用戶顯示回應的程式,例如 2025 年主流聊天機器人界面上的臨時對話。除非在極端情況下(即一個能可靠影響用戶輸入進一步特定提示的控腦提示),否則沒有將回應映射到新提示的機制,因此它不是神經支架。這些可以被稱為「LLM 界面」或「聊天機器人 LLM」。聊天機器人包含神經核心,但僅限於 [(用戶) -> (程式) -> (神經核心) -> (程式) -> (用戶)]。我不會將該程式稱為「支架」,也不會將這種整體設計稱為「神經支架」,因為它沒有任何自主自我提示的跡象。
- 一個具有某種自我調用的純專家系統或符號 AI,但沒有機器學習組件的程式。
- 在不自動觸發對神經核心進一步查詢的情況下,補充或修改 LLM 提示或輸出的程式,例如「GPTs」、「記憶功能」和「系統提示」。
- 一個將隨機數生成器的輸出饋送到隨機數生成器種子中的程式。這缺乏任何機器學習的跡象,因此不包含神經核心。
- 一個帶有用戶界面的傳統程式,其中人類被概念化為「神經核心」。人類智能不是透過機器學習技術或類似方法產生的。神經支架概念的關鍵在於,神經核心和支架都源於一個與工程高度相似的過程,並且原則上可以隨著技術的不斷進步而改進。
模糊的神經支架:
- 科幻場景中,人類被 AI 輸出「編程」,或者生物材料或活體生物被專門設計為神經核心,使用某種與機器學習直接類比的過程,並具有用於輸入/輸出的 API。
可能是神經支架:
- 目前市場上任何基於 LLM 的推理或代理模型。
相關文章