從大型語言模型到幻覺:常見人工智慧術語簡明指南

從大型語言模型到幻覺:常見人工智慧術語簡明指南

Techcrunch·大約 3 小時前

人工智慧的興起帶來了排山倒海的新術語和俚語。這是一份詞彙表,定義了您在閱讀文章時可能會遇到的一些最重要的單詞和短語。

人工智慧是一個深奧且複雜的世界。在這個領域工作的科學家通常依賴專業術語和行話來解釋他們的研究內容。因此,我們在報導人工智慧產業時,經常必須使用這些技術術語。這就是為什麼我們認為整理一份詞彙表會很有幫助,其中定義了我們在文章中使用的一些最重要的單詞和短語。

隨著研究人員不斷發現推動人工智慧前沿的新方法,同時識別新出現的安全風險,我們將定期更新此詞彙表以添加新條目。

AGI

通用人工智慧(Artificial General Intelligence,簡稱 AGI)是一個模糊的術語。但它通常是指在許多(如果不是大多數)任務上比普通人類更有能力的 AI。OpenAI 執行長 Sam Altman 最近將 AGI 描述為「相當於你可以聘用作為同事的中等水平人類」。同時,OpenAI 的章程將 AGI 定義為「在大多數具有經濟價值的任務中表現優於人類的高度自主系統」。Google DeepMind 的理解與這兩個定義略有不同;該實驗室將 AGI 視為「在大多數認知任務中至少與人類一樣有能力的 AI」。感到困惑嗎?別擔心——人工智慧研究前沿的專家們也是如此。

AI 代理 (AI agent)

AI 代理是指一種利用 AI 技術代表你執行一系列任務的工具——超越了基本 AI 聊天機器人的功能——例如報銷費用、預訂機票或餐廳座位,甚至編寫和維護程式碼。然而,正如我們之前解釋過的,這個新興領域仍有許多變數,因此「AI 代理」對不同的人可能意味著不同的東西。基礎設施也仍在建設中,以實現其預想的功能。但基本概念是指一個可能調用多個 AI 系統來執行多步驟任務的自主系統。

思維鏈 (Chain of thought)

面對一個簡單的問題,人類大腦甚至不需要太多思考就能回答——比如「長頸鹿和貓,哪種動物更高?」但在許多情況下,你通常需要筆和紙才能得出正確答案,因為其中存在中間步驟。例如,如果一個農民有雞和牛,它們總共有 40 個頭和 120 條腿,你可能需要寫下一個簡單的方程式來得出答案(20 隻雞和 20 隻牛)。

在 AI 語境中,大型語言模型的思維鏈推理意味著將問題分解為較小的中間步驟,以提高最終結果的品質。得到答案通常需要更長的時間,但答案更有可能是正確的,尤其是在邏輯或程式碼語境中。推理模型是從傳統的大型語言模型開發而來的,並透過強化學習針對思維鏈思考進行了優化。

(參見:大型語言模型)

在 Disrupt 會見你的下一位投資者或投資組合新創公司

你的下一輪融資。你的下一位員工。你的下一個突破機會。就在 TechCrunch Disrupt 2026 尋找它,屆時將有 10,000 多名創始人、投資者和科技領袖聚集在一起,參加為期三天、超過 250 場的策略會議、強大的引薦和定義市場的創新。立即註冊,最高可節省 410 美元。

在 Disrupt 會見你的下一位投資者或投資組合新創公司

你的下一輪融資。你的下一位員工。你的下一個突破機會。就在 TechCrunch Disrupt 2026 尋找它,屆時將有 10,000 多名創始人、投資者和科技領袖聚集在一起,參加為期三天、超過 250 場的策略會議、強大的引薦和定義市場的創新。立即註冊,最高可節省 410 美元。

算力 (Compute)

雖然這是一個多義詞,但算力通常是指允許 AI 模型運行的關鍵計算能力。這種類型的處理驅動著 AI 產業,使其能夠訓練和部署強大的模型。這個術語通常是提供計算能力的硬體簡稱——例如 GPU、CPU、TPU 以及構成現代 AI 產業基石的其他形式的基礎設施。

深度學習 (Deep learning)

這是自我改進機器學習的一個子集,其中 AI 演算法設計有多層的人工神經網路(ANN)結構。這使得它們與更簡單的基於機器學習的系統(如線性模型或決策樹)相比,能夠做出更複雜的關聯。深度學習演算法的結構靈感來自人類大腦中神經元相互連接的路徑。

深度學習 AI 模型能夠自己識別數據中的重要特徵,而不需要人類工程師來定義這些特徵。該結構還支持可以從錯誤中學習的演算法,並透過重複和調整的過程改進其自身的輸出。然而,深度學習系統需要大量的數據點才能產生良好的結果(數百萬個或更多)。與更簡單的機器學習演算法相比,它們的訓練時間通常也更長——因此開發成本往往更高。

(參見:神經網路)

擴散 (Diffusion)

擴散是許多生成藝術、音樂和文本的 AI 模型核心技術。受物理學啟發,擴散系統透過添加噪聲逐漸「破壞」數據結構(例如照片、歌曲等),直到什麼都不剩。在物理學中,擴散是自發且不可逆的——擴散在咖啡中的糖無法恢復成方糖形式。但 AI 中的擴散系統旨在學習一種「逆擴散」過程來恢復被破壞的數據,從而獲得從噪聲中恢復數據的能力。

蒸餾 (Distillation)

蒸餾是一種用於從大型 AI 模型中提取知識的技術,採用「教師-學生」模型。開發者向教師模型發送請求並記錄輸出。有時會將答案與數據集進行比較以查看其準確性。然後,這些輸出被用於訓練學生模型,使其訓練到接近教師模型的行為。

蒸餾可用於基於較大模型創建一個更小、更高效的模型,且蒸餾損失極小。這很可能是 OpenAI 開發 GPT-4 Turbo(GPT-4 的更快版本)的方式。

雖然所有 AI 公司都在內部使用蒸餾,但一些 AI 公司也可能使用它來追趕前沿模型。從競爭對手那裡進行蒸餾通常會違反 AI API 和聊天助手的服務條款。

微調 (Fine-tuning)

這指的是對 AI 模型進行進一步訓練,以針對比先前訓練重點更具體的任務或領域優化性能——通常是透過輸入新的、專門的(即任務導向的)數據。

許多 AI 新創公司將大型語言模型作為構建商業產品的起點,但正試圖透過基於其自身特定領域的知識和專業知識進行微調,來補充早期的訓練週期,從而增強針對目標行業或任務的效用。

(參見:大型語言模型 [LLM])

GAN

GAN,即生成對抗網路(Generative Adversarial Network),是一種機器學習框架,在涉及產生逼真數據的生成式 AI(包括但不限於深偽 deepfake 工具)的一些重要發展中起到了支撐作用。GAN 涉及使用一對神經網路,其中一個利用其訓練數據生成輸出,並傳遞給另一個模型進行評估。這第二個模型(判別器)因此在生成器的輸出上扮演分類器的角色——使其能夠隨著時間的推移而改進。

GAN 的結構被設置為一種競爭(因此稱為「對抗」)——這兩個模型基本上被編程為試圖超越對方:生成器試圖讓其輸出通過判別器的檢驗,而判別器則致力於識別人工生成的數據。這種結構化的競賽可以在不需要額外人工干預的情況下優化 AI 輸出,使其更加逼真。儘管 GAN 在較窄的應用(如製作逼真的照片或影片)中效果最好,而非通用 AI。

幻覺 (Hallucination)

幻覺是 AI 產業對 AI 模型胡編亂造(字面上生成錯誤資訊)的首選術語。顯然,這對 AI 品質來說是一個巨大的問題。

幻覺產生的生成式 AI 輸出可能具有誤導性,甚至可能導致現實生活中的風險——並產生潛在的危險後果(想像一下返回有害醫療建議的健康查詢)。這就是為什麼大多數生成式 AI 工具的小字現在都警告用戶要核實 AI 生成的答案,儘管這類免責聲明通常遠不如工具點擊按鈕即提供的資訊那麼顯眼。

AI 偽造資訊的問題被認為是訓練數據缺失的結果。特別是對於通用生成式 AI(有時也稱為基礎模型)來說,這看起來很難解決。現存的數據根本不足以訓練 AI 模型來全面解決我們可能提出的所有問題。太長不看版:我們(尚未)發明出上帝。

幻覺正促使人們轉向日益專業化和/或垂直化的 AI 模型——即需要較窄專業知識的特定領域 AI——以此作為減少知識差距可能性並縮小虛假資訊風險的一種方式。

推理 (Inference)

推理是運行 AI 模型的過程。它是讓模型根據先前看過的數據進行預測或得出結論。明確地說,沒有訓練就無法進行推理;模型必須先學習數據集中的模式,然後才能有效地從這些訓練數據中進行推斷。

許多類型的硬體都可以執行推理,從智慧型手機處理器到強大的 GPU,再到專門設計的 AI 加速器。但並非所有硬體都能同樣出色地運行模型。與配備高端 AI 晶片的雲端伺服器相比,在筆記型電腦上運行超大型模型進行預測需要花費很長時間。

[參見:訓練]

大型語言模型 (LLM)

大型語言模型(Large Language Models,簡稱 LLM)是熱門 AI 助手所使用的 AI 模型,例如 ChatGPT、Claude、Google 的 Gemini、Meta 的 AI Llama、Microsoft Copilot 或 Mistral 的 Le Chat。當你與 AI 助手聊天時,你是在與一個大型語言模型互動,它會直接處理你的請求,或者在不同可用工具(如網頁瀏覽或程式碼解釋器)的幫助下處理請求。

AI 助手和 LLM 可以有不同的名稱。例如,GPT 是 OpenAI 的大型語言模型,而 ChatGPT 是 AI 助手產品。

LLM 是由數十億個數值參數(或權重,見下文)組成的深層神經網路,它們學習單詞和短語之間的關係,並創建語言的表示,一種單詞的多維地圖。

這些模型是透過對數十億本書籍、文章和轉錄本中發現的模式進行編碼而創建的。當你向 LLM 發出提示時,模型會生成最符合該提示的模式。然後,它會根據之前的內容評估最後一個單詞之後最可能的下一個單詞。重複,重複,再重複。

(參見:神經網路)

記憶體快取 (Memory Cache)

記憶體快取是指一個提升推理(即 AI 生成對用戶查詢響應的過程)的重要過程。本質上,快取是一種優化技術,旨在使推理更高效。AI 顯然是由高強度的數學計算驅動的,每次進行這些計算都會消耗更多能量。快取旨在透過為未來的用戶查詢和操作保存特定計算,來減少模型可能需要運行的計算次數。記憶體快取有不同的種類,其中較為知名的是 KV(鍵值)快取。KV 快取在基於 Transformer 的模型中運作,透過減少生成用戶問題答案所需的時間(和演算法勞動)來提高效率,從而推動更快的結果。

(參見:推理)

神經網路 (Neural network)

神經網路是指支撐深度學習的多層演算法結構——更廣泛地說,是指大型語言模型出現後整個生成式 AI 工具熱潮的基礎。

雖然從人類大腦密集互連的路徑中汲取靈感作為數據處理演算法設計結構的想法可以追溯到 1940 年代,但直到最近透過電子遊戲產業興起的圖形處理硬體(GPU),才真正釋放了這一理論的力量。事實證明,這些晶片非常適合訓練比早期時代可能實現的層數多得多的演算法——使基於神經網路的 AI 系統能夠在許多領域實現更好的性能,包括語音識別、自主導航和藥物研發。

(參見:大型語言模型 [LLM])

RAMageddon (記憶體末日)

RAMageddon 是一個有趣的新術語,用來形容席捲科技業的一個不太有趣的趨勢:隨機存取記憶體(RAM 晶片)日益短缺,而這種晶片幾乎驅動著我們日常生活中使用的所有科技產品。隨著 AI 產業的蓬勃發展,最大的科技公司和 AI 實驗室——都在競相擁有最強大、最高效的 AI——正在購買如此多的 RAM 來驅動其數據中心,以至於剩下的給我們其他人的已經不多了。這種供應瓶頸意味著剩下的東西變得越來越貴。

這包括遊戲產業(主要公司不得不提高遊戲機價格,因為很難為其設備找到記憶體晶片)、消費電子產業(記憶體短缺可能導致智慧型手機出貨量出現十多年來最大的跌幅)以及一般的企業運算(因為這些公司無法為其自身的數據中心獲得足夠的 RAM)。價格飆升預計只有在可怕的短缺結束後才會停止,但遺憾的是,目前並沒有太多跡象表明這種情況很快會發生。

訓練 (Training)

開發機器學習 AI 涉及一個稱為訓練的過程。簡單來說,這是指輸入數據,以便模型可以從模式中學習並生成有用的輸出。

在 AI 技術棧的這個階段,事情可能會變得有點哲學化——因為在預訓練之前,作為開發學習系統起點的數學結構只是一堆層和隨機數字。只有透過訓練,AI 模型才真正成型。本質上,這是系統對數據特徵做出反應的過程,使其能夠調整輸出以朝向尋求的目標——無論是識別貓的圖像還是按需創作一首俳句。

需要注意的是,並非所有 AI 都需要訓練。被編程為遵循手動預定義指令的基於規則的 AI——例如線性聊天機器人——不需要進行訓練。然而,這類 AI 系統可能比(訓練良好的)自學系統受到更多限制。

儘管如此,訓練可能非常昂貴,因為它需要大量的輸入——而且通常情況下,這類模型所需的輸入量一直呈上升趨勢。

有時可以使用混合方法來縮短模型開發路徑並幫助管理成本。例如對基於規則的 AI 進行數據驅動的微調——這意味著與開發者從頭開始構建相比,開發所需的數據、算力、能源和演算法複雜性更低。

[參見:推理]

Token (代幣/標記)

當涉及到人機溝通時,存在一些明顯的挑戰。人類使用人類語言進行溝通,而 AI 程式則透過受數據啟發的複雜演算法過程來執行任務並響應查詢。在最簡單的定義中,Token 代表了人機溝通的基本構建塊,因為它們是已被 LLM 處理或產生的離散數據段。

Token 是透過一個稱為「Tokenization(分詞/標記化)」的過程創建的,該過程將原始數據分解並精煉成 LLM 可以理解的獨特單元。類似於軟體編譯器將人類語言翻譯成電腦可以理解的二進制代碼,Tokenization 透過用戶查詢為 AI 程式解釋人類語言,以便其準備響應。

有幾種不同類型的 Token——包括輸入 Token(必須針對人類用戶的查詢生成的類型)、輸出 Token(LLM 響應人類請求時生成的類型)以及推理 Token,後者涉及作為用戶請求一部分發生的更長、更密集的任務和過程。

對於企業 AI,Token 的使用量也決定了成本。由於 Token 相當於模型處理的數據量,它們也成為 AI 產業將其服務變現的手段。大多數 AI 公司按 Token 數量收取 LLM 使用費。因此,企業在使用 AI 程式(例如 ChatGPT)時消耗的 Token 越多,就必須向其 AI 服務提供商(例如 OpenAI)支付越多的錢。

遷移學習 (Transfer learning)

這是一項技術,將先前訓練過的 AI 模型作為開發針對不同但通常相關任務的新模型的起點——允許重新應用在先前訓練週期中獲得的知識。

遷移學習可以透過縮短模型開發路徑來節省效率。當開發模型所需的任務數據有限時,它也很有用。但重要的是要注意,這種方法有其局限性。依賴遷移學習獲得通用能力的模型,可能仍需要針對額外數據進行訓練,以便在其關注的領域表現良好。

(參見:微調)

權重 (Weights)

權重是 AI 訓練的核心,因為它們決定了在用於訓練系統的數據中,給予不同特徵(或輸入變量)多少重要性(或權重)——從而塑造 AI 模型的輸出。

換句話說,權重是定義數據集中對於給定訓練任務最顯著內容的數值參數。它們透過對輸入進行乘法運算來實現其功能。模型訓練通常從隨機分配的權重開始,但隨著過程的展開,當模型尋求得出與目標更接近的輸出時,權重會進行調整。

例如,一個用於預測房價的 AI 模型,如果在目標地點的歷史房地產數據上進行訓練,可能包括臥室和浴室數量、房產是獨立式還是半獨立式、是否有停車位、車庫等特徵的權重。

最終,模型賦予每個輸入的權重反映了它們根據給定數據集對房產價值的影響程度。

本文會定期更新新資訊。

主題

Natasha Lomas

資深記者

Natasha 曾是 TechCrunch 的資深記者(2012 年 9 月至 2025 年 4 月),常駐歐洲。在加入 TC 之前,她曾在 CNET UK 負責智慧型手機評論,在此之前,她在 silicon.com(現已併入 TechRepublic)報導了五年多的商業技術,專注於行動與無線、電信與網路以及 IT 技能問題。她還曾為《衛報》和 BBC 等機構撰稿。Natasha 擁有劍橋大學英語系一等學位,以及倫敦大學金匠學院的新聞學碩士學位。

Romain Dillet

資深記者

Kyle Wiggers

AI 編輯

TechCrunch 資深作家

StrictlyVC 在舊金山開啟新的一年。進入現場,與產業領袖進行毫無保留的爐邊對談,獲取內部 VC 見解,並建立真正能推動發展的高價值聯繫。門票有限。

https://techcrunch.com/2026/04/12/artificial-intelligence-definition-glossary-hallucinations-guide-to-common-ai-terms/