newsence

在 7 天內利用大型語言模型暴力破解我的演算法盲區

Hacker News·14 天前

我分享了這段為期一週的高強度歷程,利用 Gemini Pro 作為私人導師來掌握 LeetCode 模式,並為 Google 的技術面試做好準備。

背景

這篇文章記錄了一位擁有多年電信與遊戲開發經驗的工程師,在意外獲得 Google 面試機會後,如何利用一週的時間透過大型語言模型(LLM)進行演算法「暴力學習」的過程。作者過去習慣於高階抽象邏輯與務實的開發模式,對經典資料結構與 LeetCode 式的題目感到陌生,因此決定將 Gemini Pro 當作私人導師,透過對話引導、模式識別與手寫練習,試圖在極短時間內彌補基礎知識的鴻溝。

社群觀點

Hacker News 的討論圍繞著 LLM 作為教育工具的潛力與侷限展開。支持者認為,LLM 正在徹底改變學習範式,它能根據學習者的背景、進度與理解能力提供高度客製化的教學,這種「指令式輔導」比傳統死板的教科書或線上課程更具效率。部分資深開發者分享,即便對於經驗豐富的工程師,LLM 在檢索與編碼既有概念方面的表現極其出色,能幫助他們快速切入陌生的研究領域。他們將 LLM 視為一種「思考夥伴」,透過與 AI 辯論、要求其出題測試或解釋複雜概念,能顯著提升學習的深度與速度。

然而,反對意見則對這種學習方式的品質表示強烈質疑。許多學術界人士與教授指出,學生往往將 LLM 視為走捷徑的「作弊碼」,產出的內容多半是看似正確但缺乏靈魂的「AI 廢料」(AI slop)。批評者認為,LLM 本質上是基於統計機率的預測引擎,容易產生細微但致命的錯誤,若學習者缺乏辨別能力,極易被誤導。爭論的焦點在於「學習」的本質:大學教育旨在培養獨立思考與推理能力,而過度依賴 LLM 可能導致學習者失去在壓力下獨立解決問題的能力。正如部分留言所言,理解概念與在面試高壓下寫出正確代碼是兩回事,作者在練習中表現良好,但在實際面試時仍可能因缺乏肌肉記憶而受挫。

此外,社群也對 Google 至今仍沿用 LeetCode 式面試流程感到無奈。有觀點認為,這種面試方式已逐漸被各種工具「破解」,導致面試過程變成一種金錢與資源的博弈,而非真實技術實力的體現。儘管如此,社群達成了一項共識:LLM 的工具屬性取決於使用者的動機。對於真心想學習的人,它是強大的助推器;對於只想應付差事的人,它則成了阻礙思考的拐杖。這種技術帶來的教育變革已不可逆轉,教育者與應試者都必須在新的現實中尋找平衡點。

延伸閱讀

留言中提到了 Knoll's Law(諾爾媒體準則),用以警示讀者在面對 LLM 產出的資訊時,應保持批判性思考,因為人們往往只有在自己熟悉的領域才能發現媒體(或 AI)的錯誤。此外,也有開發者提到利用 Anki 字卡結合 LLM 生成的內容來強化記憶,作為一種結合 AI 與傳統記憶法的學習策略。

http://blog.dominikrudnik.pl/my-google-recruitment-journey-part-1