
準備迎接人工智慧的大失望時代
對人工智慧宏偉成就的樂觀預測將被差強人意的表現和危險的結果所取代,2024年將是重新校準預期的一年。
在未來的幾十年裡,2023 年可能會被銘記為生成式 AI 炒作之年。這一年,ChatGPT 成為了人類歷史上傳播速度最快的新技術,而對 AI 創造財富的期待也變得司空見慣。2024 年將是重新校準預期的時候。
當然,生成式 AI 是一項令人印象深刻的技術,它為提高多項任務的生產力提供了巨大的機會。但由於炒作已經遠遠超前於現實,2024 年該技術的挫折將更令人難忘。
越來越多的證據將表明,生成式 AI 和大型語言模型會提供錯誤訊息,並且容易產生「幻覺」——即 AI 純粹胡編亂造並出錯。希望透過監督式學習(即教導這些模型避開可疑來源或陳述)來快速解決幻覺問題的想法,充其量只是過於樂觀。由於這些模型的架構是基於預測序列中的下一個或多個單詞,要讓預測錨定在已知事實上將被證明是極其困難的。
對於整個經濟體生產力將呈指數級增長的預期,或是備受推崇的邁向「通用人工智慧」(AGI)的第一步,情況也不會好到哪裡去。關於生產力提升的論調將轉向歸咎於企業對生成式 AI 的實施不當。我們可能會開始轉向一個(更有意義的)結論:我們需要了解哪些人類任務可以透過這些模型得到增強,以及工人需要接受何種類型的額外培訓才能實現這一目標。
有些人將開始意識到,基於預測單詞來達到任何類似複雜人類認知的程度,始終只是一個白日夢。其他人則會說,智慧就在眼前。我擔心,更多的人將繼續談論 AI 的「生存風險」,而忽略了真正出錯的地方,以及其不受控制的推廣對就業、不平等和民主所構成的更平凡(且影響深遠)的風險。
我們將在 2024 年更清楚地目睹這些代價。生成式 AI 將被許多公司採用,但事實證明它只是那種「平庸的自動化」——即取代了工人,卻未能帶來巨大的生產力提升。
ChatGPT 和其他大型語言模型最大的用途將是在社群媒體和線上搜尋。平台將繼續透過個人化的數位廣告將其收集的資訊變現,而對用戶注意力的競爭將會加劇。網路上的操縱和虛假訊息將會增加。生成式 AI 隨後將增加人們使用螢幕的時間(以及與之相關的不可避免的心理健康問題)。
將會出現更多的 AI 新創公司,開源模型也將獲得一些動力,但這不足以阻止產業內雙頭壟斷的出現,Google 和 Microsoft/OpenAI 將憑藉其龐大的模型主導該領域。更多的公司將被迫依賴這些基礎模型來開發自己的應用程式。由於這些模型會因錯誤訊息和幻覺而持續令人失望,許多此類應用程式也將令人失望。
反壟斷和監管的呼聲將會加強。反壟斷行動將毫無進展,因為法院和政策制定者都沒有勇氣嘗試拆分最大的科技公司。監管領域將會有更多動向。然而,有意義的監管不會在 2024 年到來,原因很簡單:美國政府已經遠遠落後於技術發展,需要一些時間來追趕——這一缺陷在 2024 年將變得更加明顯,從而加劇圍繞新法律和法規的討論,甚至變得更具兩黨共識。
相關文章