
小模型加大推理 或能打倒AI巨企 邁向通用人工智能的捷徑?
人們對大規模語言模式近年來的爆炸性發展常常抱持着一種「只要夠大就好」的想法。數據規模增長、比肩互聯網的訓練語料、考慮到算法效能指數級提升——似乎一切都朝着「愈大愈好」邁進。的確,Meta令人瞠目的15萬億 Token訓練量便是最新寫照;它雖然使模型在常見任務上「看起來」無所不能,但真到了真正陌生的領域,傳統的「狂吃數據模式」就會露出馬腳,表現差強人意。以ARC(AI測試基準之一)為例,記憶一大堆模式的GPT系列模型並沒有帶來預期中的高分,對比某些更注重推理策略的模型,差距一目了然。
過度依賴記憶而非推理的做法除了可能衍生「只知其然,不知其所以然」的可怕風險,也讓訓練成本愈加高昂;但真正燒錢的往往發生在推理階段。正如DeepMind的AlphaGo在與人類對弈時,需要運行蒙特卡羅樹搜尋(MCTS)產生巨量的探索路徑,試圖找到最優解。但當你剝離這層搜尋能力,這位超級棋手的Elo分數就會從~5200降到3000,勉強比人類高手強一點點。這種搜尋能力的代價是什麼?生成大量的「思考鏈」。對一家企業來說,高昂的運行費用宛如隱形的「推理稅」,要將此稅率降至輕徵薄收,便得在訓練和推理策略上進行深刻「財務改革」。
在可驗證的領域(如程式碼、數學、工程),有明確的成功標準。要嘛成功,要嘛失敗,這個二元的世界讓獎勵訊號變得如此清晰,為模型生成和訓練「正確的推理過程」提供了具體而直接的訊號。然而,在其他領域,尤其是那些需要主觀判斷的領域,設計獎勵機制就像在雲端找針,既費力又容易迷失。因此,就這像在玲瑯滿目的房地產廣告找房子,用地價房價來比一比固然簡單;但若要評估房子結構與施工品質,就得找專業的檢驗隊伍——耗費較多人力物力,但結果會更靠譜。針對AI訓練而言,負責檢查與驗證的「檢驗隊伍」,正是海量且昂貴的推理數據,這些真實或合成的「思考過程」可視為新時代的特權資產,價值就像特許經營權一樣可觀。
好消息是,這股「高推理成本」將來或許會隨着技術演進而逐漸下降,正如過去預訓練模式在經濟規模下也有單位成本的下滑趨勢。不過,AI的未來更大可能是依賴測試時的搜尋(test time search),而不是訓練時的預訓練。而壞消息方面,在走向AGI的過程中,資料獲取依然扮演了「瓶頸中的瓶頸」角色。而微軟宣布到2025年可能追加800億美元的相關支出,便是市場低估超大型雲端公司資本開支的佐證。一如過去雲端運算中心逐漸崛起,如今當推理端的負荷愈加龐大時,也許是更分散的運算架構,甚至有些任務會跑到你的手機上。而AI專用晶片(ASIC)的出現,可能會讓Nvidia的市佔率面臨前所未有的挑戰。
至於具有誘人「推理核心」(reasoning core)的中小型模型是否會成為企業青睞的新寵兒?不無可能。與其砸重金做一個三頭六臂的龐大模型,還不如培養一群靈活、懂得何時「加碼運算」的精巧模型,根據任務價值靈活啟動搜尋模式——這就像在一群成本可控的小型工程團隊裏,偶爾請一個諾貝爾獎得主來把關特別困難的項目。對不少財務主管而言,從一次性「天價」的資本支出(CapEx)轉化為營運支出(OpEx),或許更能確保自由度,也減少風險。當然,無論是哪條路,對照目前昂貴而緩慢的人力,總體成本依然划算許多,這大概是科技業最諷刺的一面——儘管再怎樣燒錢,也比僱用一整群專家便宜。
總之,當下的AI產業已經不是單打獨鬥在大模型訓練與預訓練資本大戰中的獨角戲,而是一場充滿變數、資金賽局與技術突圍的高智商棋局。或許未來可以看到的不僅僅是模型分散式運行的技術突破,更是一種從傳統固定成本向靈活變動投資模式的顛覆——一場真正意義上的「智能革命」,也同時檢驗着那些曾經傲視群雄的巨頭,是否能在這場數據與邏輯的博弈中保住它的王位。
徐立言
www.facebook.com/hsulylab/
免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。