在 AI 的巨頭戰場上,OpenAI 執著于 Scale Law(規模法則),DeepMind 專注于能力分級,而陳天橋的 MiroMind 選擇了一條截然不同的“第三條道路”。
這篇文章不僅是理論闡述,更是 MiroMind 的路演書。陳天橋明確反對了目前主流的“行為主義”(圖靈測試)和“功能主義”(替代工作)路線 ,提出了“通用推理引擎”的新定位。
MiroMind 的戰術非常清晰:
放棄“全知全能”的幻覺: 承認模型會出錯,因此引入“自我糾錯”機制,依靠外部反饋閉環來生存 。
小參數,強推理: MiroMind 的 BrowseComp 案例顯示,235B 參數的模型通過 Agent 交互可以戰勝更大模型 。這證明了“推理能力”可以通過架構創新而非單純堆算力來實現。
重新定義算力用途: 不再是一次性生成長文,而是將算力用于“時間序列上的反復求證” 。
陳天橋將這一過程比作“邏輯長征”。MiroMind 的目標不是做一個聊天機器人,而是一個“可審計、可驗證的通用問題求解器” 。這不僅是技術路線的選擇,更是市場定位的差異化——當所有大模型都在爭奪 C 端用戶的注意力時,MiroMind 似乎正瞄準科研、工業、金融等B端高容錯門檻的“深水區”。
如果說 OpenAI 是想造一個無所不知的“神”,陳天橋則是想造一把精準剔除謬誤的“手術刀”。在 AGI 的長跑中,這把手術刀或許比神諭更實用。
以下為陳天橋博文全文:
言語道斷,因果自現——我心中的AGI是什么
過去這一兩年,我們親眼看著大模型的語言能力以肉眼可見的速度躍遷:寫作、總結、對話、問答、解題,越來越“像人”;HLE 之類的評測分數一再刷新紀錄,連奧數級別的題目也能被系統性攻克。于是一個看上去順理成章的結論開始流行:“所謂 AGI、大一統的通用智能,大概也就差不多了。”但在我看來,這是一場美麗的誤會。
為了把這件事講清楚,我借用一個比喻:今天主流的大模型,更像是“文科大模型”。它以語言生成與文本一致性為中心,把知識組織成“像真的敘述”和“像對的答案”。它的價值在于“模擬”:它能理解我們的委婉與修辭,能生成優雅的文字、逼真的對話、動人的故事;它會在教育、溝通、內容生產上變成新的基礎設施,像電、像水,潤物無聲。但是即便它能解奧數、HLE 也能拿高分,這些勝利也大多發生在封閉系統里:題目定義明確、規則固定、對錯可判、反饋即時。
但我一直堅信,人類真正需要 AI 去對抗的,是衰老、疾病、能源、材料、氣候這些問題;這些戰場不在考試題的封閉世界里,沒有標準答案等你生成,只有現象、噪聲、偏差、缺失變量與緩慢反饋;正確不是“寫出來”的,而是被外部世界“確認出來”的。封閉世界的高分,證明了推理工程的成熟,但并不代表已經擁有了穩定的知識生產機制;高水平解題固然是走向發現的必要基礎,卻遠非充分條件,因為真正決定未來的,不是封閉的敘述,而是那條冰冷而精確的因果紅線;它關心的不是“說得對不對勁”,而是“這個假設能不能被現實否決或確認”;它的終極產物不是新作品,而是新知識——新的定理、新的材料、新的藥物、新的工藝、新的工程結構。我把這種范式稱為“理科大模型”。它的價值在于“發現”。
需要澄清一點:我說的“文科/理科”,不是兩種模型的物種差異,而是兩種默認動作的差異:文科大模型傾向給出一個“看起來不錯的最終答案”,理科大模型傾向先給出一組可證偽的假設,并同時給出把這些假設變成證據的路徑;文科模型在不確定處更容易把答案“湊圓”,理科模型在不確定處更像本能地停一下,然后去查證、去拆解,把問題拆成可驗證的小問題;理科模型把因果當作第一公民,回答“條件改變后會發生什么”;理科模型還必須有可累積的長期記憶,把每一次驗證得到的結論以可追溯的方式寫回去。總之,理科模型更像一個握著手術刀的外科醫生:在無數方案里,識別哪一刀真正觸及因果紅線;它知道,一旦切下去,現實會給出最誠實、也最殘酷的反饋,形成真正的因果閉環——這種對“真實代價”的敬畏,正是兩種范式之間最本質的鴻溝。
所以,真正決定 AGI 應該是什么,取決于我們的價值取向:我們究竟更在意一個能理解所有修辭,還能取代人類工作的“靈魂伴侶”,還是更迫切地需要一個能幫我們撕開迷霧、照亮未知,創造價值的“因果明鏡”?我認為是后者。所以,實現 AGI 不是為了再造一個更會聊天的會生成的系統,而是為了打造一種“會發現”的智能。
讓我們帶著這樣的價值觀去審視一下現有的 AGI 定義的主要流派。一種是行為主義范式,源于圖靈測試,認為 AGI 的標準是“機器表現出的行為與人類無法區分”。這是目前大眾最直觀的評判標準。但如果一個 AI 只是在模仿人類說話,它永遠無法告訴我們那些人類還沒發現的真理。第二種是功能主義范式。以 OpenAI 為代表,定義 AGI 為“在大多數具有經濟價值的工作中超越人類的自適應系統”,側重于對人類勞動力的替代能力。但人類文明的每一次飛躍,都不是靠把舊工作做得更快,而是靠發現前所未有的新規律。第三種是能力分級范式。以 DeepMind 為代表,將 AGI 分為從 "Emerging" 到 "Superhuman" 的五個層級,核心指標是在廣泛且未見過的任務中的“泛化能力”與“表現分值”。可現實世界不是考場,沒有標準答案,真正的智慧是要在沒有考卷的地方,自己找到那條正確的路。當然還有一些其他的范式都或多或少存在上述問題。
那么我心目中 AGI 目標究竟要做什么?用一句話概括:它是一個高可信、可驗證、可糾錯的通用推理引擎。在工程上能夠做到三百步以上的復雜推理后,依然維持接近 99% 級別的整體正確率,并通過形式化和工具鏈把每一步推理“釘死”為可檢查的證據,最終對任意復雜問題給出閉環解決方案。
為什么我們死磕“300 步”?我們必須先定義推理的最小單位——標準原子步(SIU, Standard Inference Unit),作為可審計的基本推理單元。每一步只執行單一邏輯操作,依賴最小必要輸入,其結果可以通過工具或規則直接檢驗。按照這個標準,現在的大模型單步推理準確率最高能沖到 98%,哪怕每一步都能做到這個最高水平,300 步后的端對端成功率也只有 0.23%,已經接近歸零。這意味著在 300 步之后,概率和運氣基本失效,系統必須依賴可檢驗的推理與外部反饋閉環,而不是靠“看起來合理”的續寫去蒙混過關。所以我認為 300 步是獨立解決復雜現實問題的“跨度起點”。
為什么 99% 必須是硬杠?因為發現式系統不是用來“聊天”,而是要進入現實成本區間:實驗、工程、醫療、決策。低一個點的可靠性,就意味著高頻的錯誤下注;而現實世界的錯誤,不是“答錯題”,而是浪費實驗窗口、燒掉工程預算、甚至造成不可逆的損耗。99% 不是面子指標,而是“可質押、可簽字”的門檻。
所以,我心目中的 AGI,是能在 300 步的邏輯長征中,靠自我糾錯熬過“概率死亡”,最終抵達地圖之外的起點。從這里開始,AGI 就可以在科學、工程、決策規劃等任意領域里,作為一個可審計、可驗證的通用問題求解器存在。
當然,我并不認為這是一條“喊口號就能到達”的路線。把目標釘在“300 步仍保持 99% 可靠性”,本質上是在主動面對三個工程硬點:長鏈誤差累積、開放世界驗證缺口、以及組合爆炸下的預算約束。正因如此,我們在工程上必須進行解剖,將推理過程分為兩層:邏輯生成層與檢驗層。生成層負責“想”:將大問題遞歸地拆解,直到細化為原子級操作,我們還要做檢驗層負責“查”:對每一個原子步通過工具、仿真或外部數據逐一驗證。一旦某一步不過關,系統就在局部進行回退和重生成,而不是推翻整條推理鏈。
MiroMind 已經在這條路走出了第一步。以 BrowseComp 為例,MiroMind 僅用 235B 參數模型就給出了 SOTA 的成績,它的意義不在于“分數本身”,而在于證明了一個工程事實:我們正在把推理從“單次生成”推進到“時間序列上的反復求證”。更具體地說,我們不是依賴一次性長鏈思考去賭對答案,而是訓練模型在更深、更頻繁的 agent/環境交互中不斷獲取外部反饋并糾錯,讓推理過程逐步變成可審計的證據鏈。對我們而言,這就是“通用求解器”的第一塊地基,然后在 99% 可靠性前提下逐步推到 300 步以上的跨度。這個過程沉默、緩慢、嚴謹、甚至有點殘酷,它拋棄了人類語言的精妙模仿,卻在枯燥、嚴苛、卻能被現實反復復現的因果閉環中,緩慢破土而出,即使有耐心資本的加持和理想主義的堅守,這也會是一個非常痛苦的過程。
佛經里有個詞,叫“大圓鏡智”。說的是一個人的心若能修到像一面大圓鏡,就能如實照見萬物因果,不被塵埃遮蔽,不被偏見扭曲,這是智慧的最高境界。我對這個智慧一直很向往,甚至創辦的科普視頻號也取名叫做大圓鏡。而我心中的 AGI 就是一個無限接近“大圓鏡智”的智能系統,不迷戀漂亮的語言,而是追問事實的真相是什么;不急著給出答案,而是去求證背后的因果是什么。在一個被語言和敘事塞滿的 AI 時代,我們需要一面只對“因果和真相”負責的鏡子。
(推廣)
