盡管當(dāng)前的AI大模型在邏輯推理和任務(wù)處理上表現(xiàn)驚人,但一個(gè)長(zhǎng)期被忽視的技術(shù)缺陷可能正成為通往通用人工智能(AGI)道路上的巨大障礙。近日,曾參與 OpenAI 推理模型 o1和 o3開發(fā)的核心研究員 Jerry Tworek 在受訪時(shí)直言:目前的AI模型根本無法從錯(cuò)誤中汲取教訓(xùn)。
Tworek 指出,當(dāng)現(xiàn)有的AI模型在處理問題失敗時(shí),開發(fā)者往往會(huì)陷入一種無力感,因?yàn)槟壳斑€缺乏有效的機(jī)制讓模型根據(jù)失敗經(jīng)驗(yàn)來更新其內(nèi)在的知識(shí)體系或信念。他形容當(dāng)前的AI訓(xùn)練過程本質(zhì)上是“極其脆弱的”,一旦遇到訓(xùn)練模式之外的新挑戰(zhàn),模型就很容易陷入“推理崩潰”的困境,這與人類那種具備自我穩(wěn)定和自我修復(fù)能力的魯棒性學(xué)習(xí)方式形成了鮮明對(duì)比。
正是為了攻克這一難題,Tworek 已于近期離開 OpenAI,專注于尋找讓AI能夠自主解決困難、擺脫困境的技術(shù)路徑。他強(qiáng)調(diào),如果一個(gè)模型不能在面對(duì)挫折時(shí)自我進(jìn)化,那么它就很難被稱為真正的 AGI。在他看來,智能的本質(zhì)應(yīng)該像生命一樣“總能找到出路”,而當(dāng)前的AI顯然還遠(yuǎn)未達(dá)到這種境界。
劃重點(diǎn):
?? 核心缺陷:前 OpenAI 研究員 Jerry Tworek 指出當(dāng)前AI模型缺乏從失敗中學(xué)習(xí)的機(jī)制,無法像人類一樣通過糾錯(cuò)來更新內(nèi)部知識(shí)。
?? AGI障礙:模型在處理未知模式時(shí)的“脆弱性”和容易“卡死”的狀態(tài),被認(rèn)為是實(shí)現(xiàn)通用人工智能(AGI)的主要技術(shù)壁壘。
??? 專家動(dòng)向:為解決這一根本性難題,o1系列模型的幕后功臣 Tworek 已離職并投身于研發(fā)能自主擺脫困境的新一代AI架構(gòu)。
