看曰本女人大战黑人视频_亚洲人成无码网www_丰满少妇高潮惨叫视频_亚洲色欲色欲欲www在线_巨爆乳无码视频在线观看_亚洲国产精品一区二区美利坚

首頁 > 綜合 > 

字節Seed用化學思想搞AI,把DeepSeek-R1的腦回路拆成了分子結構

2026-02-24   來源:量子位

字節Seed都開始用化學思想搞大模型了——


(資料圖片)

深度推理是共價鍵、自我反思是氫鍵、自我探索是范德華力?!

傳統的大模型長思維鏈推理基本把AI的思考過程等同于線性結構。

但很多情況下,后續的一個關鍵結論,可能需要回過頭去驗證早早提出的假設。

CoT把這種非線性的依賴關系忽略了。

字節Seed在論文《The Molecular Structure of Thought》中首次給大模型的長鏈思維定義了分子式結構。

在這種分子拓撲中,三種鍵是怎么相互配合的?

好的推理像分子結構

團隊把DeepSeek-R1、gpt-OSS等強推理模型的長鏈思維拆成一步一步的,然后給每一步之間的“跳躍”打上標簽。

打完標簽發現,所有有效的長鏈思維里,其實就三種基礎動作來回組合。

第一種叫深度推理,像共價鍵一樣結實。

通俗來說就是類似“因為A所以B,因為B所以C”的硬邏輯推進。

團隊在語義空間里做了一個很形象的量化分析,把模型的每一步思考都當成一個點,看這些點最后會散成多大一個圈。

圈子越小,說明模型越沒跑題,思考越聚焦。

結果發現,加上深度推理之后,這個散點圈直接縮水22%。

深度推理確實起到了收束雜念、鎖定核心邏輯的關鍵作用。

第二種叫自我反思,像氫鍵一樣有彈性但穩定。

類似于“等等,我剛才那步是不是想錯了”“讓我重新檢查一下前面的假設”,能把后面的思考拐回來跟前面的節點呼應上,形成一種折疊感。

團隊測了模型自我反思時的思維軌跡,把每一步思考都看成語義空間里的一個點,然后計算反思時會跳回多遠、落在哪里。

發現81.72%的反思步驟,都會精準落回之前已經形成的靠譜思路區域里。

還對比了反思前后的思維范圍,反思前,語義空間體積是35.2,反思后,直接壓縮到31.2。

再看聚類結果就更清楚了,反思之后,同一類正確思路的點會緊緊抱團,而那些零散、跑偏的分支會被自動推開。

也就是說,自我反思氫鍵能把靠譜邏輯揉得更緊實、把跑偏想法篩出去、穩住整個推理大局,讓長鏈思考不再松散混亂。

第三種叫自我探索,像范德華力一樣弱,但覆蓋面廣。

這個就類似于“要不咱們試試這個角度”“有沒有另一種可能性”,在語義空間里找新的解題路徑。

量化分析顯示,加上探索行為之后,模型在語義空間里的思維覆蓋范圍能從23.95擴大到29.22。

雖然思路一打開穩定性就會下降,容易跑偏想歪,但能讓模型跳出死胡同,不卡在局部最優解里,真正找到全新的解題路線。

研究發現,所有強推理模型的三種思維行為比例和轉換規律都高度一致,相關性超過0.9,說明有效長鏈推理存在通用的穩定拓撲結構。

你可能覺得“共價鍵”“氫鍵”只是個比喻,但論文發現,這個比喻背后藏著嚴格的數學對應。

在Transformer里,注意力權重的計算方式長這樣:

眼熟嗎?這和統計力學里的玻爾茲曼分布一模一樣:

如果把負注意力分數看作能量,那么注意力權重就是模型在語義空間里按“能量”高低選擇路徑的概率就是能量越低,被選中的概率越高

論文進一步分析了三種行為對應的“注意力能量”。

  • 深度推理通常發生在相鄰步驟之間,能量最低;
  • 自我反思會跳回較遠的步驟,能量中等;
  • 自我探索跳得更遠,能量最高.

這就解釋了為什么強推理模型的三種鍵比例如此穩定。

因為模型的注意力機制本身就在追求最低能量的推理路徑,而深度推理、反思、探索正好對應了不同距離下的能量層級。

語義同分異構體和智能熵減

接著團隊還拋出了語義同分異構體的概念。

這詞兒是借的化學,同樣的分子式,原子連接方式不同,就能搞出性質完全不同的物質。

放到推理里就是,同樣的題目,同樣的概念點,用不同的”化學鍵“組合去解,出來的推理鏈條可以完全不一樣,但都能解對。

但不是所有異構體都適合拿來教模型。

這里就要引入一個關鍵概念熵減

在熱力學里,孤立系統總是自發走向混亂(熵增),而一個有效的長鏈推理過程,本質上就是在語義空間里不斷降低不確定性——

從一堆可能的方向中,逐步收斂到唯一正確的答案。這個過程就是“熵減”。

而“注意力能量”機制,正是模型實現熵減的工具。

模型的注意力天然偏好能量更低的路徑。

當深度推理(低能量)被反復選中,反思(中等能量)把前后邏輯折疊起來,探索(高能量)偶爾探路但不喧賓奪主,整個系統的“推理熵”就會快速下降,邏輯火速收斂。

這如論文里說的,只有那些能推動熵快速降低的“化學鍵”組合,才是模型真正能學會、能持續進化的穩定態。

這在實驗中有個很典型的現象,從R1和OSS兩個不同強推理模型中蒸餾出的推理軌跡,語義層面的內容相似度高達95%,但混在一起訓練,模型反而崩潰了。

這說明,長鏈推理的關鍵是思路結構必須穩定、統一,模型才能學得會。

MoLE-Syn:從零合成穩定推理結構

發現問題就要解決問題。

基于這一整套發現,團隊搞了個叫MoLE-Syn的方法,來從零合成穩定的推理結構。

具體操作就兩步。

第一步,從強推理模型(比如R1、QwQ、gpt-OSS)的推理鏈里,抽出一張行為轉移概率圖。

這張圖里每個節點是一種推理行為(化學鍵),每條邊是從一個行為跳到另一個行為的概率。

第二步,拿著這張圖,讓普通的指令模型照著圖上畫的概率去生成推理鏈。

用這個方法從零合成的訓練數據,喂給Llama或者Qwen,效果逼近直接蒸餾R1的水平。

而且這么做有一個大好處就是成本低。只要拿到那張行為轉移圖,普通模型就能自己生產合格的長鏈推理數據。

團隊把用MoLE-Syn初始化過的模型拿去做強化學習,發現跑起來還特別穩。

相比直接用蒸餾數據初始化的模型,MoLE-Syn版的在RL過程中收益持續增長,震蕩也小得多。

這說明一開始植入的思維結構夠穩,后面的強化學習就不會出現邏輯偏移。

這項研究的負責人為字節Seed算法專家黃文灝,曾在微軟亞洲研究院擔任研究員。

第一作者是哈爾濱工業大學博士、字節Seed實習研究員陳麒光

合作單位還包括北京大學、2077AI Foundation、南京大學、M-A-P、中南大學。

不得不說,這波操作有點當年薛定諤拿物理學公式推生物學那味兒了。

給大模型推理這個卷得飛起的領域,開了個挺清爽的新腦洞。

論文地址:https://arxiv.org/abs/2601.06002

— 完 —

詞條內容僅供參考,如果您需要解決具體問題
(尤其在法律、醫學等領域),建議您咨詢相關領域專業人士。

推薦詞條

主站蜘蛛池模板: 美女视频一区 | 欧美激情一区二区视频 | 欧美日韩三级 | 色婷婷狠狠操 | 国产一二在线 | 国产在线一二 | 色婷婷一区二区三区四区 | 色综合色综合网色综合 | 日日夜夜精品视频免费 | 色婷婷综合在线 | 激情开心成人网 | 国产精品美女久久久久av爽 | 亚洲欧洲一区 | 天天草天天操 | 国产精品久久欧美久久一区 | 国产高清一二三区 | 亚洲免费在线播放 | www超碰 | 久久天天躁狠狠躁夜夜av | 免费黄色网页 | 国产精品2区 | 欧美成人天堂 | 国内自拍真实伦在线观看 | 日韩欧美自拍偷拍 | 国产精品第| 超碰人人超碰 | 日本欧美久久久久免费播放网 | 国产欧美高清 | 3d动漫啪啪精品一区二区中文字幕 | 一级片免费网站 | 黄色成年人视频 | 婷婷射图 | 亚洲天堂国产精品 | 日本一区二区三区视频在线观看 | 美女视频一区 | 久久综合欧美 | 成人网在线观看 | 国产一区二区视频在线播放 | 国产黄色一级片 | 中文字幕在线观看一区二区 | 日韩视频在线免费 |