DeepSeek的一次小更新:暴打OpenAI 追上Gemini
壞消息,次打開源模型和閉源模型的小更新暴差距越來越大了。
好消息,次打DeepSeek 又出手了。小更新暴
12 月 1 日,次打DeepSeek 發(fā)布了兩款新模型 —— DeepSeek V3.2 和 DeepSeek-V3.2-Speciale。小更新暴
前者和 GPT-5 能打的次打有來有回,后面的小更新暴高性能版更是直接把 GPT 爆了,開始和閉源模型天花板 —— Gemini 打了個五五開。次打
還在IMO 2025(國際數(shù)學(xué)奧林匹克)、小更新暴CMO 2025(中國數(shù)學(xué)奧林匹克)等一系列比賽中拿下金牌。次打
這是小更新暴這家公司今年第九次發(fā)布模型,雖然大家期待的次打 R2 還沒有來。
所以,小更新暴DeepSeek 是次打怎么用更小的數(shù)據(jù),更少的顯卡,做出能和國際巨頭來抗衡的模型?
我們翻開了他們的論文,想把這件事給大家講清楚。
為了做到這個目標(biāo),DeepSeek 又整了不少新招:
先是把咱們的老朋友 DSA —— 稀疏注意力給轉(zhuǎn)正了。
這東西在之前的 V3.2-EXP 版本里出現(xiàn)過,當(dāng)時只是測了一下 DSA 會不會影響模型的性能,現(xiàn)在是真的把這玩意給放到了主力模型上。
大家平時和大模型聊天的時候會發(fā)現(xiàn),你在一個對話框里聊的越多,模型就越容易胡言亂語。
甚至聊的太多了,還會直接不讓你聊了。
這是因為大模型原生的注意力機制導(dǎo)致的問題,在這套老邏輯的影響下,每個 token 出來,都要和前面的每一個 token 互相算在一起做一次計算。
這就導(dǎo)致了句子增長一倍,模型的計算量就得增加到原來的四倍,如果邊長到原來的三倍,計算量就變成了原來的九倍,非常麻煩。
DeepSeek 想這樣不行啊,于是就給大模型里加了固定頁數(shù)的目錄(稀疏注意力),相當(dāng)于幫模型劃重點了。
而在有了目錄之后,以后每次只需要計算這個 token 和這些目錄的關(guān)系就行了,相當(dāng)于就是看書先讀目錄,看完目錄,對哪一章感興趣,再去仔細看這章的內(nèi)容就好。
這樣一來,就能讓大模型讀長文的能力變的更強。
在下面這張圖里可以看到,隨著句子越來越長,傳統(tǒng)的 V3.1 的推理成本是越來越高。
但是用上了稀疏注意力的 3.2 則沒什么變化。。。
屬于是超級省錢冠軍了。
另一方面,DeepSeek 開始重視起了開源模型的后訓(xùn)練工作。
大模型這一套從預(yù)訓(xùn)練開始,到考試打分的過程,其實有點像是我們?nèi)祟悘男W(xué)開始,一路讀書讀到高考的過程。
前面的大規(guī)模預(yù)訓(xùn)練,相當(dāng)于從小學(xué)到高二,把所有課本、練習(xí)冊、卷子全過一遍,這一步大家都差不多,不管是閉源模型,還是開源模型,都在老老實實的念書。
但到了高考沖刺階段就不一樣了,在模型的后訓(xùn)練階段,閉源模型一般都會請名師,猛刷題,開始搞起各種強化學(xué)習(xí),最后讓模型來考一個不錯的成果。
但開源模型在這塊花的心思就比較少了,按照 DeepSeek 的說法,過去的開源模型在訓(xùn)練后階段計算投入普遍偏低。
這就導(dǎo)致這些模型可能基礎(chǔ)能力是已經(jīng)到位的了,但就是難題刷少了,結(jié)果導(dǎo)致考出來的成績不太好。
于是,DeepSeek 決定這次自己也要上名師輔導(dǎo)班,設(shè)計了一套新的強化學(xué)習(xí)協(xié)議,在預(yù)訓(xùn)練結(jié)束后,花了超過總訓(xùn)練算力的 10% 來給模型開小灶,把之前缺的這塊給補上。
同時還推出了個能思考超長時間的特殊版本 —— DeepSeek V3.2 Speciale。
這玩意的思路是這樣的:
過去的大模型因為上下文長度有限制,所以在訓(xùn)練的時候都會做一些標(biāo)注懲罰的工作,如果模型深度思考的內(nèi)容太長了,那就會扣分。
而到了 DeepSeek V3.2 Speciale 這兒,所以 DeepSeek 干脆取消掉了這個扣分項,反而鼓勵模型想思考多久就思考多久,想怎么思考就怎么思考。
最終,讓這個全新的 DeepSeek V3.2 Speciale 成功的和前幾天爆火的 Gemini 3 打的有來有回。
此外DeepSeek 還很重視模型在智能體方面能力。
一方面,為了提高模型的基礎(chǔ)能力,DeepSeek 構(gòu)建了一個虛擬環(huán)境,合成了成千上萬條數(shù)據(jù)來輔助訓(xùn)練。
DeepSeek-V3.2 用 24667 個真實代碼環(huán)境任務(wù)、50275 個真實搜索任務(wù)、4417 個合成通用 agent 場景、5908 個真實的代碼解釋任務(wù)做后訓(xùn)練。
另一方面,DeepSeek 還優(yōu)化了模型使用各種工具的流程。
以前幾代 DeepSeek 的一個典型毛病是:會把思考和用工具給分開。
模型一旦去調(diào)用外部工具,前面那段思考基本就算寫完收工了,等工具查完結(jié)果再回來,它往往又要重新鋪一遍思路。
這就導(dǎo)致一種很蠢的體驗——哪怕只是去查一下“今天幾月幾號” 這種小事,模型也會從頭開始重建整套推理鏈,非常浪費時間。。。
在 V3.2 這里,DeepSeek 忍不了了,直接把這套邏輯推翻重做。
現(xiàn)在的規(guī)則變成:在一整串工具調(diào)用的過程中,模型的“思考過程”會一直保留下來,只有當(dāng)用戶發(fā)來一條新的提問時,才會重置這一輪推理;而工具的調(diào)用記錄和結(jié)果,會像聊天記錄一樣一直留在上下文里。
通過這修改模型架構(gòu),重視后訓(xùn)練,強化 Agent 能力的三板斧,DeepSeek 才終于讓自己的新模型,有了能和世界頂尖開源模型再次一戰(zhàn)的能力。
當(dāng)然,即使做了這么多改進,DeepSeek 的表現(xiàn)也算不上完美。
但托尼最喜歡 DeepSeek 的一點,就是他們愿意承認自己的不足。
而且還會直接在論文里寫出來。
比如這次論文就提到了,這次的 DeepSeek V3.2 Speciale 雖然能和谷歌的 Gemini 3 Pro 來打的五五開。
但是要回答相同的問題,DeepSeek 需要花費更多的 token。
我自己也測試了一下,從“人類的最終考試” 的題庫里隨便抽了道題目,同時丟給 Gemini 3 Pro 和 DeepSeek V3.2 Speciale 這兩個模型。
題目是:
蜂鳥類在足形目中獨特地擁有雙側(cè)成對的橢圓形骨,這是一種嵌入在膨脹的十字翼腱膜的尾狀骨中,嵌入壓低多粒骨的尾狀骨。這塊籽骨支撐著多少對對腱?請用數(shù)字回答。
結(jié)果發(fā)現(xiàn) Gemini 只要 4972 個 Tokens 就能把問題給答出來。
而到了 DeepSeek 這邊,則用了 8077 個 Tokens 才把問題給搞明白。
光看用量的話,DeepSeek 的的 Tokens 消耗量高了快六成,確實是有不小的差距。
但是話又說回來了。
DeepSeek 雖然消耗的 token 多,但是人家價格便宜啊。。。
還是剛才那個問題,我回頭仔細看了眼賬單。
DeepSeek 8000 多個 tokens,花了我 0.0032 美元。
但谷歌這邊,5000 個 tokens 不到,給我干掉了 0.06 刀?這塊要比 DeepSeek 高了有 20 倍了。
從這個角度上來看,怎么感覺還是 DeepSeek 更香一些。。。
最后,讓我們回到論文的開頭。
正如 DeepSeek 所言,最近半年來,開源模型和閉源模型的差距正在不斷加大。
但他們還是用自己的方式,在不斷追趕這份差距。
而 DeepSeek 的各種節(jié)省算力,節(jié)約數(shù)據(jù)的操作,其實讓我想到了上個月,一場關(guān)于 Ilya Sutskever 的訪談。
這位 OpenAI 曾經(jīng)的靈魂人物認為,只靠一味的給模型堆參數(shù),是沒有未來的。
AlexNet只用了兩塊GPU。Transformer剛出現(xiàn)時的實驗規(guī)模,大多在8~64塊GPU范圍內(nèi)。按今天的標(biāo)準(zhǔn)看,那甚至相當(dāng)于幾塊GPU的規(guī)模,ResNet也一樣。沒有哪篇論文靠龐大的集群才能完成。
比起算力的堆砌,對算法的研究也一樣重要。
這正是 DeepSeek 在做的事情。
從 V2 的 MoE,到 V3 的多頭潛在注意力(MLA),再到如今 DeepSeek Math V2 的自驗證機制,V3.2 的稀疏注意力(DSA)。
DeepSeek 展現(xiàn)給我們進步,從來都不是單一的,依靠堆砌參數(shù)規(guī)模所帶來的提升。
而是在想辦法,如何用有限的數(shù)據(jù),來堆積出更多的智能。
巧婦狂作無米之炊
所以,R2 什么時候來呢?
-
三星Galaxy Z TriFold供不應(yīng)求:數(shù)百人排隊瘋搶 兩分鐘內(nèi)售罄文旅部提醒中國游客近期避免前往日本旅游專家:日本擴軍備戰(zhàn)套路,與二戰(zhàn)前高度相似(粵港澳全運會)朱雨玲:此次全運會沒留遺憾 已達到對自己要求比亞迪香港第20000輛車交付:陳豪、陳茵媺成騰勢N9、D9雙車主(粵港澳全運會)鞏立姣全運會“五連冠” 傳奇謝幕銳龍AI Max+ 395領(lǐng)銜!AMD啟動中國高校AI教育“春雨”計劃銷量、營收均創(chuàng)史上新高!吉利汽車三季度凈賺39億元買PS5的錢回來了! 《寂靜嶺f》主演加藤小夏成為PS品牌大使寧德時代市值蒸發(fā)近千億!聯(lián)合創(chuàng)始人擬百億級減持
- ·微軟為Win11 AI上“隱私鎖”:訪問用戶文件前會先請求許可
- ·合資MPV一哥的實力!別克GL8陸尚第5萬臺整車下線
- ·超頻三RZ620M X風(fēng)冷散熱器首發(fā)219元起:小型雙塔設(shè)計 三角散熱鰭片
- ·(粵港澳全運會)鞏立姣全運會“五連冠” 傳奇謝幕
- ·AMD蘇姿豐到訪中國 率高管團隊親臨聯(lián)想全球總部
- ·新榮耀獨立五周年!CEO李健發(fā)文:感謝用戶、團隊、伙伴
- ·華為Mate 80系列官圖來了:全新雙環(huán)設(shè)計 史上最美Mate
- ·小米超級小愛AI大模型隨心修圖上線 一句話搞定P圖
- ·比預(yù)售便宜1.8萬!長城歐拉首款SUV歐拉5上市:煥新價9.18萬元起
- ·大疆官方回應(yīng):投資3D打印公司消息屬實
- ·(粵港澳全運會)王曼昱:無論誰奪冠都值得被認可
- ·盒馬前CEO侯毅回應(yīng)“派特鮮生”門店關(guān)閉:將退出寵物實體門店市場,會保留少量線上部分
- ·王興興回憶宇樹科技第一桶金:比賽得了二等獎有8萬元獎金
- ·搜狐2025Q3扭虧為盈!總收入1.80億美元 張朝陽稱游戲利潤遠超預(yù)期
- ·聯(lián)想控股CEO李蓬辭職:于浩接任
- ·大疆官方回應(yīng):投資3D打印公司消息屬實
- ·顏值與實力并存!ROG夜神RTX5080 RO姬x初音未來版顯卡
- ·下周開庭!特斯拉起訴無憂傳媒
- ·12月中旬將全部關(guān)閉!盒馬創(chuàng)始人今年創(chuàng)立的派特鮮生“黃了”
- ·新東方員工吐槽俞敏洪內(nèi)部信:老板在南極玩 我在辦公室打工
- ·歐洲承諾向烏克蘭派遣多國部隊
- ·分辨率優(yōu)于0.5米!三顆新的吉林一號高分衛(wèi)星出征
- ·“AI雪景”成全球現(xiàn)象級功能 美圖秀秀登頂29國應(yīng)用總榜
- ·2025年全球服裝市場規(guī)模預(yù)計達1.84萬億美元
- ·車百會理事長張永偉:預(yù)計2026年國內(nèi)汽車市場增長2%,高端品牌是高科技而不是高價格
- ·新款iPhone Air延后上市:關(guān)鍵原因不是銷量差!
- ·魏建軍:現(xiàn)在有一些車企會忽悠用戶 宣傳功能過度夸張
- ·劉強東直播炒卷餅尖椒小魚和醬豆炒蛋:小時候 補充蛋白質(zhì)就靠它們
- ·聯(lián)合國全球契約組織駐華代表劉萌出席TCL華星全球顯示生態(tài)大會
- ·(粵港澳全運會)朱雨玲:此次全運會沒留遺憾 已達到對自己要求
- ·(年終特稿)出彩、出圈、出海,中國向世界呈現(xiàn)文化新樣貌
- ·越來越多國產(chǎn)車不支持Carplay 陳震:車機夠好用 沒必要連手機
- ·實測京東外賣獨立App:外賣訂單提前完成配送,暫不見“京東點評”功能
- ·京東七鮮咖啡亮相 劉強東:我已喝幾十杯 不能說最好 已經(jīng)相當(dāng)不錯
- ·摩爾線程拿下頂級圖形大會3DGS挑戰(zhàn)賽銀獎:自研LiteGS技術(shù)全面開源
- ·超頻三RZ620M X風(fēng)冷散熱器首發(fā)219元起:小型雙塔設(shè)計 三角散熱鰭片
