【券商聚焦】伯恩斯坦更新中國AI推理利潤率模型 關注DeepSeek-V4與騰訊進展
金吾財訊 | 伯恩斯坦(Bernstein)於2026年4月27日發佈研報,更新其中國互聯網AI token經濟學模型,基於來自中國頭部AI實驗室的反饋調整關鍵假設,並對DeepSeek-V4及騰訊hy3-preview模型進行點評。研報覆蓋的主要個股評級包括騰訊控股(00700)爲“跑贏大盤”,目標價780港元;阿里巴巴(BABA/09988)爲“跑贏大盤”,目標價180美元/176港元;拼多多(PDD)爲“與大市同步”,目標價132美元;美團爲“與大市同步”,目標價85港元;網易(NTES)爲“跑贏大盤”,目標價150美元;BOSS直聘(BZ)爲“與大市同步”,目標價16.5美元;京東(JD)爲“跑贏大盤”,目標價36美元。
研報核心聚焦推理利潤率模型調整。根據Minimax指引,其M2.7模型的文本/編碼推理毛利率約爲40%,這一數據促使伯恩斯坦大幅上調了每秒token吞吐量(TPS)假設。更新後模型假設M2.7的每GPU TPS爲9000 tok/s,利用率90%,GPU每小時成本1.6美元,對應推理成本爲每百萬token 0.05美元,在假設20%商業折扣後,M2.7推理毛利率爲42.5%。相比之下,Z.ai的GLM-5模型每GPU TPS爲1800 tok/s,推理成本每百萬token 0.31美元,毛利率33.9%;GLM-5.1模型TPS爲2000 tok/s,毛利率50.3%。伯恩斯坦指出,儘管Minimax的TPS遠高於Z.ai,但考慮活躍參數規模與TPS的負相關關係,Z.ai的前沿模型在同等折扣下仍可能擁有更高利潤率。
多模態推理是利潤率更高的細分領域。Minimax證實其多模態工作負載(如視頻生成、文本轉語音)的每百萬token收入(Rev/Mtok)顯著高於文本/編碼,例如Hailuo視頻生成512p 6s的Rev/Mtok約爲12美元,而文本/編碼約0.15美元。2026年以來,受OpenClaw及通用智能體AI需求激增推動,文本/編碼工作負載佔增量增長更大部分。研報認爲,輕量低成本模型市場的價格競爭將保持激烈,而前沿智能模型仍可維持一定定價能力。
關於DeepSeek-V4,伯恩斯坦首次觀察認爲其“接近數月前的全球SOTA水平,但成本顯著更低”,不過與國內同行(如Qwen、Z.ai、Kimi)的差距已縮小。V4-Pro按典型工作負載組合計算的混合Rev/Mtok約1美元,與GLM-5.1和Qwen3.6 Max相當,但發佈不到24小時即推出75%的限時折扣,凸顯用戶獲取策略的激進。
V4-Flash定價處於輕量模型的價格下限。騰訊hy3-preview被定位爲過渡性產品,定價同樣偏低,其價值在於驗證騰訊能否通過重建AI數據與基礎設施組織實現更快的模型迭代,以及何時能推出自己的“Muse Spark時刻”(更大規模模型)。
風險方面,研報隱含的行業主要不確定性包括模型能力差距收窄帶來的價格競爭加劇、商業折扣對收入的實際影響、以及騰訊等巨頭自研模型迭代速度的不確定性。估值層面,基於2026年預測,騰訊PE爲14.6倍、阿里巴巴31.4倍、拼多多8.2倍、美團不適用(因盈利基數較低)、網易12.8倍、BOSS直聘11.0倍、京東10.3倍。伯恩斯坦認爲,未來比較各實驗室報告利潤率與理論利潤率將揭示硬件和軟件優化水平的差異。













