tradingkey.logo
搜索

黃仁勳親自「定義」英偉達:將「電子」轉為「Token」的轉換器

老虎资讯2026年4月16日 05:22
facebooktwitterlinkedin

「輸入是電子,輸出是Token,中間是英偉達。」黃仁勳首次拋出英偉達的極簡定義,並以此為核心闡釋了公司的供應鏈護城河、對TPU競爭的不屑、堅持不自己做雲服務的哲學。他強調,英偉達提供的是覆蓋全科學領域的加速計算平台,其成本優勢在於最優的TCO(總擁有成本)與每瓦特Token產出。他表示,絕不對GPU進行「價高者得」的競價售賣,也不會放棄中國市場。

英偉達(NVDA)CEO黃仁勳用一句話定義了自己的公司:輸入是電子,輸出是Token,中間是英偉達。

4月15日,英偉達CEO黃仁勳接受播客主持人Dwarkesh Patel的深度訪談,內容涵蓋英偉達的供應鏈護城河、TPU競爭威脅,以及英偉達為何不自己做雲服務等問題。

英偉達:「電子」—「Token」轉換器

訪談開篇,主持人提出了一個尖銳問題:英偉達本質上只是寫軟件,晶片由台積電(TSM)製造,記憶體由SK 海力士、美光(MU)、三星(SMSN.UK)提供,封裝由台灣ODM廠商完成——如果軟件被商品化,英偉達會不會也被商品化?

黃仁勳給出了他對英偉達最精煉的定義:

最終,需要有某個東西把電子轉化成Token。把電子轉化成Token,並且讓這些Token隨時間變得更有價值,這件事很難被完全商品化。

他進一步說:「輸入是電子,輸出是Token,中間是英偉達。我們的工作是盡可能高效地完成這一轉化。」

在供應鏈層面,外界關注的焦點是英偉達的採購承諾規模——最新財報顯示接近1000億美元,行業分析機構SemiAnalysis預測這一數字未來可能達到2500億美元。黃仁勳解釋了這背後的邏輯:

如果未來幾年是萬億美元規模,我們的供應鏈能支撐它。

他說,這種能力並非單純來自合約,而來自對上游CEO的持續「告知、激勵和對齊」——讓他們看清AI產業的規模和方向,然後願意為英偉達的需求進行投資。CoWoS封裝是典型案例:兩年前是全行業最緊缺的瓶頸,英偉達「連續幾個翻倍」地擴產之後,現已基本不再是話題。

他判斷,供應鏈上的任何瓶頸都不會持續超過兩三年:「EUV機器、邏輯產能、封裝——這些東西都不難複製,只需要需求信號。」他認為真正的長期制約在下游:能源政策。「你不能在沒有電力的情況下建立一個工業,這才是需要時間的事情。」

TPU競爭:沒有一家敢來跑基準測試

雲巨頭(Hyperscalers)貢獻了英偉達約60%的收入,但谷歌(GOOG)、亞馬遜(AMZN)、甚至OpenAI等大客戶都在加碼自研TPU或其他ASIC晶片,這直接質疑英偉達的競爭地位。

黃仁勳的回應分兩層。

第一層是定性區分:英偉達做的是「加速計算」,而不是專用張量處理單元。加速計算覆蓋分子動力學、流體力學、數據處理、量子計算等幾乎所有科學計算領域,遠比AI更寬。

我們是唯一一家加速所有類型應用的公司。

第二層,黃仁勳稱,全球沒有任何一個平台的性能和總擁有成本能優於英偉達,谷歌(GOOGL)TPU、亞馬遜Trainium都無法與之匹敵,我並不認可Trainium所宣稱的40%成本優勢。英偉達毛利率能達到70%,而ASIC晶片毛利率約為65%,企業替換產品並不能實現顯著的成本節省。

英偉達的計算棧是全球最佳性價比,沒有例外。沒有一家公司能向我證明,今天世界上有任何平台的AI數據中心的總擁有成本(TCO)比我們更好。沒有。Dylan的InferenceMAX擺在那裏供所有人用,TPU不來,Trainium不來。

對於Anthropic大量使用TPU的問題,黃仁勳直接回應:

Anthropic是一個特例,不是趨勢。沒有Anthropic,TPU的增長從哪裏來?是100%來自Anthropic。沒有Anthropic,Trainium的增長從哪裏來?也是100%來自Anthropic。

他也坦承,早年未能及時向Anthropic進行戰略投資是自己的判斷失誤:

當時谷歌和亞馬遜AWS投入了大量資金,Anthropic因此使用了他們的算力。我當時沒有深刻意識到,風投根本不可能給一家AI實驗室投50億、100億美元。這是我的失誤。但我不會再犯同樣的錯誤。

目前,黃仁勳已分別對OpenAI和Anthropic進行了大規模投資,據報道金額分別高達300億和100億美元。

為甚麼不做雲?「盡可能少做」是哲學

手握巨額現金流,英偉達近期頻頻向CoreWeave(CRWV)等初創雲服務商提供資金和算力支持。市場猜測,英偉達是否會越過客戶,親自下場做超大規模雲服務商,收取算力租用費?

黃仁勳的回答涉及公司哲學:

我們應該做盡可能必要的事,做盡可能少的事。我們做的這些事,如果我們不做,我真的相信它們就不會發生。但雲服務?如果我不做,有人會來做的。

他舉了CoreWeave、Nscale、Nebius(NBIS)等「新雲」作為例子——這些公司若沒有英偉達的早期投資和支持,根本不會存在。但英偉達的介入是「讓生態繁榮」,而不是轉行做金融租賃或雲計算營運。

他對於「不挑贏家」也有明確表態:「當我投資其中一家,我會投資所有家。」理由是:英偉達自己當年在60家3D圖形公司中幾乎是被公認「最不可能活下來」的一家,「我有足夠的謙遜來認識到這一點。」

堅守賣鏟人定位,GPU分配絕不搞「價高者得」

在供需極度失衡的背景下,英偉達如何分配緊俏的GPU?黃仁勳明確否認了「價高者得」的市場傳聞。

我們絕不會那樣做,這是糟糕的商業行為。你定好價格,然後人們決定是否購買。

黃仁勳解釋了英偉達的分配邏輯:優先考察客戶的排產預測和採購訂單(PO),其次看客戶數據中心的就緒程度,最終遵循先到先得的原則。「我更希望成為行業可靠的基石。如果你下達了1000億美元的AI工廠訂單,沒問題,全世界只有我們能給你這種確定性承諾。」

不會放棄全球第二大市場

針對當前的晶片出口管制,黃仁勳從商業與技術標準的角度表達了務實的看法。

他指出,算力只是AI產業的底層輸入,當受到約束時,競爭對手可以通過堆疊更多能源、使用更多上一代晶片,以及優化算法來彌補硬件代差。

他表示,首先要認識到:中國並不缺晶片。他們擁有全球頂尖的計算機科學家,眾所周知,這些AI實驗室裏的AI研究人員有相當大比例是中國人。他們擁有全球約50%的AI研究人員。

他們是競爭對手,我們希望美國勝出,但我認為進行對話和研究交流可能是最安全的做法。放棄整個市場不會讓美國長期在技術競賽中在晶片層、計算堆棧中獲勝。這是一個事實。

CUDA生態系統與飛輪效應

英偉達的核心競爭壁壘就是成熟的開發生態,GPU全球裝機量達到數億級別,應用場景實現全面覆蓋。

行業發展飛輪效應清晰,依靠最大的裝機量、可編程的架構、豐富的生態體系以及全球海量的AI公司,形成強勁發展動力。再加上性價比、能效、客戶基數均處於全球領先地位,進一步推動發展飛輪持續運轉。

架構優勢(對比ASIC/TPU)

黃仁勳表示,傳統摩爾定律每年性能增長約25%,想要實現10到100倍的性能飛躍,必須依靠算法與計算架構的雙重革新。Blackwell架構的能效相比Hopper架構提升50倍,這一成果絕非單純依靠晶體管進步就能實現,架構優化與計算機科學創新才是核心關鍵。該架構支持全流程可編程以及全棧協同設計,依託NVLink、Spectrum-X技術實現,沒有CUDA生態根本無法完成。對於產品路線圖與發布節奏。黃仁勳透露,英偉達產品會保持年度穩定迭代,從Vera Rubin到Vera Rubin Ultra,再到Feynman,每年都會推出穩定升級的新品。同時我們是全球唯一一家,能夠承接從1000萬美元到1000億美元任意規模AI算力訂單的企業。

訪談文字實錄(略有刪減)

章節目錄

(00:00:00) 英偉達最大的護城河,是否在於對稀缺供應鏈的掌控?

(00:16:25) TPU能否打破英偉達對AI算力的壟斷?

(00:41:06) 英偉達為何不轉型為超大規模雲服務商?

(01:35:06) 英偉達為何不同時開發多種不同的晶片架構?

00:00:00——英偉達最大的護城河,是否在於對稀缺供應鏈的掌控?

Dwarkesh Patel

我們看到許多軟件公司的估值大幅下跌,因為人們預期AI將使軟件商品化。有一種可能過於簡單的看法是:英偉達把GDS2文件發給台積電,台積電製造邏輯晶片和交換機,再與SK海力士、美光和三星期產的HBM一起封裝,然後發往台灣的ODM廠商組裝成機架。英偉達本質上是在做軟件,而製造由他人完成。如果軟件被商品化,英偉達是否也會被商品化?

Jensen Huang

歸根結底,總需要有某種東西把電子轉化為Token。將電子轉化為Token,並持續提升Token的價值,這件事很難被徹底商品化。這個轉化過程本身就是一段了不起的旅程——讓這個Token變得有價值,就像讓一個分子比另一個分子更珍貴,讓一個Token比另一個Token更珍貴。其中涉及的藝術性、工程智慧、科學原理和創新發明,我們正在實時見證這一切的發生。這個轉化過程、這套製造體系、所有的科學積累,遠未被深刻理解,這段旅程也遠未結束。我不認為商品化會發生。

我們當然會持續提升效率。你描述問題的框架,正是我理解這家公司的方式:輸入是電子,輸出是Token,英偉達在中間。我們的職責是:在實現這種轉化的過程中,做一切必要的事,同時盡可能少做。所謂「盡可能少做」,就是凡是我不需要親自完成的,我都找合作夥伴來做,納入我的生態系統。

如果你今天審視英偉達,我們可能擁有全球最大的合作夥伴生態系統,上游有供應鏈,下游有所有計算機公司、應用開發者和模型創造者。AI是一塊五層蛋糕,我們在整個五層都擁有生態系統。我們盡可能少做,但我們必須親自完成的那部分,恰恰是極其困難的事,我不認為那會被商品化。

事實上,我也不認為企業軟件公司或工具製造商會被商品化。如今大多數軟件公司都是工具製造商,也有一些是工作流程編碼系統。但就工具製造商而言,Excel是工具,PowerPoint是工具,Cadence做工具,Synopsys做工具——我看到的前景與很多人恰恰相反。我認為AI智能體的數量將會指數級增長,工具使用者的數量也將指數級增長,各類工具的實例數量極有可能會急速飆升。

Synopsys Design Compiler的實例數量很可能會急劇增加,使用平面規劃器、佈局工具和設計規則檢查器的智能體數量也會如此。如今我們受限於工程師的數量,但將來,這些工程師將得到大批智能體的支持。我們將以前所未有的方式探索設計空間,而我們使用的,正是今天這些工具。

我認為工具使用的爆發將推動軟件公司的價值飆升。之所以尚未發生,是因為智能體使用工具的能力還不夠強。未來,要麼這些公司自己打造智能體,要麼智能體本身足夠強大,能夠運用這些工具。我認為兩種情況都會發生。

Dwarkesh Patel

根據你們最新的財務文件,英偉達在晶圓廠、記憶體和封裝方面的採購承諾接近1000億美元。SemiAnalysis報道稱,這類採購承諾總額將達到2500億美元。有一種解讀認為,英偉達真正的護城河,在於你們鎖定了未來多年所需的稀缺元器件供應。競爭對手或許能做出一款加速晶片,但他們能拿到所需的記憶體來製造嗎?能拿到邏輯晶片來製造嗎?這真的是英偉達未來幾年最大的護城河嗎?

Jensen Huang

這是我們能做、而他人難以複製的事情之一。我們在上游做出了巨大承諾,有些是你提到的顯性承諾,有些則是隱性的。舉個例子,上游的許多投資,是由我們的供應鏈合作夥伴主動做出的,因為我曾對那些CEO們說:「讓我告訴你這個行業將會有多大,讓我解釋為甚麼,讓我和你一起推演,讓我展示給你看我所看到的未來。」

正是通過這個告知、激勵、與各行業上游CEO達成共識的過程,他們願意做出投資。為甚麼他們願意為我而不是為別人投資?因為他們知道,我有能力消化他們的產能,並通過我的下游渠道銷售出去。英偉達的下游供應鏈規模和下游需求體量如此龐大,所以他們才願意在上游持續投入。

看看GTC,人們驚歎於它的規模和與會者的構成——整個AI宇宙匯聚一堂,因為他們彼此都需要見到對方。我把他們聚在一起,讓下游看到上游,上游看到下游,所有人共同見證AI的進步。更重要的是,他們都能親眼看到那些AI原生公司、那些正在構建的AI初創企業,以及所有令人振奮的發展,親身印證我所描述的一切。我花了大量時間,直接或間接地讓我們的供應鏈、合作夥伴和生態系統,了解我們面前的機遇。

有人說,在大多數科技發佈會上,都是一個接一個的公告,但我們的發佈會總有一部分有些「折磨人」,因為它更像是在傳授知識。事實上,這正是我的用意。我需要確保整個供應鏈的上游下游,以及整個生態系統,都理解即將到來的是甚麼,為甚麼會來,甚麼時候會來,規模會有多大,並且能夠像我一樣系統地進行推演。

關於你描述的護城河,我們之所以能夠為未來做好準備,是因為:如果未來幾年的規模達到萬億美元,我們有供應鏈來支撐它。沒有我們的影響力和業務的高速運轉——就像現金流帶來供應鏈流動和業務周轉——沒有人會為一個業務周轉率低的架構專門建設供應鏈。我們能夠維持這種規模,恰恰是因為我們的下游需求如此旺盛,而他們看到了這一切,聽到了這一切,一切都歷歷在目。這才使我們得以在如此規模上做成今天能做的事。

Dwarkesh Patel

我想更具體地了解,上游供應鏈能否跟上。多年來,你們的營收一直在逐年翻倍,每年向全球提供的算力也在以翻倍以上的速度增長。

Jensen Huang

而且在如今這個規模上繼續翻倍,是真的了不起。

Dwarkesh Patel

正是如此。但再看邏輯晶片這一環——你們是台積電N3節點最大的客戶,也是N2節點最大客戶之一。根據SemiAnalysis的數據,AI今年將佔N3產能的60%,明年將達到86%。你已經是多數,還怎麼翻倍?又如何年復一年地持續下去?我們是否已經進入了一個AI算力增長必須因上游瓶頸而放緩的階段?你有沒有破局之法?歸根結底,我們怎樣才能每年新建兩倍的晶圓廠?

Jensen Huang

在某種程度上,瞬時需求始終大於全球的供給能力。在任何時刻,我們都可能受限於某一環節的產能——水暖工短缺就是個真實案例。

Dwarkesh Patel

水暖工要被邀請參加明年的GTC了。

Jensen Huang

其實這是個好主意。但瞬時需求大於總供給,本身是個好現象。你希望身處一個供不應求的行業,反過來才糟糕。如果某個特定元器件的缺口過大,整個行業就會蜂擁而至,集中攻克。舉個例子,注意現在幾乎沒人再談CoWoS了。

原因就在於過去兩年我們已經全力以赴、連續翻倍地擴產。如今CoWoS的供給已經相當充裕。台積電現在明白,CoWoS的供給必須與邏輯晶片和記憶體的需求同步擴張,並以相同的節奏規模化CoWoS及未來的封裝技術。這是一大進步——過去很長一段時間,CoWoS和HBM記憶體都是相當小眾的專業品,但如今它們已經是主流計算技術,整個行業都意識到了這一點。

當然,我們現在也能對更廣泛的供應鏈施加更大的影響。AI革命之初,我今天所說的這些話,五年前我就已經在說了。一些人相信了並付諸行動,比如Sanjay和美光團隊。我至今清楚地記得那次會議,當時我明確說明了即將發生甚麼、為甚麼會發生,以及對今日的預判。他們真的All-in了,我們在LPDDR和HBM記憶體領域開展了深度合作,他們為此大力投資,這對美光來說顯然是一段非凡的旅程。有些人來得稍晚,但現在他們都到位了。

每一個瓶頸都會受到高度關注,而我們現在已經提前數年預判下一個瓶頸。比如,過去幾年我們在Lumentum、Coherent以及硅光子生態系統上的投資,從根本上重塑了供應鏈。我們圍繞台積電構建了一整套供應鏈,與他們合作推進COUPE項目,發明了一系列新技術,並將這些專利授權給整個供應鏈,以保持其開放性。

我們通過發明新技術、新工藝、雙面探針測試等新型測試設備,以及投資企業、幫助其擴大產能等方式,主動塑造生態系統,確保供應鏈隨時準備好支撐所需的規模。

Dwarkesh Patel

有些瓶頸似乎比其他的更容易解決。擴大CoWoS產能,對比擴大——

Jensen Huang

我直接說最難的那個。

Dwarkesh Patel

是甚麼?

Jensen Huang

水暖工,還有電工。這也是我對「末日論者」渲染工作終結、大規模失業的說法感到擔憂的原因之一。如果我們把人嚇退出軟件工程這個行業,我們就會面臨軟件工程師短缺的問題。十年前也有過類似的預言——有些末日論者告訴大家,無論如何都不要去做放射科醫生。你或許還能在網上找到這些影片,聲稱放射科會是第一個消亡的職業,世界將不再需要放射科醫生。現在我們短缺的是甚麼?恰恰是放射科醫生。

Dwarkesh Patel

回到剛才關於哪些東西可以擴展、哪些不能的話題——邏輯晶片的產量,究竟如何實現每年翻倍?歸根結底,記憶體和邏輯晶片的產能都受限於EUV光刻機。我們怎樣才能每年擁有兩倍的EUV機器?

Jensen Huang

這些都不是短期內無法快速擴展的問題。在兩三年內完全可以實現,關鍵是要有明確的需求信號。一旦你能造出一台,就能造出十台,造出十台就能造出一百萬台。這些東西並不難複製。

Dwarkesh Patel

你會深入到供應鏈的哪個層級去溝通?比如,你會直接去找ASML(ASML)說:「如果三年後英偉達要做到年營收兩萬億美元,我們需要更多的EUV光刻機」嗎?

Jensen Huang

有些狀況需要我親自去溝通,有些可以間接推動,還有一部分…… 只要我說服台積電,ASML 自然也會跟著被說服。我們必須鎖定關鍵瓶頸節點;只要台積電完全認同,短短幾年內,就能取得充足的 EUV 曝光機台。

我的核心看法是:任何一項產業瓶頸,持續時間都不會超過兩三年。與此同時,我們持續把運算效率提升 10 倍、20 倍,從 Hopper 架構一路到 Blackwell,效能甚至拉高 30 至 50 倍。

透過 CUDA 高度的靈活性,我們不斷推出全新演算法、研發各項新技術,在擴大產能的同時,持續帶動效率升級。這些問題我完全不擔心。

真正讓我憂慮的,是下游層面的隱憂:能源政策拖慢能源發展,沒有充足能源,任何產業都無法落地興建。

美國想要重新工業化、引回晶片製造、電腦組裝與封測產業,也要發展電動車、機器人、AI 工廠等新興領域,而這一切全都仰賴能源。能源基礎建設的建設週期極長。

相較之下,擴增晶片產能、提升 CoWoS 產能,都只是兩到三年就能解決的問題。


Dwarkesh Patel:

很有意思。我聽過不少來賓剛好持相反看法,但這塊領域我專業不足,無法判斷誰對誰錯。

黃仁勳:

幸好,你現在正在跟業內頂尖專家對談。

一、TPU 能否打破輝達 AI 算力壟斷?

Dwarkesh Patel:

沒錯。我想聊聊你的競爭對手。

全球前三大 AI 模型之中,Claude 與 Gemini,全都以 TPU 做訓練。這件事,對輝達的未來代表什麼?

黃仁勳:

我們做的是完全不同的東西

輝達主打「加速運算」,並非單純張量處理器。

加速運算的應用場景極為廣泛:分子動力學、量子色動力學、數據處理、各式數據框架、結構化與非結構化數據、流體力學、粒子物理,AI 只不過是其中一環。

加速運算的多元性遠遠高出一截。

即便 AI 是當下最熱門的議題、影響力龐大,但運算的邊界遠比 AI 更遼闊。

輝達從根本重新定義運算模式,從傳統通用運算,全面轉向加速運算。

我們的市場覆蓋範圍,遠遠超越任何 TPU 或 ASIC 的極限。

以產業定位來看,輝達是全球唯一能全場景加速各類應用的企業,並且擁有龐大生態系,絕大多數框架、演算法都能在輝達平台順利執行。

我們的運算平台,一開始就設計成開放給第三方營運;任何營運商都能直接採購我們的系統。

反觀多數自研晶片,多半只能內部自用,一開始就沒有規劃開放給外部企業彈性使用。

也正因任何人都能部署、營運我們的設備,輝達才能全面進駐各大雲端,包含谷歌、亞馬遜、微軟 Azure 與 OCI。

不論你是要對外出租算力、或是自建內部運算中心,我們都能完整支援。

就像我們協助馬斯克的 xAI 一樣。

舉例來說,禮來這類大型藥廠,能透過我們的超級電腦,投入藥物研發與生命科學研究,這些領域都是 TPU 無法覆蓋、卻是輝達的強項。

市面上有大量 TPU 無法處理的場景,全都在我們的服務範圍內。

輝達透過 CUDA 建構完整的張量運算能力,同時串聯數據處理、科學運算與 AI 完整生命週期。

我們的市場規模與發展空間,完全不在同一個層次。

也因為支援全球絕大多數應用,輝達硬體能隨處部署、隨處落地,自然形成完全不同的競爭格局。

Dwarkesh Patel:

我換個角度提問。

你們單季營收高達 600 億美元,獲利驚人,但核心獲利並非來自製藥或量子運算,而是高速爆發的 AI 產業

關鍵問題是:什麼才是對 AI 長遠發展最有利的選項?

我的 AI 研究員朋友常說:TPU 是大規模陣列架構,完美契合 AI 重複的矩陣乘法運算;

而 GPU 勝在彈性,適合大量分支邏輯、不規則記憶體存取的複雜場景。

但 AI 的本質,就是不斷重複、高度規律的矩陣運算。

根本不需要額外消耗晶片面積,去做執行緒排程、記憶體切換這類設計。

TPU 正是針對當下成長最快的算力需求,做極致最佳化。

我很好奇,你對這段說法有什麼看法?

黃仁勳:

矩陣乘法確實是 AI 的核心,但絕對不是全部

如果你要研發全新注意力機制、解耦架構,或是開發混合 SSM 這類全新模型架構,就必須仰賴可高度程式化的通用運算架構。

如果想結合擴散模型與自生成技術,同樣需要高彈性的開發環境。

我們能跑任何你想像得到的演算法,這才是核心優勢:大幅降低新演算法的研發門檻

AI 之所以能快速迭代進步,正是因為持續不斷的架構創新、演算法革新。

TPU 和多數硬體一樣,都受摩爾定律限制,每年效能增幅大約只有 25%。

想要達成 10 倍、甚至 100 倍的效能躍升,唯一方式,就是從底層翻轉演算法與運算邏輯。

這就是輝達的根本優勢。

Blackwell 相較 Hopper 實現 50 倍效能提升,就是最好證據。

當初我預估提升 35 倍,外界普遍質疑,後續驗證才發現實際增幅更高。

單靠晶體體微縮,永遠不可能做到這種等級的突破。

我們的突破,來自全新模型架構,例如 MoE 混合專家模型,在同一套運算系統內,實現平行化、解耦與分散式部署。

如果沒有 CUDA 的高度可程式性,這類創新根本無從實現。

Dwarkesh Patel:

這也牽扯到輝達的客戶結構。

你們超過六成營收,來自五大頂級雲端巨頭。

早期學界、實驗室研究團隊高度依賴 CUDA,只能在 GPU 上執行 PyTorch,仰賴完整最佳化生態。

但現在這些頂級雲端大廠,都有足夠資源自研核心內核。

為了在自有架構榨出最後 5% 效能,他們也必須自定義開發。

就連使用 GPU 的 OpenAI,也導入 Triton、自建技術棧,直接底層開發,跳過現成函式庫,方便跨晶片遷移。

如果你的核心大客戶,全都在積極打造 CUDA 替代方案,

CUDA 還是前沿 AI 持續綁定輝達的核心關鍵嗎?

黃仁勳:

CUDA 是一套內容極度龐大、生態高度成熟的完整體系。

無論任何全新技術、全新模型,優先基於 CUDA 開發,永遠是最穩妥的選擇。

我們支援全球所有主流框架,同時深度貢獻 Triton、vLLM 等開源專案,大量底層技術都源自輝達研發。

當前強化學習、後訓練領域爆發式成長,各式新框架不斷湧現。

只要你想快速落地創新、穩定迭代,CUDA 生態的完整性與穩定性,就是最大保障。

開發者最在意的,還有安裝基礎與普及度

你寫的程式、模型,希望能在越多設備執行越好,不論是自有叢集、合作雲端,或是對外服務。

全球數億張 GPU、各大雲端全面覆蓋,從 A100、H100 到新一代 Blackwell,規格完整、遍地部署。

不論是機器人、邊緣裝置、本地部署或是大型雲端,CUDA 技術棧都能通用。

龐大的安裝基礎代表:只要你開發一項新技術,就能立刻擴散至全球,商業價值瞬間放大。

最後一點,我們全面進駐各大雲端,這是無人能複製的優勢。

新創 AI 團隊、開發者,無法預期未來會合作哪家雲端、在哪裡上線服務。

而輝達跨平台、全場景適配的特性,搭配完整生態與廣泛部署,才是 CUDA 難以被取代的真正原因。

Dwarkesh Patel:

邏輯合理。我再追問一點:

這些優勢,對你的頂級大客戶來說,真的不可或缺嗎?

有能力自建軟體棧、自製核心內核的,剛好就是貢獻你大半營收的雲端巨頭。

尤其 AI 越來越走向「高驗證閉環」,透過強化學習自動最佳化運算內核,可驗證、可迭代。

大型企業完全有能力針對注意力機制、MLP 模組,客製化開發最高效的專屬內核。

即便他們持續採用 GPU,更多是看重性價比,而非 CUDA 綁定。

過去輝達長期維持七成以上高毛利率,關鍵就是 CUDA 築起的護城河。

當主要客戶都在自建替代方案,你還能長久守住高獲利模式嗎?

黃仁勳:

我們派駐在全球各大 AI 實驗室的工程師數量,遠超外界想像,

直接與對方團隊協同開發、持續最佳化整套技術棧。

原因很簡單:沒有人比我們更懂自己的硬體架構

一般 CPU 就像豪華房車,穩定、好上手、限速保守、大眾都能輕鬆駕馭。

但輝達的 GPU 與加速晶片,更像是一級方程式賽車:

一般操作人人都會,但要全速極限輸出,必須深厚的專業積累。

我們甚至導入 AI 技術,優化底層運算內核。

我非常確定,未來很長一段時間,我們都會是產業不可或缺的核心。

僅靠我們的工程團隊協助合作夥伴最佳化,就能輕鬆帶來 50%、2 倍甚至 3 倍的效能提升。

放在超大型算力叢集當中,效能翻倍,等同營收翻倍,直接轉化為實質獲利。

放眼全球,輝達整體擁有成本、性價比與每瓦算力的最強優勢,沒有任何例外。

不論是 TPU、Trainium 或其他 ASIC,都無法在公開基準測試中證明自身優勢。

業界公開的 InferenceMAX、MLPerf 測試,我們隨時歡迎對手參與比較,但始終無人挑戰。

再談客戶結構:

六大成長來自五大雲端,但這些雲端的絕大多數 GPU 算力,都是對外開放給外部客戶使用,並非內部自用。

AWS、Azure、OCI 導入大量輝達硬體,核心是為了服務全球各行各業的企業與開發者。

他們持續選擇我們,就是因為我們覆蓋最廣、生態最完整、能幫他們吸引最多高端客戶。

完整的正向循環很清晰:

龐大硬體安裝基礎、高彈性可程式架構、成熟生態、全球無死角部署,

加上每美元算力、每瓦算力的極致效率,讓客戶以最低成本產出最高 Token 產能。

雲端營運商要最大化資料中心收益、提升單位能耗產值,輝達永遠是首選。

Dwarkesh Patel:

回到市場實況。

就算有替代晶片出現,全球數萬家 AI 新創、研究團隊,還是會分散採購各類算力。

但真正消耗頂級算力、推動產業迭代的,依舊是 OpenAI、Anthropic 這類大型基礎模型實驗室,

而他們全都有足夠資金與技術,導入多類加速晶片、擺脫單一依賴。

黃仁勳:

你的前提一開始就有錯。

Dwarkesh Patel:

或許是。那我換個提問。

黃仁勳:

等一下,一定要讓我回頭糾正這個前提,

這件事對 AI 發展、科學進步、整個科技產業都至關重要。

Dwarkesh Patel:

我先完整提問,之後我們再深入討論。

黃仁勳:

好。

Dwarkesh Patel:

如果你的效能、功耗、成本優勢都是真實的,

為什麼 Anthropic 才剛剛宣布,與博通、谷歌合作,導入數吉瓦等級的大規模 TPU 算力?

谷歌內部更是全面以 TPU 為主力。

大型 AI 公司的算力結構,早已從全 GPU 時代,走向多元晶片並存。

如果輝達優勢這麼明顯,為什麼他們會主動導入其他硬體?

黃仁勳:

Anthropic 是極少數特例,不代表產業趨勢

如果排除 Anthropic,TPU 的大規模成長幾乎停滯;

Trainium 的需求,同樣高度集中在單一客戶。

這只能說是個案合作,不代表 ASIC 全面崛起。

至於 OpenAI 與 AMD 合作、自研加速晶片,我完全不介意。

他們依舊以輝達為核心主力,未來也會持續深度合作。

競爭者嘗試不同路線是好事,唯有比較,才能凸顯我們的完整優勢。

過去大量 ASIC 專案陸續終止,就是最好證明。

想要做出全面超越輝達的晶片,難度極高。

我們每年世代迭代、持續突破,是全球唯一穩定高速進化的運算平台。

Dwarkesh Patel:

業界普遍看法是:

不需要做到全面超越,只要整體落差不要超過三成,

就能擺脫你們七成的高毛利定價。

黃仁勳:

別忘了,ASIC 廠商本身毛利同樣極高。

輝達毛利率約七成,多數 ASIC 大廠也有 65% 上下的高利潤,

實際能替客戶省下的成本,遠不如外界想像。

再回頭回答你的核心問題:

早年輝達體量有限、財力不足,

當時我們沒有能力動輒數十億美元,長期資助單一 AI 實驗室壯大。

谷歌、AWS 當時願意投入巨額資金綁定合作,才換來對方優先使用自家晶片。

這是我過去的決策疏漏:

當時低估了頂級基礎 AI 實驗室的燒錢規模,

也誤以為新創團隊都能靠創投融資存活。

事實上,動輒數十億、上百億美元的長期投入,完全超出傳統 VC 的承擔能力。

如果當初輝達就有現在的體量與現金流,

我一定會更早投資、更早佈局。

現在我們已經修正策略,積極投資 OpenAI、Anthropic 等頂尖團隊,不會再錯過產業關鍵階段。


二、輝達為何不轉型自建超大型雲端?

Dwarkesh Patel:

接著聊聊資金運用。

輝達長年穩居 AI 產業獲利龍頭,手握龐大現金。

傳聞你們對 OpenAI 投資高達 300 億美元、對 Anthropic 投資百億美元。

這些企業早年估值僅有現在的十分之一,

以你們當時的財力,完全可以更早佈局、或是自研基礎大模型。

為什麼長期專注硬體與平台,不跨足雲端、自建算力出租業務?

你們的現金流,完全足以承擔大規模資本支出。

傳聞也指出,你們為 CoreWeave 提供 63 億美元信用背書、對外投資 20 億美元。

黃仁勳:

這是我們長期堅持的經營哲學:只做必要的事,盡量少做多餘布局

如果連我們都不投入、不深耕加速運算,這條路根本沒有人會走。

二十年投入 CUDA、長期承擔研發虧損、打造 NVLink 互連技術、開發各領域專用函式庫,

這些高風險、長週期的布局,沒有任何商業巨頭願意接手。

不論是光影追蹤、科學運算、運算微影、量子化學、流體力學,

各項垂直領域的加速函式庫,都是我們長年獨自投入。

這些是輝達必須做、也只有我們做得好的事。

至於雲端服務,市場已經足夠成熟、競爭充分,

不需要輝達親自下场。

我們的做法,是扶持整個生態:

協助 CoreWeave、Nscale、Nebius 等新興 AI 雲站穩腳步,

給予資金、技術與訂單支持,讓專業的人做專業的事。

我們會投資所有頂級基礎模型團隊,不刻意押注單一贏家

全面扶持、多元布局,才能讓整個 AI 生態持續繁榮,

擴大輝達平台的全球渗透率,鞏固美國技術棧的領導地位。

之所以不選邊站、不挑贏家,源自創業初心。

當年全球有超過六十家 3D 繪圖公司,

輝達一開始技術路線走偏、不被看好,卻是最後唯一存活的幸存者。

這段經歷讓我深刻明白:沒有人能預測產業贏家

與其主動篩選,不如扶持所有創新力量。

我們會協助有技術、有團隊、有願景的合作夥伴渡過創業初期,

但不會跨界做融資、做重資產雲端,維持營運模式精簡聚焦。

只專注做好加速運算核心本業,其餘環節交給生態合作夥伴。

Dwarkesh Patel:

全球 GPU 短缺已經持續多年,模型越大、算力缺口越大。

外界認為,輝達並非單純以價格分配產能,

而是刻意分流配額,扶持多家新興 AI 雲,避免市場壟斷。

這是你們的策略考量嗎?

黃仁勳:

這個前提依舊不正確。

所有出貨,都建立在客戶正式下訂單的基礎之上。

先下單、先排程,是最核心的原則。

高階晶片生產週期漫長、封測與資料中心建設曠日費時,

我們最大的努力,是與客戶共同預測需求、拉齊供需節奏。

偶爾會依照對方基建進度、整體產業狀況微調出貨順序,

最大化工廠產能利用率,但絕不會無限度操控配額。

網路上不少傳言都非事實,包含高層私下索取 GPU 等新聞,全都不符實況。

所有合作夥伴一視同仁,依照訂單順序與產能狀況穩定出貨。

Dwarkesh Patel:

既然短缺長期存在,為什麼不直接「價高者得」,最大化短期獲利?

黃仁勳:

這是最短視、也最糟糕的商業模式。

我們長期維持固定報價,不隨市場供需瘋狂漲價。

晶片產業確實有同業在缺貨時哄抬價格,但這從來不是輝達的選擇。

我希望輝達成為產業穩固的基石,值得長期信賴。

價格透明、政策穩定,合作夥伴不用時時猜測報價波動,

這才是長期合作的核心價值。

也正因穩定可信,我們才能與台積電維持將近三十年的長期合作。

我和台積電之間,從未簽訂繁複的正式合約,

彼此互信、長期配合,互利共生。

不論景氣好壞、盈虧輪替,長遠關係永遠優先短期利益。

放眼未來,輝達每年都會推出全新世代架構,

Vera Rubin、Vera Rubin Ultra、Feynman,路線明確、迭代穩定。

不論客戶採購規模大小,從單張顯示卡、單一機房,到百億等級超大算力訂單,

我們都能穩定承接、如期交付。

這份產業級的穩定性,沒有任何對手能夠複製。


三、中國競爭與 AI 政策看法

黃仁勳:

先談一個重點:新一代 Mythos 這類強大 AI 模型,

所需的算力門檻其實並不高,中國完全有能力取得同等級別硬體

中國掌握全球超六成晶片產能,半導體產業規模龐大;

同時擁有頂尖電腦科學家,全球將近半數 AI 研究人員都具華人背景。

能源資源充足、工程人才充沛,硬體與人才條件完全不缺。

美國與中國是競爭關係,我們理所當然希望美國維持技術領先,

但封鎖、斷鏈、切割兩大技術生態,只會造成雙輸。

透過對話、學術交流、技術溝通,才是管控風險的最佳方式。

美國必須確保高階算力、頂尖 AI 架構優先留在本土,

強化能源建設,解決長期能源瓶頸,鞏固技術領先優勢。

但不應該全面放棄龐大海外市場、強行切割全球產業鏈。

晶片是美國科技霸權的重要支柱,

主動退出全球最大市場,只會削弱自身競爭力、傷害本國產業。

理性平衡的監管政策、維持技術交流,才是長遠之道。


四、為何不研發多套完全不同的晶片架構?

Dwarkesh Patel:

長期與台積電深度合作,搶占先進製程優先產能,

既然高階節點產能有限,為什麼不回頭活用七奈米等成熟製程閒置產能,

改良舊世代架構、重製優化版 GPU?

同時平行研發多套差異化架構,分散風險?

黃仁勳:

完全沒有必要。

新一代架構的進步,不只是晶體體微縮,

還包含封裝、堆疊、數值運算、系統設計的全面升級。

倒退重啟舊節點研發,研發成本龐大、效益極低,不符合經濟邏輯。

除非全球先進製程徹底斷供,我們才會考慮啟用成熟節點備案方案。

至於多架構並行研發:

我們內部透過大量模擬與驗證,

測試過各式創新架構、晶圓級大晶片、特殊封裝設計,

最終結果都證明:效能、成本、靈活性,全都不如現行路線

我們不會為了分散而分散,一切以實質效能與客戶價值為優先。

唯一的新增布局,是因應全新推理市場需求,

導入 Groq 等技術,補足高反應速度、低延遲的特殊場景,

區分高階定價 Token 與高吞吐量一般算力,做市場差異化。

除此之外,我們會把所有資源,全力投入核心架構的持續迭代。


五、如果沒有 AI 革命,輝達會走到哪裡?

黃仁勳:

就算沒有 AI,我們依舊會專注加速運算這條核心道路。

傳統通用運算的效能瓶頸早已到達極限,

各行各業都需要領域專用加速方案,突破運算限制。

不論是電腦繪圖、地震探勘、藥物研發、粒子物理、流體模擬、數據分析,

無 AI 的年代,這些高複雜度科學運算,依舊需要 GPU 加速。

輝達只會規模不同,依舊會成長為全球頂尖科技企業。

AI 的出現,只是放大了加速運算的價值、加速產業爆發。

我們長年推動的技術普及,讓全球學生、研究人員、新創團隊,

都能透過一般消費級顯卡,接觸頂尖科學運算與 AI 開發,

這也是我們長期不變的使命:

普及加速運算,突破通用運算極限,推動全人類科學進步

即便到現在,GTC 大會仍有超過半數內容,與 AI 完全無關,

聚焦運算微影、量子科技、生命科學、工業模擬等領域,

這些長遠價值,從來不會因為 AI 熱潮而被忽略。

Dwarkesh Patel:

非常感謝你完整分享。

黃仁勳:

很愉快這場對談。

免责声明:本网站提供的信息仅供教育和参考之用,不应视为财务或投资建议。

推荐文章

Tradingkey
KeyAI