Nvidia đã nâng dự báo doanh thu lũy kế từ năm 2025-2027 lên hơn 1 nghìn tỷ USD, gấp đôi mục tiêu trước đó. Công ty giới thiệu hệ thống tính toán AI Vera Rubin NVL72 và tủ rack CPU Vera cho Agentic AI, cùng bộ xử lý Groq 3 LPU cho suy luận siêu tốc. Nvidia cũng ra mắt Spectrum X, bộ chuyển mạch CPO đầu tiên trên thế giới, và nền tảng NemoClaw để triển khai tác nhân AI. Công nghệ DLSS 5 mới cho đồ họa thời gian thực được kỳ vọng sẽ cách mạng hóa ngành game và các lĩnh vực sáng tạo. Goldman Sachs duy trì xếp hạng "Mua" cho Nvidia, cho rằng các phát biểu tại GTC 2026 đã xoa dịu lo ngại về tăng trưởng ngành AI.

TradingKey - Vào ngày 16/3 theo giờ địa phương, Nvidia ( NVDA) đã khai mạc hội nghị nhà phát triển thường niên, GTC 2026, tại Trung tâm SAP ở San Jose. Hơn 30.000 nhà phát triển đã đổ về địa điểm này, và bài phát biểu then chốt kéo dài hai tiếng rưỡi của nhà sáng lập kiêm CEO Nvidia Jensen Huang chắc chắn là tâm điểm của sự kiện ngành AI này—ông không chỉ nâng cấp hoàn toàn định vị của Nvidia từ một "công ty chip" thành một "đơn vị vận hành nhà máy và hạ tầng AI", mà còn đưa ra dự báo chấn động rằng "doanh thu lũy kế từ năm 2025 đến 2027 sẽ vượt quá 1 nghìn tỷ USD", phác thảo một bản thiết kế tăng trưởng chưa từng có cho thị trường năng lượng tính toán AI toàn cầu.
Tại hội nghị, CEO Nvidia Jensen Huang đã gửi một tín hiệu vượt xa mong đợi tới thị trường—các kiến trúc chip AI Blackwell và Rubin của Nvidia dự kiến sẽ tạo ra nhu cầu đơn hàng lũy kế ít nhất 1 nghìn tỷ USD vào cuối năm 2027. Dự báo này cao gấp đôi mục tiêu 500 tỷ USD được công bố cùng kỳ năm ngoái, ngay lập tức thổi bùng sự phấn khích của thị trường.
Jensen Huang cho biết: "Vào thời điểm này năm ngoái, chúng tôi đã nhận thấy nhu cầu có độ tin cậy cao trị giá 500 tỷ USD cho các kiến trúc Blackwell và Rubin đến hết năm 2026; tuy nhiên, sự bùng nổ nhu cầu tính toán AI đã vượt xa dự kiến, và quy mô thị trường đến năm 2027 sẽ đạt ít nhất 1 nghìn tỷ USD—nhu cầu thực tế thậm chí có thể cao hơn, và chúng tôi đã chuẩn bị cho tình trạng cung không đủ cầu."
Đây không chỉ đơn thuần là một mục tiêu về hiệu suất; nó phản ánh sự bùng nổ theo cấp số nhân của nhu cầu năng lượng tính toán AI.
Trong hai năm qua, khi các mô hình lớn tiến hóa từ giai đoạn "nhận thức - tạo tác" sang giai đoạn "suy luận - thực thi", mức tiêu thụ năng lượng tính toán đã tăng vọt theo cấp số nhân.
Jensen Huang chỉ ra rằng lý do cốt lõi giúp Nvidia tự tin đưa ra dự báo táo bạo như vậy nằm ở tính phổ quát và lợi thế về chi phí của các hệ thống—nền tảng của Nvidia có thể thích ứng với các mô hình AI trong hầu hết mọi lĩnh vực, giúp mỗi đồng vốn đầu tư của khách hàng đều mang lại lợi nhuận dài hạn, đây cũng là lý do then chốt giúp hãng trở thành "hạ tầng AI có chi phí thấp nhất thế giới".
60% doanh thu của Nvidia đến từ 5 nhà cung cấp dịch vụ đám mây quy mô siêu lớn hàng đầu thế giới, trong khi 40% còn lại bao gồm các kịch bản đa dạng như đám mây chủ quyền, ứng dụng doanh nghiệp, AI công nghiệp, robot và tính toán biên. Mô hình "tập trung ở nhóm đầu + lan tỏa đuôi dài" này cho thấy năng lượng tính toán AI đang chuyển đổi từ nhu cầu độc quyền của các gã khổng lồ internet thành khoản đầu tư hạ tầng cho toàn bộ ngành công nghiệp.
Các chuyên gia phân tích tin rằng mục tiêu nghìn tỷ USD của Nvidia không chỉ là dấu hiệu cho thấy sự tự tin vào sản phẩm của chính mình mà còn phản ánh tốc độ mở rộng của thị trường hạ tầng AI toàn cầu.
Khi các tham số mô hình lớn tiếp tục tăng, nhu cầu suy luận bùng nổ và các ứng dụng AI cấp doanh nghiệp tăng tốc triển khai, năng lượng tính toán AI đang trở thành một hướng chi tiêu vốn dài hạn bên cạnh điện toán đám mây. Kỳ vọng này cũng xua tan những lo ngại của thị trường về việc "chu kỳ tính toán AI đạt đỉnh"—khoản đầu tư toàn cầu hiện nay vào tính toán AI vẫn đang ở giai đoạn đầu, và việc đầu tư của các công ty công nghệ vào máy chủ AI, GPU và các hệ thống liên quan sẽ duy trì mức tăng trưởng cường độ cao trong những năm tới.
Jensen Huang nhấn mạnh trong bài phát biểu: "Đường cong nhu cầu đối với tính toán AI mới chỉ bắt đầu dốc lên; chúng ta đang đứng ở điểm khởi đầu của một cuộc chuyển đổi công nghệ mười năm mới có một lần." Dự báo nghìn tỷ USD của Nvidia là một tín hiệu rõ ràng về sự thay đổi sắp tới này.
Sản phẩm quan trọng nhất được công bố tại hội nghị lần này là Vera Rubin, hệ thống tính toán AI phức tạp nhất của Nvidia cho đến nay. Không giống như các đợt ra mắt trước đây vốn tập trung vào một con chip đơn lẻ, Vera Rubin là một nền tảng siêu máy tính hoàn chỉnh bao gồm 7 loại chip và 5 loại tủ rack.
Với vai trò là lõi tính toán của toàn bộ hệ thống, tủ rack Vera Rubin NVL72 đạt được bước nhảy vọt kép về hiệu quả huấn luyện và suy luận AI. Nó tích hợp 72 GPU Rubin và 36 CPU Vera, xây dựng một kiến trúc tính toán thống nhất thông qua mạng kết nối tốc độ cao NVLink 6 thế hệ mới, giúp giảm độ trễ truyền tải dữ liệu giữa GPU và CPU xuống mức micro giây.
Khi huấn luyện các mô hình Mixture-of-Experts (MoE) nghìn tỷ tham số, NVL72 chỉ yêu cầu số lượng GPU bằng 1/4 so với nền tảng Blackwell thế hệ trước, trong khi chi phí tạo ra mỗi token được giảm trực tiếp xuống còn 1/10—nghĩa là các công ty sẽ tiết kiệm được 90% vốn đầu tư năng lượng tính toán để huấn luyện các mô hình AI cùng quy mô, giúp đẩy nhanh đáng kể quá trình triển khai thương mại hóa các mô hình lớn.
Ngoài ra, một điểm nhấn khác của đợt ra mắt này là tủ rack Vera CPU, cụm CPU đầu tiên trên thế giới được thiết kế chuyên biệt cho Agentic AI (AI tác nhân). Khác với các CPU truyền thống tập trung vào tính toán đa dụng, Vera CPU được tối ưu hóa sâu cho khả năng song song hóa đa nhiệm và xử lý ngữ cảnh dài của các tác nhân. Một tủ rack đơn lẻ có thể tích hợp 256 bộ xử lý, với hiệu suất tính toán gấp đôi so với các CPU cấp độ tủ rack truyền thống, hỗ trợ hàng chục nghìn tác nhân chạy trực tuyến cùng lúc.
Hiện tại, các nhà cung cấp dịch vụ đám mây như Alibaba, ByteDance và Cloudflare đã công bố triển khai các tủ rack Vera CPU để xây dựng nền tảng phát triển tác nhân, đánh dấu sự bắt đầu thâm nhập của năng lượng tính toán AI từ việc huấn luyện mô hình chung sang các kịch bản tác nhân chuyên biệt hơn.
Nếu Vera Rubin NVL72 giải quyết vấn đề hiệu quả của "tính toán quy mô lớn", thì tủ rack Groq 3 LPX sẽ lấp đầy khoảng trống kỹ thuật trong "suy luận siêu tốc"—đây cũng là sản phẩm đầu tiên được Nvidia tung ra kể từ khi thâu tóm Groq vào năm ngoái. Bộ xử lý Groq 3 LPU sở hữu bộ nhớ SRAM trên chip khổng lồ 500MB, có khả năng hoàn thành các phép tính suy luận cực kỳ phức tạp mà không cần bộ nhớ video bên ngoài, với độ trễ đầu-cuối thấp hơn một bậc so với các GPU truyền thống.
Để tối đa hóa tiềm năng phần cứng, Nvidia đã phát triển hệ thống điều phối thông minh Dynamo, có thể phân bổ linh hoạt năng lượng tính toán dựa trên các giai đoạn vận hành khác nhau của mô hình lớn. Giai đoạn "pre-fill" (nạp trước) đòi hỏi bộ nhớ video khổng lồ sẽ do GPU Rubin đảm nhận, trong khi giai đoạn "token decoding" (giải mã token) nhạy cảm với độ trễ sẽ được giao cho Groq LPU.
Thiết kế kiến trúc "hiệp đồng không đối xứng" này giúp tăng thông lượng suy luận cho các mô hình nghìn tỷ tham số lên 35 lần ở cùng mức tiêu thụ điện năng, trực tiếp đẩy ranh giới về tính khả thi kinh tế của suy luận AI lên những tầm cao mới.
Đồng thời, Nvidia cũng chính thức ra mắt Spectrum X, bộ chuyển mạch sử dụng công nghệ Co-Packaged Optics (CPO - đóng gói quang học chung) sản xuất hàng loạt đầu tiên trên thế giới, giải quyết dứt điểm cuộc tranh luận trong ngành về lộ trình "cáp đồng hay cáp quang". So với các module quang học cắm rút truyền thống, Spectrum X đóng gói trực tiếp các module quang học với chip chuyển mạch, giúp cải thiện hiệu suất năng lượng quang học gấp 5 lần, đạt băng thông đơn cổng 2Tb/s và tăng độ tin cậy của mạng lên gấp 10 lần.
Jensen Huang đã tuyên bố rõ ràng trong bài phát biểu: "Trong tương lai, chúng ta cần nhiều dung lượng cáp đồng hơn, và chúng ta cũng cần nhiều dung lượng chip quang học và CPO hơn"—điều này có nghĩa là Nvidia sẽ đồng thời thúc đẩy cả công nghệ cáp đồng và kết nối quang học, cung cấp các giải pháp kết nối linh hoạt cho các trung tâm dữ liệu AI ở mọi quy mô.
Nếu phần cứng là "nhà máy" của xưởng sản xuất AI, thì các tác nhân chính là "công nhân". Jensen Huang gọi dự án mã nguồn mở OpenClaw là "dự án mã nguồn mở phổ biến nhất trong lịch sử nhân loại", lưu ý rằng tốc độ áp dụng của nó vượt xa Linux, và định nghĩa đây là "hệ điều hành" của kỷ nguyên tác nhân.
Để giải quyết các thách thức về bảo mật, quyền riêng tư và quản lý trong việc triển khai các tác nhân quy mô lớn, Nvidia đồng thời ra mắt nền tảng phần mềm toàn diện NemoClaw. Công cụ này, được các nhà phát triển gọi vui là "nuôi tôm một chạm", có thể hoàn tất việc triển khai, điều phối và giám sát các tác nhân AI chỉ bằng một lệnh duy nhất.
NemoClaw tích hợp mô hình ngôn ngữ lớn Nemotron và môi trường thực thi OpenShell. Nó không chỉ cho phép các tác nhân hiểu trực tiếp các chỉ dẫn bằng ngôn ngữ tự nhiên mà còn bổ sung các khả năng then chốt như hộp cát bảo mật (security sandbox), bảo vệ quyền riêng tư và các công cụ thực thi chính sách—nhà phát triển có thể xác định ranh giới hoạt động của tác nhân thông qua giao diện trực quan để đảm bảo chúng hoạt động trong giới hạn tuân thủ, thậm chí cho phép các chế độ tính toán riêng tư nơi "dữ liệu ở lại địa phương trong khi việc tính toán có thể được điều phối".
Jensen Huang dự báo trong bài phát biểu rằng mọi công ty SaaS trong tương lai sẽ chuyển đổi thành công ty AaaS (Agent-as-a-Service - Tác nhân như một dịch vụ). Thị trường tuyển dụng của Thung lũng Silicon đã có phản ứng, với nhiều công ty công nghệ bắt đầu sử dụng hệ thống đãi ngộ mới gồm "lương cơ bản + hạn mức token" để cạnh tranh nhân tài hàng đầu trong lĩnh vực phát triển tác nhân.
Ngoài ra, CEO Nvidia Jensen Huang đã chính thức công bố công nghệ DLSS 5 tại hội nghị, gọi đây là "đột phá quan trọng nhất trong đồ họa máy tính kể từ sau công nghệ dò tia thời gian thực vào năm 2018", và thậm chí định nghĩa đây là "khoảnh khắc GPT" của ngành đồ họa.
Từ bản demo đồng bộ của trò chơi "Resident Evil: Requiem" được trình chiếu tại chỗ, sau khi bật DLSS 5, những thay đổi về độ bóng tự nhiên của tóc nhân vật, những bóng đổ tinh tế trong nếp gấp của quần áo da và các chi tiết phản chiếu động trên đường phố ẩm ướt di chuyển theo góc nhìn đều thể hiện chất lượng mà trước đây chỉ có thể đạt được bằng phương pháp dựng hình điện ảnh ngoại tuyến. Điều này đánh dấu bước nhảy vọt cho đồ họa trò chơi thời gian thực từ "chân thực dựa trên quy tắc xấp xỉ" sang "đắm chìm kiểu điện ảnh".
Khác với các phiên bản DLSS trước đây vốn tập trung vào công nghệ siêu mẫu AI hoặc tạo khung hình, DLSS 5 lần đầu tiên giới thiệu kiến trúc lõi "Real-Time Neural Rendering" (Dựng hình thần kinh thời gian thực), trực tiếp tạo ra các pixel hoàn chỉnh với các tương tác ánh sáng và vật liệu thông qua các mô hình AI được huấn luyện đầu-cuối.
Jensen Huang nhấn mạnh trong bài phát biểu rằng tính cách mạng của công nghệ này nằm ở việc giải quyết mâu thuẫn cốt lõi của AI tạo sinh trong các lĩnh vực sáng tạo chuyên nghiệp—tăng cường đáng kể độ chân thực về mặt hình ảnh trong khi vẫn đảm bảo các nghệ sĩ có quyền kiểm soát tuyệt đối đối với nội dung. Các nhà phát triển có thể kiểm soát chính xác các hiệu ứng dựng hình của AI thông qua các thông số tinh chỉnh như điều chỉnh cường độ, phân loại màu sắc và mặt nạ cục bộ, đưa AI trở thành một "trợ lý thông minh" cho các đội ngũ nghệ thuật thay vì là sự "thay thế sáng tạo".
Hiện tại, DLSS 5 đã nhận được sự hỗ trợ từ các nhà phát triển trò chơi hàng đầu thế giới bao gồm Bethesda, CAPCOM, NetEase, Tencent và Ubisoft. Hơn 30 tựa game, chẳng hạn như "Assassin's Creed Shadows", "Starfield", "Naraka: Bladepoint" và "Where Winds Meet", sẽ nằm trong số những trò chơi đầu tiên hoàn tất việc thích ứng vào mùa thu năm nay.
Jensen Huang cũng chỉ ra rằng giá trị kỹ thuật của DLSS 5 không chỉ giới hạn trong lĩnh vực trò chơi. Mô hình kết hợp giữa "dữ liệu có cấu trúc + AI tạo sinh" mà nó đại diện sẽ mở rộng sang các kịch bản rộng lớn hơn như tính toán doanh nghiệp, trực quan hóa kiến trúc và sản xuất ảo trong tương lai.
Đồng thời, DLSS 5 tương thích với toàn bộ nền tảng dòng RTX hiện có và sẽ được tích hợp liền mạch thông qua khung làm việc Nvidia Streamline, giúp giảm đáng kể chi phí thích ứng cho các nhà phát triển và cho phép nhiều người chơi hơn trải nghiệm bước nhảy vọt về chất lượng hình ảnh do công nghệ AI mang lại.
Goldman Sachs ( GS) đã công bố một báo cáo nghiên cứu ngay sau hội nghị GTC 2026, chỉ ra rằng những phát biểu của Jensen Huang đã đánh trúng hai mối quan tâm cốt lõi của các nhà đầu tư, giúp xoa dịu hiệu quả nỗi lo ngại của thị trường về sự tăng trưởng của ngành AI.
Goldman Sachs lưu ý rằng Nvidia đã nâng mục tiêu đơn hàng cho mảng kinh doanh trung tâm dữ liệu năm 2027 lên 1 nghìn tỷ USD, gấp đôi mục tiêu 500 tỷ USD cho năm 2026 được công bố vào năm ngoái. Cam kết doanh thu dài hạn này, vượt xa kỳ vọng của Wall Street, trực tiếp xua tan những lo ngại rằng "chi tiêu vốn cho AI sẽ đạt đỉnh vào năm 2026", cung cấp sự hỗ trợ rõ ràng cho triển vọng tăng trưởng của ngành.
Thứ hai, tủ rack suy luận LPX được ra mắt dựa trên công nghệ Groq đã thâu tóm đánh dấu một bước đi quan trọng của Nvidia trong thị trường suy luận đầy cạnh tranh.
Goldman Sachs phân tích rằng sự cộng hưởng của sản phẩm này với nền tảng Vera Rubin có thể tăng thông lượng trên mỗi watt lên 35 lần, tạo ra không gian kiếm tiền gấp hơn 10 lần cho các mô hình nghìn tỷ tham số. Nó giải quyết chính xác các vấn đề về nút thắt điện năng trong các trung tâm dữ liệu và dự kiến sẽ bắt đầu giao hàng vào quý 3 năm nay.
Ngoài ra, lộ trình của Nvidia ở cấp độ mạng lưới và hệ sinh thái cũng nhận được sự công nhận từ Goldman Sachs. Việc sản xuất hàng loạt bộ chuyển mạch CPO Spectrum-X, tủ rack CPO mở rộng theo chiều dọc hỗ trợ 576 GPU và nền tảng NemoClaw cho Agentic AI đều được coi là những bước phát triển then chốt thúc đẩy việc triển khai AI cấp doanh nghiệp.
Goldman Sachs duy trì xếp hạng "Mua" và mục tiêu giá 250 USD cho Nvidia, tin rằng các kế hoạch chi tiêu vốn của các nhà cung cấp dịch vụ đám mây quy mô siêu lớn sẽ tiếp tục củng cố vị thế dẫn đầu của hãng.
Chịu ảnh hưởng từ những tin tức tích cực từ hội nghị GTC, cổ phiếu của Nvidia đã tăng hơn 4,8% trong phiên giao dịch ngày thứ Hai trước khi chốt phiên tăng 1,63%,
Nội dung này được dịch bằng trí tuệ nhân tạo và đã được hiệu đính cho dễ hiểu hơn. Chỉ mang tính chất tham khảo.