Nvidia คาดการณ์ผลประกอบการไตรมาส 4 ปีงบ 2026 เติบโต 67% YoY แตะ 6.50-6.58 หมื่นล้านดอลลาร์ นำโดยธุรกิจศูนย์ข้อมูลที่คิดเป็น 90% ของรายได้ สถาปัตยกรรม Blackwell เข้าสู่ช่วงเร่งการผลิต ส่งผลให้กำไรต่อหุ้นปรับปรุงคาดการณ์เพิ่มขึ้น และอัตรากำไรขั้นต้นฟื้นตัวสู่ 75% แม้ต้นทุนหน่วยความจำสูงขึ้น อาจกระทบกำไร 2-3% ตลาดกังวลว่า Nvidia จะรักษาความเป็นผู้นำและอัตรากำไรได้หรือไม่ ท่ามกลางการแข่งขันด้าน AI CPU และการพัฒนาชิปเฉพาะทางของคู่แข่ง เช่น Google TPU อย่างไรก็ตาม ระบบนิเวศครบวงจรของ Nvidia ที่รวม GPU, CPU และระบบเครือข่ายความเร็วสูง NVLink ทำให้เกิดความได้เปรียบเชิงกลยุทธ์ที่ยากต่อการลอกเลียนแบบ

ทุกสายตาจับจ้องไปที่ Nvidia ในสัปดาห์นี้ ขณะที่บริษัทเตรียมรายงานผลประกอบการไตรมาส 4 ปีงบประมาณ 2026
ตัวชี้วัด | ประมาณการไตรมาส 4 ปี 2026 | การเติบโตเมื่อเทียบรายปี (YoY) | บริบท |
รายได้ | 6.50 หมื่นล้านดอลลาร์ – 6.58 หมื่นล้านดอลลาร์ | ประมาณ 67% | เพิ่มขึ้นจาก 3.93 หมื่นล้านดอลลาร์ในไตรมาส 4 ปี 25 สะท้อนถึงการเร่งกำลังการผลิตสถาปัตยกรรม Blackwell ในระดับสูงสุด |
กำไรต่อหุ้น (EPS) ปรับปรุงแล้ว | 1.46 ดอลลาร์ – 1.53 ดอลลาร์ | ประมาณ 71% | พุ่งขึ้นอย่างมากจากระดับ 0.89 ดอลลาร์ในปีที่แล้ว |
อัตรากำไรขั้นต้น | ประมาณ 75.0% | +140 bps | คาดว่าจะฟื้นตัวจากระดับ 73.6% ที่ "ลดลง" ในไตรมาส 3 |
รายได้จากศูนย์ข้อมูล | ประมาณ 5.99 หมื่นล้านดอลลาร์ | ประมาณ 66% | คิดเป็นประมาณ 90% ของรายได้รวมของบริษัท |
ประมาณการทางการเงินของ NVIDIA สำหรับไตรมาส 4 ปี 2026 สะท้อนให้เห็นว่าบริษัทยังคงอยู่ในช่วงการเติบโตสูงสุด โดยคาดว่ารายได้จะอยู่ที่ระหว่าง 6.50 หมื่นล้านดอลลาร์ถึง 6.58 หมื่นล้านดอลลาร์ ซึ่งเพิ่มขึ้น 67% เมื่อเทียบรายปีจาก 3.93 หมื่นล้านดอลลาร์ที่รายงานในไตรมาส 4 ปี 2025 การพุ่งขึ้นนี้มีแรงขับเคลื่อนหลักมาจากสถาปัตยกรรม "Blackwell" ซึ่งเข้าสู่ช่วงเร่งการผลิตสูงสุด ขณะที่กลุ่มธุรกิจศูนย์ข้อมูล (Data Center) ยังคงเป็นฟันเฟืองหลักที่สำคัญที่สุดของบริษัท โดยคิดเป็นรายได้ประมาณ 5.99 หมื่นล้านดอลลาร์ หรือ 90% ของรายได้ทั้งหมด
ความสามารถในการทำกำไรยังแสดงสัญญาณการทรงตัว โดยกำไรต่อหุ้น (EPS) ปรับปรุงแล้วคาดว่าจะพุ่งขึ้นไปอยู่ที่ระหว่าง 1.46 ดอลลาร์ถึง 1.53 ดอลลาร์ ซึ่งเป็นการก้าวกระโดดอย่างมีนัยสำคัญจาก 0.89 ดอลลาร์ในปีที่แล้ว และสิ่งที่อาจสำคัญที่สุดสำหรับนักลงทุนคือ อัตรากำไรขั้นต้นคาดว่าจะฟื้นตัวขึ้นเป็น 75.0% หลังจากที่ลดลงชั่วคราวสู่ระดับ 73.6% ในไตรมาสที่สาม ซึ่งมีสาเหตุมาจากอัตราผลตอบแทนการผลิตเริ่มต้นที่ต่ำของซีรีส์ Blackwell ที่มีความซับซ้อน และการตัดจำหน่ายสินค้าคงคลังมูลค่า 4.5 พันล้านดอลลาร์ อย่างไรก็ตาม ยังมีความท้าทายใหม่ที่รออยู่ คือราคาหน่วยความจำที่เพิ่มขึ้น 25-30% ซึ่งอาจสร้างแรงกดดันต่ออัตรากำไรเหล่านี้ และอาจกลายเป็นปัจจัยลบที่ฉุดรั้งกำไรลง 2 ถึง 3 จุดเปอร์เซ็นต์ในไตรมาสต่อๆ ไป
ในการแถลงผลประกอบการ นักลงทุนจะให้ความสนใจอย่างใกล้ชิดกับการอัปเดตเกี่ยวกับสายผลิตภัณฑ์ต่างๆ
รุ่น (Generation) | สถาปัตยกรรม | ปี | รุ่น GPU | รุ่น CPU | ความก้าวหน้าสำคัญ |
รุ่นที่กำลังจะมาถึง | Feynman | 2028 | F100 | Vera Next | มุ่งเป้าไปที่ระลอกใหม่ของ "Physical AI" |
ปัจจุบัน / อนาคต | Rubin | 2026 | R100 / Rubin Ultra | Vera (88 คอร์) | หน่วยความจำ HBM4, กระบวนการผลิต 3 นาโนเมตร, NVLink ความเร็ว 1.8 TB/s |
รุ่นใหม่ล่าสุด | Blackwell | 2024-25 | B100, B200, B300 | Grace (72 คอร์) | GPU แบบ "dual-die" รุ่นแรก มาพร้อมทรานซิสเตอร์ 2.08 แสนล้านตัว |
เทคโนโลยีรุ่นเก่า / รุ่นที่พัฒนาจนสมบูรณ์ | Hopper | 2022-23 | H100, H200 | Grace | มีการเปิดตัว "Transformer Engine" สำหรับ LLMs |

ที่มา: TradingView
แม้จะมี "ตัวเลขที่น่าประทับใจ" เหล่านี้ แต่ราคาหุ้นของ NVIDIA กลับปรับตัวเพิ่มขึ้นเพียง 10% ในช่วง 6 เดือนที่ผ่านมา เมื่อเทียบกับคู่แข่งรายสำคัญอย่าง AMD ที่ปรับตัวขึ้น 23% และดัชนีเซมิคอนดักเตอร์ SOX ที่พุ่งขึ้นถึง 48% ในช่วงเวลาเดียวกัน ผลการดำเนินงานที่ต่ำกว่าตลาดนี้นับว่าน่าประหลาดใจอย่างยิ่ง เนื่องจากบรรดาบริษัท "Hyperscalers" อันได้แก่ Amazon, Alphabet, Meta และ Microsoft ต่างปรับเพิ่มตัวเลขคาดการณ์งบรายจ่ายด้านทุน (Capex) สำหรับปี 2026 ขึ้นอย่างมีนัยสำคัญ
ตามหลักเหตุผลแล้ว การที่ยักษ์ใหญ่ด้านเทคโนโลยีเหล่านี้เพิ่มงบ Capex ควรจะหมายถึงรายได้ที่เพิ่มขึ้นสำหรับหน่วยประมวลผล GPU ของ NVIDIA อย่างไรก็ตาม เมื่อ Amazon ประกาศเพิ่มงบ Capex ขึ้น 56% เป็น 2 แสนล้านดอลลาร์ ราคาหุ้นของ NVIDIA กลับทรงตัว เช่นเดียวกับปฏิกิริยาที่เกิดขึ้นหลังจาก Alphabet (+98%) และ Meta (+74%) ประกาศเพิ่มตัวเลขคาดการณ์อย่างมหาศาล
บริษัท | คาดการณ์งบ Capex ปี 2026 | การเพิ่มขึ้นเมื่อเทียบเป็นรายปี (YoY) | ปฏิกิริยาของราคาหุ้น NVDA |
Amazon | 2 แสนล้านดอลลาร์ | +56% | ทรงตัว / -1.2% |
Alphabet | 1.8 แสนล้านดอลลาร์ | +98% | ทรงตัว / +0.5% |
Meta | 1.25 แสนล้านดอลลาร์ | +74% | ทรงตัว / -0.8% |
Microsoft | 1.4 แสนล้านดอลลาร์ | +59% | ทรงตัว / -2.1% |
ภัยคุกคามที่ชัดเจนที่สุดต่อสถานะการเป็นผู้นำของ NVIDIA มาจากหน่วยประมวลผล Tensor Processing Units (TPU) ของ Google โดย Google ประสบความสำเร็จในการพิสูจน์ว่าสามารถเลี่ยงการพึ่งพา NVIDIA สำหรับเวิร์กโหลดภายในที่สำคัญที่สุดได้ ปัจจุบัน Gemini 3 และ 4 ได้รับการฝึกฝนเกือบทั้งหมด (95-100%) บน TPU ภายในของ Google ขณะที่ GPU ของ NVIDIA รองรับภาระงานเฉพาะดังกล่าวเพียง 0-5% เท่านั้น สำหรับงานประมวลผลผลลัพธ์ (Inference) ภายในองค์กร เช่น งานที่ขับเคลื่อน Search และ YouTube นั้น TPU ยังคงรองรับปริมาณงานอยู่ที่ประมาณ 85-90%
การเปลี่ยนแปลงนี้ส่งผลให้มุมมองของนักลงทุนเปลี่ยนไปว่า หากผู้นำด้านโมเดล AI เริ่มตีตัวออกห่างจาก NVIDIA แล้ว บริษัทรายอื่นจะดำเนินรอยตามหรือไม่? อย่างไรก็ตาม ในความเป็นจริงยังมีรายละเอียดที่ซับซ้อนกว่านั้นเมื่อพิจารณา Google ในฐานะสองหน่วยงานที่แยกจากกัน แม้ว่า "Internal Google" จะสามารถพึ่งพาตนเองได้แล้ว แต่ "External Google Cloud" ยังคงต้องพึ่งพา NVIDIA อย่างหนักเพื่อตอบสนองความต้องการของลูกค้า โดยลูกค้าภายนอกยังคงเลือกใช้ GPU ของ NVIDIA สำหรับเวิร์กโหลดประมาณ 60-65% สาเหตุหลักมาจาก TPU ของ Google อาจไม่ตอบโจทย์ความต้องการด้านสถาปัตยกรรมเฉพาะของลูกค้า หรือเป็นเพราะพวกเขาติดอยู่ในระบบนิเวศซอฟต์แวร์ CUDA
ประเภทของเวิร์กโหลด | % ที่ประมวลผลโดย Google TPU | % ที่ประมวลผลโดย NVIDIA GPU |
การฝึกฝน AI ภายในองค์กร (Gemini 3/4) | ~95% - 100% | ~0% - 5% |
การประมวลผลผลลัพธ์ AI ภายในองค์กร (Search/YouTube) | ~85% - 90% | ~10% - 15% |
External Google Cloud (การเช่าของลูกค้า) | ~35% - 40% | ~60% - 65% |
ในขณะที่อุตสาหกรรม AI ก้าวสู่ช่วงเติบโตเต็มที่ จุดโฟกัสกำลังเปลี่ยนจากการฝึกฝนโมเดลไปสู่ "การอนุมาน" (Inference) หรือการประมวลผลโมเดลที่ฝึกฝนแล้วเพื่อตอบคำถามของผู้ใช้ ในระยะใหม่นี้ หน่วยประมวลผลกลาง (CPU) กำลังกลับมาทวีความสำคัญอีกครั้ง ซึ่งต่างจากการฝึกฝนที่ต้องใช้พลังการประมวลผลแบบขนานของ GPU เนื่องจากการอนุมานมักเกี่ยวข้องกับตรรกะแบบ "ทางเลือก" (Branchy logic) หรือชุดการตัดสินใจ "if/then" ที่รวดเร็วซึ่ง CPU มีขีดความสามารถในการจัดการได้ดีกว่า
การเปลี่ยนแปลงนี้ส่งผลดีต่อ AMD เนื่องจาก CPU ของบริษัทมักถูกมองว่ามีประสิทธิภาพมากกว่าและคุ้มค่ากว่าเมื่อพิจารณาแบบรายผลิตภัณฑ์ เมื่อเทียบกับรุ่น "Grace" หรือ "Vera" ของ NVIDIA ในตลาดปัจจุบัน ลูกค้าคลาวด์ภายนอกหลายรายเลือกใช้แนวทางแบบ "ไฮบริด" โดยการใช้ NVIDIA GPU ควบคู่กับ AMD CPU โมเดลธุรกิจแบบ "แยกส่วน" (a-la-carte) ของ AMD นี้แตกต่างจากแนวทางแบบ "ชุดรวม" (set meal) ของ NVIDIA ที่พยายามจะขาย GPU และ CPU เป็นแพ็กเกจที่รวมเข้าด้วยกันอย่างเบ็ดเสร็จ
เป้าหมายของ NVIDIA คือการทลายแนวโน้มแบบไฮบริดนี้โดยการพิสูจน์ว่า CPU ของตนเอง (เช่น รุ่น Vera) ทำงานภายในระบบนิเวศของบริษัทได้ดีกว่า AMD Venice CPU ของบริษัทอื่น แม้ว่า AMD จะมีความได้เปรียบในด้าน "ตรรกะประมวลผลดิบ" และ IPC (จำนวนคำสั่งต่อรอบนาฬิกา) แต่ Vera CPU ของ NVIDIA ก็มอบคุณสมบัติการประหยัดพลังงานที่สูงเป็นพิเศษผ่านสถาปัตยกรรมแบบ ARM และได้รับการปรับแต่งมาอย่างเหมาะสมที่สุดสำหรับซอฟต์แวร์ AI โดยเฉพาะ
| GPU ที่เลือกใช้ | CPU ที่เลือกใช้ |
การใช้งานภายในของ Google | Google TPUs | Google Axion |
ลูกค้าภายนอกของ Google | Nvidia GPUs | AMD CPUs |
จุดแข็งที่แท้จริงของเกราะป้องกันทางธุรกิจ (moat) ของ NVIDIA อยู่ในส่วนธุรกิจที่มักถูกมองข้าม นั่นคือระบบเครือข่าย (networking) ซึ่งปัจจุบันคิดเป็นสัดส่วนราว 15% ของรายได้รวมจากศูนย์ข้อมูล (Data Center) หรือประมาณ 8.2 พันล้านดอลลาร์ และมีการเติบโตที่น่าทึ่งถึง 162% เมื่อเทียบรายปี นี่คือ "อาวุธลับ" ของ NVIDIA เนื่องจากเป็นการสร้างสะพานเชื่อมต่อระหว่าง CPU และ GPU ที่คู่แข่งทำเลียนแบบได้ยาก
ตัวอย่างเช่น เมื่อลูกค้าใช้ CPU ของ AMD ร่วมกับ GPU ของ NVIDIA ความเร็วในการเชื่อมต่อจะถูกจำกัดด้วย PCIe 6.0 ซึ่งสูงสุดที่ 128 GB/s อย่างไรก็ตาม เมื่อใช้โซลูชันของ NVIDIA ทั้งหมด (CPU รุ่น Vera และ GPU รุ่น Rubin) อุปกรณ์เครือข่ายกรรมสิทธิ์อย่าง NVLink 5.0 จะช่วยให้ทำความเร็วได้ถึง 1,800 GB/s ซึ่งเร็วกว่าการเชื่อมต่อมาตรฐานถึงกว่า 14 เท่า
ตัวชี้วัด | AMD EPYC "Venice" | NVIDIA "Vera" CPU |
ตรรกะประมวลผล CPU พื้นฐาน | ผู้ชนะ (IPC สูงกว่า / x86) | ดี (ARM Neoverse) |
ความเร็วการเชื่อมต่อ CPU-to-GPU | 128 GB/s (PCIe 6.0) | 1,800 GB/s (NVLink) |
ประสิทธิภาพการใช้พลังงาน | สูง | สูงระดับพิเศษ (ARM) |
ทางเลือกด้านซอฟต์แวร์ | แบบเปิด (รันได้ทุกระบบ) | แบบปิด (ปรับแต่งเพื่อ AI) |
ความแตกต่างด้านประสิทธิภาพนี้เป็นปัจจัยขับเคลื่อนหลักที่ NVIDIA ใช้โน้มน้าวให้ลูกค้าเปลี่ยนจากการใช้ CPU ของ AMD หากความเร็วของระบบโดยรวมกลายเป็นคอขวด ข้อได้เปรียบด้าน "ตรรกะประมวลผลพื้นฐาน" ของ CPU จาก AMD จะไม่มีความหมายอีกต่อไป ความเคลื่อนไหวล่าสุด เช่น การที่ Meta สั่งซื้อ CPU ของ NVIDIA เป็นจำนวนมาก ชี้ให้เห็นว่ากลยุทธ์ระยะยาวในการขยายธุรกิจ CPU ผ่านการบูรณาการระบบเครือข่ายเริ่มเห็นผลชัดเจนแล้ว
NVIDIA ไม่ได้เป็นเพียงผู้ผลิตชิปอีกต่อไป แต่เป็นผู้ให้บริการระบบครบวงจร แม้ว่า "ศึก GPU" จะได้รับชัยชนะไปเมื่อหลายปีก่อน แต่ "ศึก AI CPU" เพิ่งจะเริ่มต้นขึ้นเท่านั้น ความกังขาของตลาดในปัจจุบันสะท้อนถึงความกังวลว่า NVIDIA จะไม่สามารถกำหนดราคาสูงหรือรักษาความเป็นผู้นำได้ เนื่องจากอุตสาหกรรมกำลังเปลี่ยนผ่านไปสู่กระบวนการอนุมาน (inference) และชิปซิลิคอนแบบปรับแต่งพิเศษ (custom silicon) อย่างไรก็ตาม ด้วยการผสานรวม GPU, CPU และระบบเครือข่ายความเร็วสูงเข้าสู่ระบบนิเวศแบบปิดที่ได้รับการปรับแต่งอย่างเหมาะสม NVIDIA กำลังสร้างปราการทางธุรกิจที่ยากจะก้าวข้ามได้ด้วยส่วนประกอบแบบแยกส่วน (a-la-carte) ซึ่งในการรายงานผลประกอบการที่กำลังจะมาถึง คาดว่านายเจนเซ่น หวง ประธานเจ้าหน้าที่บริหาร จะเน้นย้ำถึงการครองตลาดแบบครบวงจร (full-stack dominance) ว่าเป็นกุญแจสำคัญในการรักษาอัตรากำไรที่ระดับ 75% เอาไว้ได้ ท่ามกลางการแข่งขันที่ทวีความรุนแรงขึ้น
เนื้อหานี้ได้รับการแปลโดยปัญญาประดิษฐ์ (AI) และผ่านตรวจสอบโดยมนุษย์ มีไว้เพื่อการอ้างอิงและข้อมูลทั่วไปเท่านั้น ไม่ใช่การแนะนำการลงทุนแต่อย่างใด