ภาคส่วนชิป AI เพิ่มผู้เล่นรายใหญ่, Cerebras คู่แข่ง Nvidia วางแผนเข้าจดทะเบียนในสัปดาห์หน้า, ตั้งเป้าเป็น IPO ในสหรัฐฯ ที่ใหญ่ที่สุดของปี
Cerebras เตรียมเข้าจดทะเบียนใน Nasdaq วันที่ 14 พฤษภาคมนี้ ภายใต้สัญลักษณ์ "CBRS" เพื่อระดมทุน 3.5 พันล้านดอลลาร์ โดยมีมูลค่าประเมิน 2.66 หมื่นล้านดอลลาร์ บริษัทนำเสนอชิป Wafer-Scale Engine (WSE) ที่มีประสิทธิภาพเหนือกว่า GPU ของ Nvidia อย่างมีนัยสำคัญ ทั้งด้านขนาดหน่วยความจำ ความเร็ว และต้นทุนต่อโทเค็น Cerebras มุ่งเน้นตลาดการประมวลผล AI ซึ่งกำลังเติบโตอย่างรวดเร็ว และมีข้อตกลงร่วมกับ OpenAI และ AWS เพื่อขยายฐานลูกค้าในตลาดคลาวด์

TradingKey - มีรายงานว่า Cerebras ผู้ผลิตชิป AI วางแผนที่จะเข้าจดทะเบียนใน Nasdaq ในวันที่ 14 พฤษภาคมนี้ ภายใต้ชื่อย่อหลักทรัพย์ "CBRS" โดยการทำ IPO ในครั้งนี้มีแนวโน้มที่จะกลายเป็นการจดทะเบียนหุ้นใหม่ที่มีขนาดใหญ่ที่สุดในสหรัฐฯ ประจำปีนี้ ซึ่งจะเป็นการนำคู่แข่งที่น่าเกรงขามของ Nvidia ( NVDA) ในการแข่งขันด้านขุมพลังการประมวลผล AI เข้าสู่สปอตไลท์ของตลาดทุนอย่างเป็นทางการ
ตามข้อมูลในหนังสือชี้ชวนที่ยื่นในสัปดาห์นี้ Cerebras วางแผนที่จะเสนอขายหุ้น IPO จำนวน 28 ล้านหุ้น ในช่วงราคา 115 ถึง 125 ดอลลาร์ต่อหุ้น หากกำหนดราคาที่เพดานสูงสุด การระดมทุนครั้งนี้จะคิดเป็นมูลค่า 3.5 พันล้านดอลลาร์ และส่งผลให้บริษัทมีมูลค่าประเมินที่ 2.66 หมื่นล้านดอลลาร์ เมื่อรวมสิทธิซื้อหุ้นและส่วนของผู้ถือหุ้นอื่น ๆ มูลค่าประเมินรวมแบบปรับลดเต็มที่ (fully diluted valuation) จะอยู่ที่ประมาณ 3.3 หมื่นล้านดอลลาร์
นอกจากนี้ แหล่งข่าวที่เกี่ยวข้องเปิดเผยว่า เนื่องจากความต้องการจากนักลงทุนที่ล้นหลาม Cerebras อาจปรับเพิ่มช่วงราคาขึ้นเป็น 125–135 ดอลลาร์ต่อหุ้นอย่างเร็วที่สุดในวันที่ 12 พฤษภาคม โดยปัจจุบันมียอดจองซื้อหุ้น IPO เกินจำนวนที่เสนอขายไปแล้วมากกว่า 20 เท่า
นี่ถือเป็นความพยายามครั้งที่สองของ Cerebras ในการทำ IPO หลังจากที่ได้ถอนการยื่นจดทะเบียนไปเมื่อเดือนตุลาคมปีที่แล้ว เนื่องจากการตรวจสอบของรัฐบาลสหรัฐฯ เกี่ยวกับการลงทุนจาก G42 ซึ่งเป็นลูกค้าในอาบูดาบี ทั้งนี้ การกลับมาดำเนินการอีกครั้งประจวบเหมาะกับกระแสการลงทุนในโครงสร้างพื้นฐาน AI ที่พุ่งสูงขึ้นและการฟื้นตัวของตลาด IPO ในสหรัฐฯ ซึ่งช่วยกระตุ้นความสนใจจากตลาดได้อย่างมาก
เหตุใด Cerebras จึงกล้าท้าทาย Nvidia?
บริษัทชิปแห่งนี้ก่อตั้งขึ้นในปี 2558 ในรัฐแคลิฟอร์เนีย โดยได้มุ่งเป้าไปที่เส้นทางเทคนิคใหม่ทั้งหมดที่เหนือกว่า GPU มาตั้งแต่เริ่มก่อตั้ง นั่นคือการใช้เวเฟอร์ซิลิคอนทั้งแผ่นเพื่อสร้างชิปยักษ์โดยตรง แทนที่จะใช้วิธีดั้งเดิมในการตัดเวเฟอร์ออกเป็นได (die) หลายตัวแล้วนำมาต่อเข้าด้วยกัน สถาปัตยกรรมระดับเวเฟอร์ (wafer-scale architecture) นี้เองคือสิ่งที่ทำให้บริษัทมีความมั่นใจในการท้าทาย Nvidia
ผู้ก่อตั้งหลักหลายคนของบริษัทเคยดำรงตำแหน่งทางเทคนิคที่สำคัญในบริษัทผู้ผลิตชิปชั้นนำอย่าง AMD ซึ่งทำให้พวกเขามีความเข้าใจอย่างลึกซึ้งเกี่ยวกับข้อจำกัดทางเทคนิคของ GPU และปัญหาสำคัญของอุตสาหกรรม ในสภาวะตลาดที่ GPU ยังคงเป็นโซลูชันหลักสำหรับการฝึกฝนและประมวลผล (inference) ของ AI ทาง Cerebras ได้เลือกเส้นทางที่แตกต่าง โดยแก้ไขปัญหาคอขวดหลักของสถาปัตยกรรม GPU แบบดั้งเดิมในระดับกายภาพผ่านชิป Wafer-Scale Engine (WSE)
หากยกตัวอย่างชิป WSE-3 รุ่นล่าสุด ชิปนี้มีการรวมทรานซิสเตอร์ถึง 4 ล้านล้านตัว และคอร์ประมวลผล AI โดยเฉพาะจำนวน 900,000 คอร์ ด้วยพื้นที่ชิปขนาด 46,225 ตารางมิลลิเมตร ซึ่งใหญ่กว่าชิป B200 ของ Nvidia ถึง 56 เท่า โดยมีหน่วยความจำ SRAM บนชิปมากกว่า B200 ถึง 250 เท่า และมีแบนด์วิดท์หน่วยความจำสูงกว่าถึง 2,625 เท่า
การออกแบบนี้ช่วยให้สามารถจัดเก็บโมเดล AI ทั้งหมดไว้ในชิปเพียงตัวเดียว ซึ่งเป็นการขจัดความล่าช้า (latency) ที่เกิดจากการรับส่งข้อมูลบ่อยครั้งระหว่างชิปหลายตัวในคลัสเตอร์ GPU ได้อย่างสิ้นเชิง สิ่งนี้ถือเป็นข้อได้เปรียบที่สำคัญเมื่อต้องรับมือกับการประมวลผลโมเดลขนาดใหญ่และความต้องการการคำนวณระดับมหาศาล
ข้อมูลการทดสอบจากบุคคลที่สามแสดงให้เห็นว่า ในสถานการณ์การประมวลผลโมเดล Llama 4 Maverick 400B ระบบ Cerebras CS-3 สามารถทำความเร็วในการตอบสนองต่อผู้ใช้รายเดียวได้ที่ 2,522 โทเค็นต่อวินาที ซึ่งคิดเป็น 2.4 เท่าของ B200 ของ Nvidia ส่วนในสถานการณ์โมเดลขนาดเล็กอย่าง Llama 3.1 8B ความเร็วของระบบสูงถึง 20 เท่าเมื่อเทียบกับ H100 ของ Nvidia ในขณะที่ต้นทุนต่อโทเค็นสามารถลดลงได้สูงสุดถึง 80%
นอกเหนือจากการก้าวกระโดดด้านประสิทธิภาพของฮาร์ดแวร์แล้ว Cerebras ยังได้สร้างโซลูชันที่ครอบคลุมตั้งแต่ฮาร์ดแวร์เฉพาะไปจนถึงซอฟต์แวร์สแต็ก (software stack) โดยได้เปิดตัวระบบซูเปอร์คอมพิวเตอร์อย่าง CS-2 และ CS-3 ซึ่งรองรับทั้งการติดตั้งในพื้นที่ของลูกค้า (on-premise) และบริการคลาวด์แบบจ่ายตามการใช้งานจริง (pay-as-you-go)
รูปแบบการบริการที่ยืดหยุ่นนี้ได้ดึงดูดลูกค้ารายใหญ่จำนวนมาก โดยในเดือนมกราคม 2569 บริษัทได้ลงนามในข้อตกลงความร่วมมือระยะเวลา 3 ปีมูลค่ากว่า 2 หมื่นล้านดอลลาร์กับ OpenAI เพื่อจัดสรรกำลังการประมวลผลขนาด 750 เมกะวัตต์ ต่อมาในเดือนมีนาคม บริษัทได้ร่วมมือกับ AWS เพื่อเปิดตัวระบบ CS-3 บน Amazon Web Services ซึ่งทำให้เป็นตัวเร่งความเร็ว AI ที่ไม่ใช่ GPU รายแรกที่เข้าสู่ซัพพลายเชนของผู้ให้บริการคลาวด์รายใหญ่ นอกจากนี้ GlaxoSmithKline (GSK), กระทรวงพลังงานของสหรัฐฯ และห้องปฏิบัติการแห่งชาติหลายแห่งยังเป็นลูกค้าของบริษัทด้วย ซึ่งเป็นการยืนยันถึงความสามารถทางเทคนิคในหลากหลายมิติ
เมื่อพิจารณาจากแนวโน้มตลาด อุตสาหกรรม AI กำลังเปลี่ยนจุดเน้นจากการฝึกฝนไปสู่การประมวลผล (inference) โดยตลาดการประมวลผล AI ทั่วโลกมีมูลค่าแตะระดับ 1.062 แสนล้านดอลลาร์ในปี 2568 และคาดว่าจะเติบโตเป็น 2.55 แสนล้านดอลลาร์ภายในปี 2573 ซึ่งข้อได้เปรียบทางเทคนิคของ Cerebras นั้นสอดคล้องกับความต้องการของตลาดนี้อย่างแม่นยำ
ด้วยประสิทธิภาพที่โดดเด่นในสถานการณ์การประมวลผลแบบความหน่วงต่ำ บริษัทจึงครองอันดับหนึ่งในการเรียกใช้งานด้านการประมวลผลบนแพลตฟอร์มนักพัฒนา HuggingFace โดยในปี 2568 รายได้จากบริการคลาวด์เพื่อการประมวลผลคิดเป็นสัดส่วน 30% ของรายได้รวมทั้งหมด ซึ่งประสบความสำเร็จในการแย่งชิงส่วนแบ่งในตลาดที่ถูกครอบงำโดย Nvidia
เนื้อหานี้ได้รับการแปลโดยปัญญาประดิษฐ์ (AI) และผ่านตรวจสอบโดยมนุษย์ มีไว้เพื่อการอ้างอิงและข้อมูลทั่วไปเท่านั้น ไม่ใช่การแนะนำการลงทุนแต่อย่างใด
บทความแนะนำ













