NVIDIA ตกลงเป็นพันธมิตรกับ Groq ในข้อตกลงอนุญาตให้ใช้สิทธิเทคโนโลยี AI inference มูลค่า 2 หมื่นล้านดอลลาร์ โดย NVIDIA จะรวมโปรเซสเซอร์ LPU ของ Groq เข้ากับสถาปัตยกรรม NVIDIA AI Factory เพื่อรองรับ AI inference แบบเรียลไทม์ที่ซับซ้อนขึ้น พร้อมทั้งดึงตัวบุคลากรหลักของ Groq เข้ามาร่วมงาน ข้อตกลงนี้ไม่ใช่การเข้าซื้อกิจการ Groq ยังคงเป็นอิสระภายใต้การบริหารใหม่ โดยเน้นย้ำถึงความสำคัญที่เพิ่มขึ้นของ AI inference ซึ่งคาดว่าจะมีสัดส่วน 75% ของภาระงาน AI ทั้งหมดภายในปี 2030

TradingKey - เมื่อวันที่ 24 ธันวาคม ตามเวลาท้องถิ่น Groq สตาร์ทอัพด้านชิป AI ของสหรัฐฯ ได้ประกาศผ่านเว็บไซต์ทางการว่า บริษัทได้บรรลุข้อตกลงอนุญาตให้ใช้สิทธิเทคโนโลยีแบบไม่ผูกขาดกับ NVIDIA
ตามเงื่อนไขของข้อตกลงดังกล่าว NVIDIA จะจ่ายเงินสดประมาณ 2 หมื่นล้านดอลลาร์ และ Groq จะอนุญาตให้ NVIDIA ใช้เทคโนโลยีหลักด้าน AI inference โดยที่ NVIDIA วางแผนที่จะนำเทคโนโลยีเหล่านี้ไปรวมเข้ากับผลิตภัณฑ์ในอนาคต ขณะเดียวกัน Jonathan Ross ผู้ก่อตั้ง Groq, Sunny Madra ประธานบริษัท และสมาชิกหลักหลายคนของทีมวิจัยและพัฒนา จะเข้าร่วมงานกับ NVIDIA อย่างเป็นทางการ เพื่อขับเคลื่อนการนำไปใช้และการขยายผลของเทคโนโลยีที่เกี่ยวข้อง
แม้ว่าก่อนหน้านี้จะมีข่าวลือในตลาดว่า NVIDIA ตั้งใจที่จะเข้าซื้อกิจการ Groq ทั้งหมดด้วยเงินสดประมาณ 2 หมื่นล้านดอลลาร์ ซึ่งจะเป็นข้อตกลงการควบรวมกิจการ (M&A) ที่ใหญ่ที่สุดเท่าที่เคยมีมา แต่ข้ออ้างดังกล่าวได้รับการปฏิเสธในภายหลังจากทั้งสองฝ่าย
NVIDIA แถลงอย่างชัดเจนว่านี่ไม่ใช่การเข้าซื้อกิจการ แต่เป็นการร่วมมือด้านการอนุญาตให้ใช้สิทธิในทรัพย์สินทางปัญญาเท่านั้น Groq ยังเน้นย้ำว่าบริษัทยังคงเป็นอิสระในการดำเนินงาน โดยมี Simon Edwards ประธานเจ้าหน้าที่ฝ่ายการเงิน เข้ารับตำแหน่ง CEO และธุรกิจบริการคลาวด์ที่มีอยู่เดิมคือ GroqCloud จะยังคงดำเนินการตามปกติ
ในอีเมลภายในถึงพนักงาน Jensen Huang ซีอีโอของ NVIDIA ได้อธิบายอย่างชัดเจนถึงเจตนาเชิงกลยุทธ์เบื้องหลังความร่วมมือกับ Groq เขากล่าวว่าด้วยความร่วมมือนี้ บริษัทจะรวมโปรเซสเซอร์ที่มีความหน่วงต่ำมาก (ultra-low latency processors) ของ Groq เข้ากับสถาปัตยกรรม NVIDIA AI Factory เพื่อรองรับปริมาณงาน AI inference แบบเรียลไทม์ที่ใหญ่ขึ้นและซับซ้อนยิ่งขึ้น
Huang เสริมว่า “แม้เราจะดึงตัวบุคลากรชั้นนำและอนุญาตให้ใช้สิทธิในทรัพย์สินทางปัญญาของ Groq แต่เราไม่ได้เข้าซื้อกิจการบริษัท Groq”
ขณะที่ Generative AI เข้าสู่ช่วงของการนำไปใช้งานเชิงพาณิชย์อย่างรวดเร็ว ความต้องการของตลาดสำหรับสถาปัตยกรรมการประมวลผลกำลังเปลี่ยนแปลงไป การคาดการณ์ของอุตสาหกรรมระบุว่าภายในปี 2030 "งาน inference" จะคิดเป็นสัดส่วนสูงถึง 75% ของภาระงานการประมวลผล AI ทั้งหมด ซึ่งแสดงถึงขนาดตลาดที่ 2.55 แสนล้านดอลลาร์ ในทางตรงกันข้าม GPU ขนาดใหญ่ที่ใช้กันอย่างแพร่หลายในปัจจุบันเหมาะสมกับขั้นตอนการฝึกอบรมมากกว่า และด้วยต้นทุนที่สูงและการใช้พลังงานจำนวนมาก ทำให้ไม่เหมาะสำหรับทุกสถานการณ์
เทคโนโลยี LPU (Language Processing Unit) ของ Groq มีคุณค่าในจุดนี้ ในงาน AI inference โดยเฉพาะ ความเร็วในการประมวลผลและประสิทธิภาพด้านความหน่วงของ LPU เหนือกว่า GPU แบบดั้งเดิม ด้วยความร่วมมือด้านการอนุญาตให้ใช้สิทธิครั้งนี้ NVIDIA ไม่เพียงแต่ได้มาซึ่งเทคโนโลยีที่สำคัญ แต่ยังได้ดึงตัวบุคลากรหลักเข้ามาในองค์กร ซึ่งเป็นการวางตำแหน่งให้บริษัทสามารถแก้ไขข้อบกพร่องในด้าน inference ได้อย่างรวดเร็ว
การเสริมสร้างความแข็งแกร่งเชิงกลยุทธ์นี้ ได้รับการสนับสนุนจากความแข็งแกร่งทางการเงินที่เพิ่มขึ้นของ NVIDIA ณ สิ้นเดือนตุลาคมที่ผ่านมา เงินสดและการลงทุนระยะสั้นของบริษัทพุ่งสูงถึง 6 หมื่นล้านดอลลาร์ เพิ่มขึ้นกว่าสามเท่าจาก 1.33 หมื่นล้านดอลลาร์ ณ ต้นปี 2023
แตกต่างจากการเข้าซื้อกิจการ Mellanox ขนาดใหญ่ด้วยมูลค่า 6.9 พันล้านดอลลาร์ในปี 2019 ข้อตกลง Groq นี้เกิดขึ้นในรูปแบบของการอนุญาตให้ใช้สิทธิเทคโนโลยีแบบไม่ผูกขาดบวกกับการรวมบุคลากร ซึ่งเป็นโครงสร้างข้อตกลงที่สะท้อนรูปแบบที่ Microsoft, Amazon และ Google นำมาใช้ในช่วงสองปีที่ผ่านมา และแสดงถึงกลยุทธ์ทั่วไปสำหรับบริษัทยักษ์ใหญ่ด้านเทคโนโลยีในการหลีกเลี่ยงการตรวจสอบด้านกฎระเบียบในช่วงไม่นานมานี้
แม้จะไม่มีการเข้าซื้อกิจการขนาดใหญ่ แต่การวางตำแหน่งเชิงป้องกันของ NVIDIA กำลังเกิดขึ้น เมื่อเร็ว ๆ นี้ บริษัทได้ลงทุนอย่างมากในระบบนิเวศ AI รวมถึงการอัดฉีดเงินทุนใน Crusoe ซึ่งเป็นบริษัทโครงสร้างพื้นฐาน AI และ Cohere ผู้พัฒนาโมเดล, การเพิ่มสัดส่วนการถือหุ้นใน CoreWeave ผู้ให้บริการคลาวด์ AI และการวางแผนลงทุน 1 แสนล้านดอลลาร์ใน OpenAI และ 5 พันล้านดอลลาร์ใน Intel
Groq ก่อตั้งขึ้นในปี 2016 เป็นสตาร์ทอัพที่โดดเด่นใน Silicon Valley ซึ่งเชี่ยวชาญในการออกแบบชิปเร่งความเร็วสำหรับการประมวลผล AI model inference (LPUs) โดยที่ Jonathan Ross ผู้ก่อตั้ง เคยเป็นสมาชิกคนสำคัญของโครงการ TPU ของ Google และต่อมาได้นำทีมงาน TPU ดั้งเดิมบางส่วนไปก่อตั้งกิจการใหม่
มีรายงานว่า ผลิตภัณฑ์หลักของบริษัทคือ LPU ได้รับการออกแบบโดยอิงจากสถาปัตยกรรม 'Temporal Instruction Set Computer' (TISC) ที่เป็นเอกลักษณ์ โดยใช้ SRAM เป็นสื่อจัดเก็บข้อมูล ให้ปริมาณงานข้อมูลแบนด์วิธสูงและคุณสมบัติความหน่วงต่ำมาก ซึ่งช่วยเพิ่มประสิทธิภาพการทำงานของโมเดลภาษาขนาดใหญ่ได้อย่างมาก
จากการประเมินของบุคคลที่สาม เมื่อรันโมเดลขนาดใหญ่อย่าง Meta Llama และ Mistral นั้น Groq LPU สามารถทำความเร็วในการสร้าง (generation speed) ได้เกิน 500 โทเคนต่อวินาที ซึ่งมีประสิทธิภาพเหนือกว่า H100 GPU อย่างเห็นได้ชัดภายใต้เงื่อนไขที่เทียบเท่ากัน
อย่างไรก็ตาม ประสิทธิภาพที่สูงนี้มาพร้อมกับข้อจำกัด: การ์ดเดี่ยวมีหน่วยความจำเพียง 230MB การติดตั้งเต็มรูปแบบต้องใช้การซ้อน LPU จำนวนมาก ซึ่งนำไปสู่ต้นทุนการติดตั้งและการใช้พลังงานที่สูงขึ้นอย่างมากเมื่อเทียบกับระบบ GPU กระแสหลักในปัจจุบัน
ดังนั้น ผู้คนในวงการอุตสาหกรรมจำนวนมากเชื่อว่าในขั้นตอนนี้ LPU ยังไม่สามารถเข้ามาแทนที่ GPU ได้อย่างสมบูรณ์ ทั้งในด้านความคุ้มค่าและด้านความเข้ากันได้กับระบบนิเวศ อย่างไรก็ตาม คุณค่าเชิงกลยุทธ์ของ LPU ในฐานะองค์ประกอบสำคัญในการปรับปรุงประสิทธิภาพการทำงานร่วมกันระหว่างการฝึกอบรม (training) และการอนุมาน (inference) ก็ไม่ควรมองข้าม
Dylan Patel หัวหน้านักวิเคราะห์จาก SemiAnalysis ชี้ให้เห็นว่าแม้ผลิตภัณฑ์รุ่นแรกอาจยังไม่สามารถท้าทายการครองตลาดของ H100 ได้ แต่ LPU สองรุ่นถัดไปของ Groq ก็พร้อมที่จะแข่งขันได้อย่างสูง ซึ่งอาจเป็นแรงผลักดันให้ NVIDIA เข้ามามีส่วนร่วมตั้งแต่เนิ่น ๆ
เนื้อหานี้ได้รับการแปลโดยปัญญาประดิษฐ์ (AI) และผ่านตรวจสอบโดยมนุษย์ มีไว้เพื่อการอ้างอิงและข้อมูลทั่วไปเท่านั้น ไม่ใช่การแนะนำการลงทุนแต่อย่างใด