tradingkey.logo

ความต้องการประมวลผลสำหรับ GenAI Inference อาจใหญ่แค่ไหน? UBS วิเคราะห์

Investing.com11 พ.ค. 2025 เวลา 8:30

Investing.com — แม้จะมีความกังวลของนักลงทุนเกี่ยวกับภาษีและการใช้จ่ายเกินในโครงสร้างพื้นฐาน AI แต่ UBS มองว่าความต้องการประมวลผลสําหรับ generative AI (genAI) inference มีแนวโน้มที่จะขยายตัวอย่างมากในหลายภาคส่วน

ตามรายงานของธนาคาร AI ยังคงมีความยืดหยุ่นต่อความไม่แน่นอนทางเศรษฐกิจมหภาค โดยบริษัทเทคโนโลยีรายใหญ่ของสหรัฐฯ ยืนยันแผนการลงทุน (capex) และเน้นย้ําว่าความต้องการด้านการประมวลผลยังคงเกินกว่าอุปทาน

UBS โต้แย้งว่า inference—กระบวนการในการรันโมเดล AI เพื่อสร้างคําตอบ—จะกลายเป็นตัวขับเคลื่อนหลักของความต้องการการประมวลผล AI ในอนาคต แซงหน้าการฝึกฝน (training)

"ปริมาณการคํานวณที่เราต้องการอันเป็นผลมาจาก agentic AI และการให้เหตุผลนั้นมากกว่าสิ่งที่เราคิดว่าต้องการเมื่อปีที่แล้วถึง 100 เท่าได้อย่างง่ายดาย" กล่าวโดย Jensen Huang ซีอีโอของ Nvidia (แนสแด็ก:NVDA) ซึ่งถูกอ้างอิงในบันทึกของ UBS

ธนาคารสะท้อนความคิดเห็นนี้ โดยชี้ให้เห็นถึงการเกิดขึ้นของวิธีการที่ซับซ้อนมากขึ้น เช่น Chain of Thought (CoT) reasoning ว่าเป็นแหล่งสําคัญของความเข้มข้นในการคํานวณที่เพิ่มขึ้น

ในการคาดการณ์ UBS ได้วางกรอบการใช้งาน genAI ไว้ 4 ประเภท: แชทบอท, Enterprise AI, Agentic AI และ Physical AI

แชทบอทอย่าง ChatGPT คาดว่าจะมีความต้องการด้านการประมวลผลเพิ่มขึ้นจาก 10 exaFLOP/s ในปี 2024 เป็น 200 exaFLOP/s ภายในปี 2030

สําหรับแอปพลิเคชันองค์กร เช่น การตรวจจับการฉ้อโกงและการสรุปสัญญา คาดว่าความต้องการ inference จะเติบโตเร็วยิ่งขึ้น—จาก 15 เป็น 440 exaFLOP/s ในช่วงเวลาเดียวกัน

การเติบโตที่น่าทึ่งที่สุดคาดว่าจะมาจาก agentic AI ซึ่งรวมถึงการสนับสนุนลูกค้าแบบอัตโนมัติและการทํางานอัตโนมัติ UBS ประมาณการว่าความต้องการจากส่วนนี้อาจเพิ่มขึ้นเป็น 14 zettaFLOP/s ภายในปี 2030 ซึ่งจะเป็น "ก้าวกระโดดที่ใหญ่มากจากความต้องการในปัจจุบัน ซึ่งเราประมาณการว่าอยู่ในระดับหลายร้อย exaFLOP/s" บริษัทกล่าวในบันทึก

Physical AI ซึ่งรวมถึงหุ่นยนต์และยานพาหนะอัตโนมัติ อาจต้องการการประมวลผลในระดับ yottaFLOP/s เมื่อมันพัฒนาไปสู่การจําลองแง่มุมของการรับรู้ของมนุษย์

ปัจจุบัน ความสามารถในการประมวลผล GPU ที่ติดตั้งอยู่ประมาณ 4,000 exaFLOP/s (เพิ่มขึ้นเป็น 5,000 ด้วย Tensor Processing Units (TPUs) ของ Google (แนสแด็ก:NASDAQ:GOOGL)) แต่ UBS ระบุว่าส่วนใหญ่ยังไม่ได้ถูกใช้งานอย่างเต็มที่

ข้อจํากัดเช่นคอขวดหน่วยความจํา GPU หมายความว่าการใช้งานจริงมักจะต่ํากว่าศักยภาพที่ควรจะเป็น ทําให้ไม่น่าเป็นไปได้ที่ฐานปัจจุบันจะสามารถตอบสนองความต้องการในอนาคตได้ โดยเฉพาะสําหรับ agentic และ physical AI

"Inference มักถูกจํากัดด้วยหน่วยความจํา GPU หมายความว่า FLOP/s ที่ชิปสามารถส่งมอบได้จริงนั้นต่ํากว่าค่าทางทฤษฎีสูงสุดมาก—โดยข้อจํากัดด้านหน่วยความจําส่งผลให้ชิปทํางานที่เพียง 25% ของ FLOP/s ที่ควรจะเป็น" บันทึกอธิบาย

"แม้จะมีข้อจํากัดเหล่านี้ ความสามารถที่มีอยู่อาจเพียงพอสําหรับความต้องการของแชทบอทในปัจจุบัน แต่ต่ํากว่ามากเมื่อเทียบกับสิ่งที่จะต้องการสําหรับ agentic และ physical AI ซึ่งจะต้องการพลังการประมวลผลในระดับที่แตกต่างกันโดยสิ้นเชิง" บันทึกเพิ่มเติม

โดยรวมแล้ว UBS สรุปว่าบทบาทที่ขยายตัวของ inference ในการนํา AI มาใช้ ประกอบกับความต้องการด้านฮาร์ดแวร์ที่เพิ่มขึ้น สนับสนุนการลงทุนอย่างต่อเนื่องในโครงสร้างพื้นฐาน AI

สําหรับนักลงทุน ธนาคารมองว่า "การถดถอยใดๆ ในหุ้นที่เกี่ยวข้องกับการคัดเลือก ’AI’ และ ’พลังงานและทรัพยากร’ ของเราเป็นจุดเข้าซื้อที่น่าสนใจ"

บทความนี้ถูกแปลโดยใช้ความช่วยเหลือจากปัญญาประดิษฐ์(AI) สำหรับข้อมูลเพิ่มเติม โปรดอ่านข้อกำหนดการใช้งาน

ข้อจำกัดความรับผิดชอบ: ข้อมูลที่ให้ไว้บนเว็บไซต์นี้มีไว้เพื่อวัตถุประสงค์ทางการศึกษาและให้ข้อมูลเท่านั้น และไม่ควรถือเป็นคำแนะนำทางการเงินหรือการลงทุน

บทความที่เกี่ยวข้อง

KeyAI