tradingkey.logo
tradingkey.logo
검색

AI 칩 섹터에 중량급 플레이어 가세, 엔비디아 대항마 세레브라스 다음 주 상장 계획, 올해 최대 규모 미국 IPO 목표

TradingKeyMay 9, 2026 6:44 AM

AI 팟캐스트

facebooktwitterlinkedin

AI 반도체 기업 세레브라스(Cerebras)가 5월 14일 나스닥 상장을 준비 중이며, 올해 미국 최대 규모 IPO가 될 전망이다. 공모가 범위는 주당 115~125달러로, 상단 확정 시 35억 달러 조달 및 266억 달러 기업 가치를 평가받는다. 투자자 수요에 힘입어 공모가 범위가 상향될 가능성도 있다. 세레브라스는 웨이퍼 전체를 사용해 거대 칩을 제작하는 독자적인 웨이퍼 스케일 아키텍처로 엔비디아에 도전한다. 최신 WSE-3 칩은 엔비디아 B200 대비 월등히 큰 칩 면적과 높은 메모리 대역폭을 자랑하며, Llama 모델 추론에서 엔비디아 대비 뛰어난 성능과 비용 절감 효과를 보인다. OpenAI, AWS, GSK 등 주요 고객사를 확보했으며, AI 추론 시장 성장에 맞춰 틈새시장을 공략할 것으로 예상된다.

AI 생성 요약

TradingKey - AI 반도체 기업 세레브라스(Cerebras)가 5월 14일 티커명 "CBRS"로 Nasdaq에 상장할 계획인 것으로 알려졌다. 이번 IPO는 올해 미국 최대 규모의 신규 상장이 될 전망이며, AI 연산 능력 경쟁에서 엔비디아( NVDA)의 강력한 대항마인 이 기업을 자본 시장의 주목을 받는 무대로 공식 등장시키게 된다.

이번 주 제출된 투자설명서에 따르면, 세레브라스는 IPO를 통해 주당 115~125달러의 가격 범위로 2,800만 주를 발행할 계획이다. 공모가가 상단에서 확정될 경우 35억 달러를 조달하게 되며, 기업 가치는 266억 달러로 평가받는다. 주식매수선택권 및 기타 지분을 포함한 완전 희석 기준 기업 가치는 약 330억 달러에 이를 것으로 보인다.

특히 사안에 정통한 소식통은 강력한 투자자 수요에 힘입어 세레브라스가 이르면 5월 12일 공모가 범위를 주당 125~135달러로 인상할 수 있다고 전했다. 현재 해당 IPO는 공모 물량의 20배가 넘는 청약이 몰린 상태다.

이번 상장은 세레브라스의 두 번째 IPO 시도다. 지난해 10월, 이 회사는 아부다비 기반 고객사인 G42의 투자에 대한 미국 정부의 조사로 인해 상장 신청을 철회한 바 있다. 이번 재추진은 AI 인프라 투자 급증과 미국 IPO 시장의 회복세가 맞물리며 시장의 관심을 크게 끌어올리고 있다.

Cerebras는 왜 Nvidia에 도전하는가?

2015년 캘리포니아에서 설립된 이 칩 기업은 창립 이래 GPU를 넘어서는 완전히 새로운 기술 경로를 목표로 해왔다. 이는 웨이퍼를 여러 개의 다이로 절단한 뒤 다시 이어 붙이는 전통적인 방식 대신, 실리콘 웨이퍼 전체를 사용해 거대 칩을 직접 제작하는 방식이다. 이러한 웨이퍼 스케일 아키텍처는 이 기업이 Nvidia에 도전할 수 있는 자신감을 주는 핵심 요소다.

이 회사의 핵심 창립자 중 여럿은 AMD와 같은 선도적인 칩 제조사에서 주요 기술직을 역임했으며, 이를 통해 GPU의 기술적 한계와 업계의 페인 포인트를 깊이 이해하고 있다. GPU가 AI 학습 및 추론의 주류 솔루션으로 자리 잡은 시장 환경에서, Cerebras는 자사의 WSE(Wafer-Scale Engine) 칩을 통해 전통적인 GPU 아키텍처의 핵심 병목 현상을 물리적 수준에서 해결하며 대안적인 경로를 택했다.

최신 WSE-3 칩을 예로 들면, 이 칩은 4조 개의 트랜지스터와 90만 개의 AI 전용 컴퓨팅 코어를 통합하고 있다. 칩 면적은 46,225제곱밀리미터로 Nvidia의 B200 칩보다 56배 더 크며, 칩 내장 SRAM 메모리는 B200의 250배, 메모리 대역폭은 2,625배 더 높다.

이러한 설계를 통해 전체 AI 모델을 단일 칩에 완전히 저장할 수 있으며, 이는 GPU 클러스터 내 여러 칩 간의 빈번한 데이터 전송으로 발생하는 지연 시간을 근본적으로 제거한다. 이는 거대 모델 추론 및 초거대 컴퓨팅 수요를 처리할 때 상당한 이점을 제공한다.

제3자 테스트 데이터에 따르면, Llama 4 Maverick 400B 모델 추론 시나리오에서 Cerebras CS-3 시스템은 초당 2,522개 토큰의 단일 사용자 응답 속도를 기록했는데, 이는 Nvidia B200의 2.4배에 달한다. Llama 3.1 8B 소형 모델 시나리오에서는 속도가 Nvidia H100의 20배에 이르며, 토큰당 비용은 최대 80%까지 절감할 수 있다.

하드웨어 성능의 돌파구를 마련한 것 외에도, Cerebras는 전용 하드웨어부터 소프트웨어 스택에 이르는 종합 솔루션을 구축하여 CS-2 및 CS-3와 같은 슈퍼컴퓨팅 시스템을 출시했다. 이러한 시스템은 고객을 위한 온프레미스 구축과 종량제 방식의 클라우드 서비스를 모두 지원한다.

이러한 유연한 서비스 모델은 수많은 주요 고객들을 끌어들였다. 2026년 1월, 이 회사는 OpenAI와 750메가와트의 컴퓨팅 파워 배포를 위해 200억 달러를 초과하는 3년 단위 협력 계약을 체결했다. 3월에는 AWS와 파트너십을 맺고 아마존 웹 서비스에 CS-3 시스템을 출시하며, 주요 클라우드 제공업체의 공급망에 진입한 최초의 비 GPU 기반 AI 가속기가 되었다. 또한 글락소스미스크라인(GSK), 미국 에너지부, 그리고 여러 국립 연구소도 고객사로 확보하며 기술력에 대한 다각적인 검증을 마쳤다.

시장 트렌드를 살펴보면, AI 산업의 중심이 학습에서 추론으로 이동하고 있다. 글로벌 AI 추론 시장은 2025년 1,062억 달러 규모에 도달했으며, 2030년까지 2,550억 달러로 성장할 것으로 전망된다. Cerebras의 기술적 우위는 이러한 시장 수요와 정확히 일치한다.

저지연 추론 시나리오에서의 뛰어난 성능을 바탕으로 이 회사는 HuggingFace 개발자 플랫폼의 추론 호출 순위에서 1위를 차지했다. 2025년에는 추론 클라우드 서비스 매출이 전체 매출의 30%를 차지하며, Nvidia가 독점하고 있는 시장에서 성공적으로 틈새시장을 개척했다.

이 콘텐츠는 AI를 활용하여 번역되었으며, 명확성을 확보할 수 있도록 검토 과정을 거쳤습니다. 정보 제공 용도로만 제공됩니다.

원문 읽기
면책 조항: 이 기사의 내용은 전적으로 저자의 개인적인 의견을 나타내며, TradingKey의 공식적인 입장을 반영하지 않습니다. 이 기사는 투자 조언으로 간주되어서는 안 되며, 참고용으로만 제공됩니다. 독자들은 이 기사의 내용만을 바탕으로 투자 결정을 내려서는 안 됩니다. TradingKey는 이 기사에 의존한 거래 결과에 대해 책임을 지지 않습니다. 또한, TradingKey는 기사의 내용의 정확성을 보장할 수 없습니다. 투자 결정을 내리기 전에 독립적인 재무 상담사와 상담하여 관련된 리스크를 충분히 이해하는 것이 좋습니다.

추천 기사

KeyAI