GTC 10분 요약: “AI 예약주문 1500조”와 엔비디아 ‘약점 보완’ 전략—이번엔 진짜로 출론(추론) 전쟁이 시작됐다
오늘 글에서 특히 꼭 봐야 할 3가지(끝까지 읽게 만드는 포인트)
-
엔비디아가 블랙(이전 세대) 대비 최대 50배급 가성비를 내세운 “베라루빈 + 그록 LPU” 로 출론(추론) 병목을 뚫는 전략을 공개했다.
-
AI 수요가 “학습(training)” 중심에서 “추론(inference/출론)” 중심으로 급격히 이동했고, 특히 에이전틱 AI가 확산되며 토큰 소모가 폭증한다는 흐름을 GTC에서 강하게 확인했다.
-
주가가 바로 오르지 않는 이유로 월가가 지적하는 매출 상위 6개 하이퍼스케일러 쏠림(60%) 리스크를 짚고, 그래도 펀더멘탈(실적)이 결국 따라온다는 관점을 같이 정리했다.
1) GTC에서 엔비디아가 던진 가장 큰 메시지: “AI는 이제 추론이 돈이 된다”
1-1. 훈련→추론으로 무게중심 이동
- 예전 AI는 “학습이 거의 전부”에 가까웠다면, 이제는 대화/코딩/검증/재시도 같은 과정이 늘어나면서 토큰이 ‘추론 과정’에서 계속 소모되는 구조가 커졌다고 본 거예요.
- 그래서 엔비디아가 이번에 강조한 건 “훈련용 칩”보다 더 직접적으로는 추론 속도·비용 구조를 개선하는 방향입니다.
1-2. 에이전틱 AI 확산이 토큰 수요를 폭발시킨다
- 챗GPT 이후 모델이 고도화되며 “답만 하는 AI”에서 계획 → 실행 → 검증을 반복하는 코딩 에이전트(에이전틱 AI)가 본격화됐고요.
- 이때 잘못된 결과를 다시 고치고 재실행하는 과정이 반복되면서 추론 workload가 커지고 그게 시장 전체의 GPU/인프라 수요로 연결된다는 설명입니다.
2) ‘베라루빈 아키텍처 + 그록 3 LPU’ 공개: 약점을 정면으로 보완
2-1. 베라루빈(차세대) + 그록 3 LPU 탑재
- GTC에서 공개된 핵심은 새로운 베라루빈 아키텍처에 그록 3 LPU(추론 프로세서)가 탑재된 시스템이에요.
- 10년 단위로 보면 성능이 “수천만 배” 수준으로 좋아졌다는 주장도 함께 나왔고, 메시지는 명확합니다: 이제 엔비디아가 추론 효율의 약점을 더 이상 방치하지 않겠다는 방향성이죠.
2-2. 추론 병목 제거가 핵심—분산 추론(Pre-fill / Decode)
- 여기서 중요한 개념이 분산 추론입니다. 쉽게 말해 추론을 두 단계로 나눕니다.
- 프리필(Pre-fill): 기존의 루빈 CPX로 처리
- 디코드(Decode): 새로 나온 그록 LPX로 처리
- 그리고 이걸 고정이 아니라 상황에 따라 동적으로 적용하는 소프트웨어 스택(다이나모)이 같이 강조됐어요.
3) “극단적인 코디자인”으로 칩 7종 수직 통합: AI 팩토리 완성형
3-1. CPU~GPU~네트워킹까지 ‘처음부터 끝까지’ 설계
- 엔비디아가 이번에 내세운 방식은 “칩만 좋게 만들겠다”가 아니라, 하드웨어-소프트웨어 생태계 전체를 한 세트로 최적화하겠다는 건데요.
- CPU, 베라 CPU, 루빈 GPU, 네트워킹 관련 칩까지 합쳐서 “거의 7개의 칩”을 수직 계열처럼 엮었다는 표현이 나옵니다.
- 결국 목표는 AI 팩토리를 데이터센터 단위에서 극단적으로 효율화하는 거예요.
3-2. 가성비: 블랙 대비 35배(최대 50배) 개선 주장
- 가장 공격적인 숫자가 여기입니다.
- “가성비가 대략 35배, 많게는 50배까지 좋아졌다”는 분석이 언급됐고, 공신력 있는 기관 관점에서도 “가성비가 깡패”라는 결론으로 읽힙니다.
4) 그록 3 LPU의 특징: SRAM 기반 + 렉(랙) 단위 성능 점프
4-1. SRAM 기반이라 ‘용량은 작아도 속도는 미친 수준’
- 그록 3 LPU의 특징으로 SRAM 기반이 언급됩니다.
- 직관적으로는 “저장 공간은 상대적으로 적지만, 접근 속도/연산 속도가 매우 빠른 반도체” 쪽으로 이해하면 된다고 풀어놨어요.
4-2. 그록칩 8개를 모아서 ‘거대한 수론 렉’ 구성
- 그록 3 LPU를 8개 묶어 “렉” 단위로 구성하고, 그 결과 성능이 경쟁사를 압도하는 수준으로 나온다고 설명합니다.
- 여기서 중요한 비교 포인트는 블랙 대비 최소 “3배 이상” 언급, 더 나아가 엔비디아 기술 스택이 모두 붙으면 최대 수천 배급까지 개선 여지가 있다고 본 거죠.
4-3. 경쟁사 입장에선 ‘추론 시장까지 장악’ 가능성이 커 보인다는 메시지
- 단순히 한 칩이 빠른 게 아니라, 분산 추론과 소프트웨어 스택이 합쳐져 추론 시장의 비용 구조 자체를 바꿀 수 있다는 관점입니다.
5) “예약주문 1500조”와 2027 매출 전망: 시장이 체감하는 성장의 크기
5-1. 2027년 매출 1조 달러+ & 이익률 70%대 언급
- 2027년 매출이 1조 달러를 넘긴다는 전망이 나왔고, 총이익률이 70%대를 넘는다는 수치가 포함됩니다.
- 영업이익 쪽도 7000억 달러 수준(표현상 “약 700빌리언”)까지 거론되면서, 단순 매출보다 “수익성”이 강조됐어요.
5-2. 월가 상향 추정이 계속 깨지고 있다는 흐름
- 월가 예측보다 상향되는 추정치가 반복된다는 뉘앙스가 큽니다.
- “몇 달 전에는 5000억 달러였는데 거의 두 배 가까이 상향” 같은 식으로 시장 기대가 계속 상향되는 그림이 나오고요.
6) “주가는 제자리”인 이유: 하이퍼스케일러 6곳 쏠림(60%) 리스크
6-1. 상위 6개 기업 매출 60% 차지
- 월가가 지적하는 포인트는 단순합니다.
- 매출의 60%가 아마존/마이크로소프트/구글/XAI/오라클/메타 같은 상위 6개 하이퍼스케일러에 집중돼 있다는 우려예요.
6-2. 그래서 “투자 강도 유지”가 관건
- 상위 기업들이 안정적(신용등급이 높고 부도 위험이 낮다)이라고 하더라도, 결국 시장 관점에선 추가 투자 사이클이 꺾이기라도 하면 밸류에이션이 흔들릴 수 있다는 우려가 생기는 거죠.
6-3. 블로그 관점 코멘트: 그래도 실적이 따라온다
- 하지만 글쓴이 관점에서는 “AI 버블”은 한물 간 흐름이고, 중요한 건 실적(펀더멘탈)이라 결국 주가도 실적을 따라갈 수밖에 없다는 쪽이에요.
7) ‘AI 버블’ 논란에 대한 해석: 지정학 변수(호르무즈)도 변수
- 원문에서는 AI 수요/투자 심리가 지정학적 이슈(예: 호르무즈 해협 관련 전쟁/리스크)에 영향을 받는 흐름을 언급합니다.
- 만약 지정학 이슈가 진정/해결 국면이면, “AI 버블 논란이 별거 아니었다”는 해석이 나올 수 있다는 식의 시나리오를 붙였어요.
8) 엔비디아의 또 다른 무기: 소프트웨어 오픈(오픈 소스) + 하드웨어 종속(쿠다식)
8-1. 니모클로(Nemo/NeMo) 오픈 소스화: 로컬 에이전트의 기업용 전환
- 최근 로컬 기본 에이전트(로컬 기본 에이전트류)로 알려진 오픈 클로/유사 계열에 대해, 기업이 쓰기엔 취약점(특히 개인정보 보호)이 있었다는 뉘앙스가 나옵니다.
- 엔비디아는 이를 보완한 기업용 플랫폼 성격의 니모클로를 오픈 소스로 풀기 시작했다고 해요.
8-2. 전략 요약: “오픈은 생태계로, 종속은 매출로”
- 하드웨어는 엔비디아에 맞추고, 소프트웨어는 오픈으로 확산을 도모하는 방식(쿠다 생태계 모델)이 반복된다는 평가가 나옵니다.
- 이건 “면도기-면도날” 같은 구조로 이해하면 쉽습니다.
9) 로드맵: 루빈 울트라(2028) + 파인만 계열(그 이후)
- 내년 루빈 울트라 공개, 그 다음 2028년에 파인만/파인만 어로사 같은 후속 제품 로드맵까지 언급됐어요.
- 여기서 중요한 건 “제품을 계속 내놓는다”보다 데이터센터 설계 자체를 AI로 시뮬레이션하고 더 효율적인 방향으로 고도화한다는 점이에요.
- 전력/쿨링/네트워킹까지 수직 통합을 강화하면서, 데이터센터 효율 격차가 더 커질 수 있다는 관점입니다.
글쓴이 관점의 최종 결론(이번 글의 핵심)
- 이번 GTC의 핵심은 결국 이거예요.
- 엔비디아가 AI 에이전트 시대를 정확히 예측했고, 그에 맞는 인프라를 처음부터 끝까지 깔아 시장 지배력을 강화했다.
- 하드웨어 성능만이 아니라 분산 추론 + 소프트웨어 스택 + 데이터센터 효율까지 한 세트로 묶어서 “경쟁이 어려운 구조”를 만든 느낌이 강합니다.
그동안 다른 뉴스에서 덜 다룬 ‘가장 중요한 내용’만 별도 정리
-
엔비디아가 이번에 진짜로 겨냥한 건 “학습 속도”가 아니라 에이전틱 AI가 늘리는 추론 workload의 병목이다.
-
그록 LPU는 단일 성능 과시가 아니라, Pre-fill/Decode를 분리하고 다이나모로 동적 적용하는 “시스템 설계”가 핵심이다.
-
주가가 바로 오르지 않는 이유로 나온 “하이퍼스케일러 6곳 60% 쏠림”은 단기 변동성 포인트지만, 출하(공급)와 실적(수요)이 계속 상향되는 한 구조적 추세가 꺾이기 어렵다는 관점이 같이 제시됐다.
-
오픈소스(니모클로)로 생태계를 넓히고 하드웨어 종속(쿠다식)으로 매출로 연결하는 전략이 이번 발표 흐름 안에도 자연스럽게 들어가 있다.
전하고자 하는 주요 내용(한 문단 요약)
엔비디아는 GTC에서 차세대 아키텍처(베라루빈)와 그록 3 LPU를 중심으로 에이전틱 AI 시대의 추론 비용 구조를 바꾸겠다는 방향을 강하게 제시했어요. 여기에 분산 추론(프리필/디코드 분리)과 소프트웨어 스택(동적 적용), 그리고 CPU~GPU~네트워킹까지 수직 통합한 데이터센터 효율 전략이 결합되면서, 경쟁사가 “칩 성능”만으로는 따라오기 어려운 게임으로 만들고 있다는 게 이번 정리의 결론입니다.
< Summary >
- AI 수요 중심이 학습에서 추론(출론)으로 이동했고, 에이전틱 AI가 토큰 소모를 폭발시킨다.
- 엔비디아는 베라루빈 + 그록 3 LPU로 추론 병목을 제거(분산 추론: 프리필/디코드 분리)하는 전략을 공개했다.
- 칩 7종 수준의 극단적 코디자인과 데이터센터 수직 통합으로 가성비를 블랙 대비 35배~최대 50배까지 끌어올렸다는 주장이 나왔다.
- 2027년 매출 1조 달러+ 전망과 실적 상향 흐름이 강조됐지만, 주가가 덜 움직인 이유로 상위 6개 하이퍼스케일러 매출 쏠림(60%) 리스크가 언급됐다.
- 소프트웨어는 오픈소스로 확산(니모클로), 하드웨어는 종속(쿠다식)으로 매출을 잠그는 엔비디아식 전략이 계속 이어진다.
[관련글에 해당 키워드: GTC / LPU / 엔비디아]



