0

해외

엔비디아(NVDA) - FY 2Q24 컨퍼런스 콜 & 실적 정리

레드버드

2023.08.25

2
0

※ 감수인

모니터링 보고서 제공해 주셔서 감사 드립니다. 하기 글과 같이 읽으시면 좋을 듯 합니다.

 

엔비디아 : AI가 거품이라는 분들께, 미래를 이끌 엔비디아에 투자하세요 (2023.06.21)

엔비디아 실적 프리뷰: 반도체 섹터의 흐름을 바꿀 엔비디아(NVDA)의 시간이 다가옵니다 (2023.08.22)

 

 

- 시총 1조 1663억 달러, 23년 상승 223%, 8월 상승 1%.

 

 

* 보고서 검토 우선순위 : '속보 -> 보유 -> 독점 -> 요청시기 ' 순입니다 (절대적이지 않음).
** 앱을 설치하시면, 구독하시는 크리에이터에 대한 새글 알림을 받아보실 수 있습니다.

 

엔비디아의 회계연도 기준 24년 2분기 실적이 발표되었다.​​

 


회계연도 기준 24년 2분기 실적은 매출액 135억달러, 컨센서스의 110억 달러를 상회한다.

EPS 역시 2.7달러로, 컨센서스의 2.08달러를 상회한다.

각 부분의 실적을 요약해 보면 다음과 같다.

데이터센터 

​ - 매출액 103억 2천만 달러, QOQ 141%, YOY 171%

 - GH200 이번 분기 출시 예정

 - HBM3e 탑재된 2세대 버전 GH200은 24년 2분기 출시

게이밍

 - 매출액 24억 9천만 달러, QOQ 11%, YOY 22%

 - RTX 4060 출시, 가격: 299달러

 - 게임용 엔비디아 아바타 클라우드 엔진 출시

전문 시각화

 - 매출액 3억 7900만 달러, QOQ 28%, YOY -24%

 - 생성AI를 통해 3D 파이프라인 최적화 가능한 엔비디아 옴니머스 플랫폼 릴리스 발표

자동차

 - 매출액 2억 5300만 달러, QOQ -15%, YOY -15%

 - 미디어텍과 파트너십 체결

다음분기 가이던스로는 매출액 160억달러를 전망했다.

어닝 콜에서 몇 가지 정보를 확인할 수 있었다.

다음 분기 가이던스가 SMCI 컨콜에서 언급된 공급망 병목 현상 때문에 드라마틱 하게 올라가지 못할 것이라고 봤는데 그런 예상을 뒤엎고 160억 달러로 제시하면서 공급망 병목 현상이 해소되고 있음을 알 수 있었다.

엔비디아 CFO인 Colette Kress의 발언을 보자면 현재 엔비디아 가속 컴퓨팅 및 AI 플랫폼에 대한 수요가 엄청나고, 내년까지 매 분기 공급이 늘어날 것이라고 전망한다고 한다.

미국에서 데이터 센터 성장이 가장 컸으며 중국 매출 비중은 데이터센터 매출의 20~25% 수준이라고 언급, 중국에서의 칩 사재기 때문에 일시적인 어닝서프라이즈를 달성한 것이 아니라는 점도 보여줬고 20~25% 수준이면 엔비디아의 기존 중국 매출 비중과 유사하다.

CFO는 엔비디아 제품이 수출 제한 조치되더라도 현재 글로벌 수요가 너무 강력하기 때문에 실적에 당장 큰 영향을 미치지는 않을 것이지만, 장기적으로는 악화될 수 있다고도 언급했다.

GH200이 이번 분기에 출하되고 구글과 메타, 마이크로소프트가 가장 먼저 물량을 가져간다.

HBM3e를 탑재한 GH200은 24년 2분기에 출시될 예정이다.

그리고 AI를 활용한 기업들의 사례를 자세하게 언급했다.

메타는 릴스를 출시한 이후 AI 추천을 통해 인스타그램에서 이용자들이 보내는 시간이 24% 증가했고, 마이크로소프트가 발표한 AI 코파일럿은 사무직 근로자들과 소프트웨어 엔지니어의 생산성을 높일 수 있음을 예시로 들었다.

사실상 모든 산업이 생성 AI의 이점을 누릴 수 있다고 언급하며 어도비의 사례를 들었다.

컨콜에서 질문 내용도 AI 관련해서 집중되었다.​

컨퍼런스 콜 내용을 정리하면서 오역이 있을 수 있습니다.

​빨간색 단락은 제 생각을 첨언한 것 입니다.


Q. 과거에는 소규모 추론 모델이 ASIC 또는 CPU에서 수행되었는데 현재 GPT를 비롯한 큰 모델은 Grace Hopper 칩에서 작동합니다. 소형 추론 모델과 대형 추론 모델 사이의 시장 부문을 어떻게 보고 있는지, 그리고 제품 포트폴리오가 이에 대해서 포지셔닝 되어 있는지 궁금합니다.

A. 대규모 언어 모델은 경이롭습니다. 대규모 언어 모델은 구조화되지 않은 언어를 이해하는 능력이 있습니다. 핵심은 인간 언어 구조를 학습한 것이고, 그 안에서 방대한 인간 지식을 인코딩하거나 압축해놓았습니다. 이러한 대규모 언어 모델을 최대한 크게 구축한 뒤, 더 작은 모델을 도입하는 것입니다. 작은 모델은 특정 기술에서 더 뛰어날 수 있지만, 일반화, 소위 말하는 제로 샷 기능이 없습니다. 따라서 모든 사업은 큰 모델에서 시작합니다.

(제로 샷은 기존 데이터가 없는 상태에서 시작하는 새로운 작업을 말함)

Q. 내년에 얼마나 많은 공급이 추가될 것으로 예상하시나요? 매 분기 성장한다고 들었기 때문에 공급량이 얼마나 될지 추산이 불가능합니다. 또한 하이퍼 스케일 지출을 볼 때 실질 구매는 별로 증가하지 않는 것 같은데 향후 1~2년 동안 이 수요가 유지될 것이라고 보십니까? 데이터센터의 3분기 전망인 120억~130억 달러로 잡았는데 데이터센터들이 얼마나 AI 가속화를 현재 진행하고 있는지 알고 싶습니다.

A. 공급은 매 분기 늘어날 것이고, 다음 회계년도에도 늘어날 것 입니다. 전세계에는 1조 달러 규모의 데이터센터가 설치되어 있는데 그 데이터센터들이 현재 AI 화 되고 있습니다. 단순히 AI 화 되는 것뿐만 아니라 고속 컴퓨팅으로 전환하고 있어 동시에 두 개의 플랫폼 전환이 이루어지고 있습니다. 저는 이것이 단기적인 변화가 아니라 장기적 변화의 출발점이라고 보고 있습니다.

Q. 데이터센터 매출 비중에서 시스템과 칩(H100)이 각각 얼마인지 알려줄 수 있습니까?

A. HGX 시스템은 데이터센터 매출 비중에서 중요한 부분입니다. DGX 역시 중요하긴 마찬가지입니다. (DGX는 CPU와 GPU의 결합, HPX는 GPU 중심의 결합, DGX가 HPX보다 상위 모델로 더 많은 메모리를 장착) 이번 분기에는 HGX가 더 높았습니다. 당신이 H100이라고 언급했기 때문에 어떤 이미지를 생각하는지 알고 있습니다. 하지만 H100은 3만 5천 개의 부품과 1조 개의 트랜지스터가 합쳐진 제품입니다. 무게는 70파운드에 달합니다. 따라서 이걸 칩이라고 부르지만 사실은 매우 큰 시스템적 구성요소인 것입니다.

Q. 엔비디아 플랫폼의 가치에서 하드웨어와 소프트웨어의 차별화가 가지는 비율을 설명해 줄 수 있습니까? 또한 업계 선두의 위치라는 것을 정량화할 수치가 있을까요?

A. 첫 번째는 아키텍처를 꼽고 싶습니다. 아키텍처의 유연성과 다양한 성능 덕분에 모든 작업을 추론부터 후처리까지 진행할 수 있습니다. 두 번째는 설치 기반이라는 점입니다. 모든 소프트웨어 개발자는 우리 플랫폼을 이용합니다. 소프트웨어 개발자들은 최종 사용자에게 접근하여 비즈니스를 할 때 대규모 설치 기반을 추구하기 때문입니다. 세 번째는 우리의 도달 범위입니다. 우리 플랫폼을 이용하는 개발자와 고객이 너무 많습니다. 우리는 생성 AI를 전 세계 기업에게 전달할 수 있습니다. 이러한 접근성 때문에 모든 시스템 제조업체는 우리 플랫폼을 자세 시스템에 탑재하기를 원합니다. 마지막으로 규모와 속도 대문에 우리는 엔지니어링 속도를 가속화하면서 모든 것을 유지할 수 있습니다. 

Q. 아까 말했던 L40S에 대해서 질문이 있습니다. L40S가 공급 부족에 얼마나 도움이 될까요? 이 제품에 대한 수익성과 마진 기여도를 공유해 줄 수 있습니까?

A. H100은 대규모 언어 모델을 위해 설계되었고, 큰 모델과 많은 데이터 처리에 적합합니다. L40S는 그런 포지션은 아닙니다. L40S는 모델을 미세 조정하는데 장점이 있습니다. 이는 하이퍼 스케일의 확장을 불러올 것입니다. 

Q. 아직 충족되지 않은 수요가 남아 있는 것으로 압니다. 이 수치만큼 최근 몇 개 분기 동안 매출이 3배 증가했습니다. 충족되지 않은 수요가 얼마나 남아 있는지 알 수 있습니까? 또한 언제쯤이면 수요-공급이 충족되는 선에 도달할까요?

A. 올해와 내년까지도 남아있을 것으로 예상합니다. 전 세계가 범용 컴퓨팅에서 가속 컴퓨팅으로 전환하고 있기 때문에 이것이 곧 수요가 될 것입니다. 기업이 처리량을 늘리고, 비용을 절감하며, 에너지 효율성을 개선하는 좋은 방법은 가속 컴퓨팅입니다. 그렇게 하면 CPU의 사용이 줄어들겠지만, 데이터 센터용 CPU는 오히려 증가할 것입니다. 

Q. 지난 분기에 CSP가 데이터 센터 매출의 40%, 소비자 인터넷이 40%, 기업이 30%를 차지한다고 했던 것 같은데 이번에 얘기를 들어보면 CSP와 소비자 인터넷이 더 큰 비중을 차지한 것 같습니다. 또 젠슨 황께 질문드립니다. AI의 핵심 조력자로써 앞으로 고객이 합당한 수익을 창출할 수 있을 만큼 사용 사례가 있을 것이라고 얼마나 확신하는지 궁금합니다. 이 질문을 하는 이유는 수요가 약간의 공백이 있을 수 있다는 우려가 있기 때문입니다. 앞으로의 데이터 센터 비즈니스의 지속적인 증가를 지원할 충분한 여유가 있는지 궁금합니다.

A. 네 CSP는 이번 분기에 50% 이상을 차지했습니다. 그 뒤가 소비자 인터넷입니다. 뒤의 질문에 답변드리면은 그동안 시장의 주류였지만 더 이상 범용이 아니며 에너지 비용이 너무 많이 들고, 성능도 너무 느립니다. 세상에 가속 컴퓨팅이라는 새로운 방식이 생겼으며 이를 가속화한 것은 생성 AI입니다. 이를 사용하면 CPU의 부하를 줄여줍니다. 엄청난 돈을 절약할 수 있으며 처리량은 더 높습니다. 업계가 실질적으로 이것에서 열광합니다. 데이터 센터의 투자는 앞으로 범용 컴퓨팅이 아닌 가속 컴퓨팅이 될 것입니다. 우리는 수많은 개발자와 애플리케이션, 라이브러리를 가지고 이를 배포할 준비가 되어 있습니다. 이미 많은 신청이 있으며 전 세계 데이터 센터가 반응하고 있는 일입니다. 새로운 GPU 비즈니스가 등장했고, GPU 전문 클라우드 서비스 업체가 나오고 있습니다.  그리고 L40S를 기반으로 하는 HP, DELL, 및 레노버의 새로운 서버 제품과 결합하면 모든 기업들은 최첨단 AI 데이터 센터를 보유하게 됩니다. 그래서 분기 별로 무슨 일이 일어날지 정확히 예측할 수는 없지만 추세는 매우 분명합니다.


컨콜이 끝나고 젠슨 황이 다음과 발언을 하면서 마무리되었다.

Jensen Huang(엔비디아 CEO)

새로운 컴퓨팅 시대가 시작되었습니다. 업계는 가속 컴퓨팅과 제너레이티브 AI라는 두 가지 플랫폼 전환을 동시에 겪고 있습니다. 데이터센터는 범용 컴퓨팅에서 가속 컴퓨팅으로 플랫폼을 전환하고 있습니다. 1조 달러 규모의 글로벌 데이터센터가 가속 컴퓨팅으로 전환하여 성능, 에너지 효율성, 비용을 대폭 개선할 것입니다. 가속 컴퓨팅은 이제 소프트웨어의 플랫폼 전환을 주도하고 이전에는 불가능했던 새로운 애플리케이션을 가능하게 하는 제너레이티브 AI를 가능하게 했습니다.

가속화된 컴퓨팅과 제너레이티브 AI가 함께 광범위한 컴퓨터 산업 플랫폼의 변화를 주도하고 있습니다. 우리의 수요는 엄청납니다. 우리는 생산 능력을 크게 확장하고 있습니다. 올해와 내년에는 공급이 크게 증가할 것입니다. 엔비디아는 20년 이상 이를 준비해 왔으며, 전 세계 산업계가 구축할 수 있는 새로운 컴퓨팅 플랫폼을 만들어냈습니다.

NVIDIA를 특별하게 만드는 것은 바로 아키텍처입니다. NVIDIA는 데이터 처리, 트레이닝, 추론, 모든 AI 모델, 실시간 음성, 컴퓨터 비전, 거대한 추천자, 벡터 데이터베이스에 이르기까지 모든 것을 가속화합니다. 아키텍처의 성능과 다목적성은 최저 데이터센터 TCO와 최고의 에너지 효율로 이어집니다.

두 번째, 설치 기반. NVIDIA는 전 세계에 수억 개의 CUDA 호환 GPU를 보유하고 있습니다. 개발자가 최종 사용자에게 도달하고 비즈니스를 성장시키려면 대규모 설치 기반이 필요합니다. NVIDIA는 개발자들이 가장 선호하는 플랫폼입니다. 더 많은 개발자가 더 많은 애플리케이션을 개발할수록 고객에게 더 높은 가치를 제공하는 NVIDIA가 됩니다. 셋째, 도달 범위. NVIDIA는 클라우드, 엔터프라이즈 데이터센터, 산업용 엣지, PC, 워크스테이션, 계측기 및 로봇 공학에 있습니다. 각 분야에는 근본적으로 고유한 컴퓨팅 모델과 에코시스템이 있습니다. OEM, 컴퓨터 OEM과 같은 시스템 공급업체는 상당한 시장 수요와 도달 범위를 제공하는 NVIDIA에 자신 있게 투자할 수 있습니다.

규모와 속도. NVIDIA는 상당한 규모를 달성했으며 가속 컴퓨팅 및 제너레이티브 AI에 100% 투자하고 있습니다. 에코시스템 파트너는 강력한 로드맵을 제공할 수 있는 전문성, 집중력, 규모를 갖추고 있으며 성장을 지원할 수 있는 범위가 넓다는 점을 신뢰할 수 있습니다. 이러한 역량의 부가적인 결과 때문에 우리는 가속화하고 있습니다. 유니티는 확장되는 제너레이티브 AI의 세계에 대응하기 위해 약 6개월마다 또는 2년마다 새로운 제품을 업그레이드하고 추가하고 있습니다.

대규모 언어 모델의 학습 및 추론을 위해 H100의 출력을 높이는 한편, 클라우드 스케일아웃 및 엔터프라이즈 서버를 위한 확장성을 위해 새로운 L40S 범용 GPU를 출시하고 있습니다. 이더넷 스위치, 블루필드-3 슈퍼 NIC 및 소프트웨어로 구성된 스펙트럼-X는 이더넷 인프라에서 최상의 AI 성능을 원하는 고객을 지원합니다. 고객들은 이미 그레이스 호퍼를 통해 차세대 가속 컴퓨팅 및 제너레이티브 AI를 개발하고 있습니다.

우리는 개인 정보 보호, 보안 및 주권이 보장되는 모델과 함께 제너레이티브 AI를 필요로 하는 전 세계 기업들에게 NVIDIA AI를 확장하고 있습니다. 액센츄어, 어도비, 게티, 허깅 페이스, 스노우플레이크, 서비스나우, VM웨어, WPP 등 세계 유수의 엔터프라이즈 IT 기업 및 엔터프라이즈 시스템 파트너인 델, HPE, 레노버와 함께 전 세계 기업에 제너레이티브 AI를 도입하고 있습니다. 우리는 수조 달러 규모의 전 세계 중공업 업계가 제너레이티브 AI를 사용하여 물리적 자산을 구축 및 운영하는 방식을 자동화하고 생산성을 높일 수 있도록 디지털화하고 지원하는 NVIDIA Omniverse를 구축하고 있습니다.

제너레이티브 AI는 클라우드에서 시작되지만, 가장 중요한 기회는 수조 달러의 생산성 향상을 실현할 수 있는 세계 최대 규모의 산업에서 찾을 수 있습니다. NVIDIA, 고객, 파트너 및 전체 에코시스템이 컴퓨팅의 세대교체를 주도할 수 있는 흥미로운 시기입니다. 다음 분기에 진행 상황을 업데이트해 드리겠습니다.

 

 

 

Disclaimer
- 저자는 보고서 제공 시점 기준 보유하고 있지 않습니다.
- 당사의 모든 콘텐츠는 저작권법의 보호를 받은바, 무단 전재, 복사, 배포 등을 금합니다.
- 콘텐츠에 수록된 내용은 개인적인 견해로서, 당사 및 크리에이터는 그 정확성이나 완전성을 보장할 수 없습니다. 따라서 어떠한 경우에도 본 콘텐츠는 고객의 투자 결과에 대한 법적 책임소재에 대한 증빙 자료로 사용될 수 없습니다.
- 모든 콘텐츠는 외부의 부당한 압력이나 간섭없이 크리에이터의 의견이 반영되었음을 밝힙니다.

반도체를 중심으로 테크 섹터에 집중 투자 중입니다. 산업/기업 분석을 바탕으로 엣지 있는 기업을 발굴하려고합니다.

팔로워 null

    이런 글은 어떠세요?