※ 감수인

★★★★★ LePain님의 ‘오렌지보드 독점’ 의견은 본문 하단을 참조해 주세요 ★★★★

좋은 보고서 공유해 주셔서 감사 드립니다. 용어가 생소한 분들이 많을 듯 하여, 이해를 돕기 위해 용어를 본문 중간중간에 삽입하였습니다. 양이 많아 글의 흐름을 방해할 수도 있을 듯 합니다. (지식이 부족한 독자들을 위해) 양해 부탁 드립니다. 

과하게 오른 게 아닌가 라는 생각을 했었는데, 오른 이유를 이해할 수 있게 (친절하게) 도와주는 보고서입니다. 감사 드립니다.

 

*앱을 설치하시면, 구독하시는 크리에이터에 대한 새글 알림을 받아보실 수 있습니다.  '오렌지보드' 로 검색하셔서 설치 부탁 드립니다. Orangeboard.CT가 작성한 글에 댓글로 피드백 주시면, 고객 본인이 원하는 기능이 적용될 수 있습니다. 참여 부탁 드립니다.


 

생성형 AI인 GPT로 인해 AI 생태계가 급격하게 개입하게 되었다.

생성형 AI를 쉽게 설명하면 AI모델이 방대한 데이터를 훈련을 통해 쌓아놓고, 거기에 이용자가 특정 요구를 할 경우 학습을 바탕으로 추론하여 무엇인가를 생성해내는 것이다.

 

[1] 생성 AI 밸류체인

 

 
생성 AI는 위와 같이 반도체-클라우드 API-파운데이션모델-어플리케이션 과 같은 생태계로 구성이 되어 있다.

1. 파운데이션 모델

오픈 AI의 GPT가 파운데이션 모델이다. LLM(대규모 언어 모델)을 통해 AI 모델을 발전시키고 어플리케이션 기업들에게 API를 제공해준다. 진입 장벽이 굉장히 높고 유저가 많아질수록 비용이 증가하기 때문에 끊임없이 돈을 때려 넣어야 된다.
감수인 주) LLM(대규모 언어 모델)은 OpenAI에서 개발한 GPT-3.5 아키텍처에 기반한 대규모 언어 모델을 말합니다. "LLM"은 "Large Language Model"의 약자입니다.

2 어플리케이션

클라우드, 파운데이션 API를 활용해 서비스를 만드는 기업이다. 제공받은 API로 본인들의 서비스에 최적화되게끔 파인튜닝을 해서 사용하게 된다.

감수인 주) API는 "Application Programming Interface"의 약어로, 소프트웨어 애플리케이션 간에 서로 통신하고 상호작용할 수 있도록 하는 인터페이스를 의미합니다. API는 일종의 계약이며, 제공되는 기능, 매개변수, 데이터 형식 등을 정의합니다. 예를 들어, OpenAI의 GPT-3.5 모델을 사용하기 위해서는 OpenAI API를 호출해야 합니다. 
 

3. 클라우드 API 서비스

하드웨어 + 소프트웨어가 결합된 천문학적인 인프라를 갖춰야 제공이 가능하다. 빅테크의 영억이며 대부분의 기업들은 자체 AI 개발, LLM 개발을 꿈꾸지만 비용덕에 클라우드에 종속되게 된다.

4. 반도체

AI 모델을 구축하는데 있어 핵심 역할을 한다. GPU가 LLM을 구동하는 핵심 하드웨어이기 때문이다. LLM을 구축하기 위해서는 결국 컴퓨팅 파워가 중요하기 때문이다.

범용성을 추구하는 GPU 뿐 아니라 AI에만 특화되어 있는 ASIC 기반의 반도체도 많다.

그리고 결국 GPU를 도와주는 메모리 반도체 또한 핵심 역할을 담당하게 될 것이다.
감수인 주) GPU(Graphics Processing Unit)는 그래픽 처리에 특화된 프로세서로, 병렬 처리 능력이 뛰어나고 많은 수의 연산을 동시에 처리할 수 있습니다. 이러한 특성은 대규모 언어 모델의 학습과 추론 작업에 매우 유용합니다. 일반적으로 딥 러닝 작업을 위해 GPU를 사용하는 데에는 NVIDIA의 GPU가 널리 사용됩니다. NVIDIA는 딥 러닝을 위한 GPU 아키텍처인 CUDA를 개발하였습니다.
감수인 주) ASIC은 "Application-Specific Integrated Circuit"의 약어로, 특정 응용 분야에 특화된 반도체입니다. ASIC은 특정 기능을 수행하는데 최적화된 하드웨어 솔루션을 제공합니다. 이는 일반적인 목적의 프로세서나 GPU와는 달리, 특정 응용 분야에서 높은 성능과 효율성을 제공합니다. ASIC은 다양한 응용 분야에서 사용될 수 있습니다. 예를 들어, 통신 분야에서는 디지털 신호 처리, 부호화 및 복호화, 네트워크 프로토콜 처리 등을 위한 ASIC이 개발됩니다. 자동차 산업에서는 차량 제어 시스템, ADAS(Advanced Driver Assistance Systems), 자율 주행 등을 위한 ASIC을 사용합니다. 그리고 AI 분야에서는 딥 러닝 작업에 특화된 ASIC인 TPU(Tensor Processing Unit)가 활용되고 있습니다.

 

 

[2] GPU는 갑자기 왜 뜬거?


인공지능이 만들어낸 특이점이다. AI Training Set의 성장에서 강력하게 매년 10배의 속도로 증가하고 있다.
그리고 이렇게 AI 시장의 성장은 곧 GPU의 성장이라고 할 수 있다.

지난 수십년간 AI 성장에 제약을 만든 것은 미세선폭으로 만들어지는 CPU나 GPU가 아닌 의외로 메모리 성능의 한계였다. CPU는 매년 60%씩 성능향상이 나오는데 디램의 반응속도는 10%정도 상승하다보니 병목현상이 생기기 시작.

이러한 문제를 해결하기 위해 CPU 내부에 초고속 메모리 '캐시 메모리'를 탑재했다. (일반 디램의 10배 속도)

CPU는 프로그래밍된 순서도에 따라 만들어져 순서도를 빨리 돌리기 위해서는 CPU를 미세화시켜 트랜지스터를 많이 박는 식으로 진화가 되었다. CPU가 빨라져서 연산을 빨리 하게끔.

하지만 AI의 발전 형태가 단어를 순차적으로 입력하는 방식이 아닌 단어를 넣고 그 안에서 맥락을 찾아 관계성을 확보하는 방식으로 서로간에 수많은 연결이 생기게 되면서 방대한 양의 데이터를 훈련해야 하는 인공지능의 경우 직렬구조로 연산을 하는 CPU보다 GPU 방식이 유리해졌다. (트랜스포머 아케텍쳐)

GPU가 CPU보다 상대적으로 더 많은 ALU를 가지고 있어 더 많은 데이터 처리 및 학습이 가능했고, 이와 같은 강점은 대량의 데이터를 학습하는 머신러닝 서버에서 더 중요도가 높아졌다.
감수인 주) ALU는 "Arithmetic Logic Unit"의 약어로, 컴퓨터의 중앙 처리 장치(CPU)에 있는 하드웨어 유닛입니다. ALU는 산술 연산과 논리 연산을 수행하는데 사용되며, 데이터 처리와 계산 작업을 담당합니다. 산술 연산은 덧셈, 뺄셈, 곱셈, 나눗셈과 같은 연산을 포함합니다. 논리 연산은 논리적인 판단과 비트 수준의 연산을 수행하는 것을 의미합니다. 이는 AND, OR, XOR, NOT과 같은 논리 연산자를 사용하여 데이터의 비트 단위 조작을 수행하는 것을 포함합니다. 

 



인공지능의 경우 프로그램에 순서도도 없고 수없이 연결된 인공적인 인공신경망을 만들었다.

이렇게 산술 연산과 메모리 접근이 압도적으로 많은 특징은 수억번의 연산을 거쳐야 결과값이 출력되는 형태가 되었고 당연히 일을 병렬로 처리하는 GPU가 CPU대비 이점을 가져가게 되었다.

인공 신경망의 크기는 기존 CPU 기반 프로그램보다 매우 거대했고, 인공신경망은 어딘가에 저장돼 있어야 하므로 매우 큰 메모리가 필요하다.

결론적으로 이번 AI가 만들어낸 인공지능의 반도체 트렌드는 AI 가속기로 대변되는 GPU와 메모리의 콜라보라고 할 수 있다.

분야국내
(반도체) 생성형 AI는 결국 메모리 Bomb와 삼성파운드리 생태계 변화를 가져올 수 밖에 없다.
LePain2023.07.03
팔로워수632
완독시간21분

해당 리포트의 주식인사이트가 궁금하다면?