본문 바로가기
경제

업계 지도

by Diligejy 2025. 4. 6.

 

https://link.coupang.com/a/cm6nFr

 

업계지도:AI가 바꾼 산업의 투자 지형도 - 경제전망 | 쿠팡

쿠팡에서 업계지도:AI가 바꾼 산업의 투자 지형도 구매하고 더 많은 혜택을 받으세요! 지금 할인중인 다른 경제전망 제품도 바로 쿠팡에서 확인할 수 있습니다.

www.coupang.com

 

 

 

 

 

p.17-21

메모리 반도체의 일종인 HBM은 'High Bandwidth Memory'의 약자로 우리말로 하면 '고대역폭 초고속 메모리'가 된다. D램 여러 개를 수직으로 연결해 기존 D램보다 최대한 빠르게 데이터 처리 속도를 끌어올리는 기술이다. D램을 여러 개 적층하면 기반 면적 당 훨씬 높은 용량을 확보할 수 있어 대용량 데이터 처리에 유리하다. 중앙처리장치(CPU), 그래픽처리장치(GPU)와 함께 패키징되며 칩과 칩 사이는 TSV(Through-Silicon Via, 실리콘 관통 전극) 기술을 사용해 연결한다.

 

HBM은 용량과 처리 속도에 따라 '1세대(HBM) - 2세대(HBM2) - 3세대(HBM2E) - 4세대(HBM3) - 5세대(HBM3E)' 순으로 구분된다. 5세대 HBM은 용량이 4세대보다 70% 늘었고, 초당 최대 1.15테라바이트(TB) 이상의 데이터를 처리할 수 있다. 

 

HBM은 반도체 산업의 패러다임을 바꿀 만큼 획기적인 기술이다. 하지만 고난도 기술을 요함에 따라 일반 D램보다 제작 및 개발 비용이 비싼 탓에 그동안 시장에서 크게 주목받지 못했다. 이러한 맹점에도 불구하고 HBM이 급부상하게 된 것은 AI시장이 열리면서다. HBM은 AI에 없어서는 안 될 핵심 부품이다. 자율주행차와 스마트 팩토리 등 다양한 산업에 AI가 침투하면서 엄청난 데이터를 처리하는 데 있어서 HBM은 필수가 됐다. 무엇보다 챗GPT의 등장은 반도체 세계대전의 게임 룰을 완전히 바꿔놓았다. 시장조사기관 욜인텔리전스에 따르면, HBM 글로벌 시장규모는 2024년 141억 달러(약 19조 원)에서 2025년 199억 달러로, 그리고 2029년까지 377억 달러로 광폭 성장을 이어갈 전망이다.

 

미래 반도체 업황의 판도 변화를 직시하려면 HBM에서 한 걸음 더 들어가 AI 알고리즘 연산에 특화된 'CXL(Compute eXpress Link)'도 함께 기억해 둘 필요가 있다. HBM은 GPU 성능을 극대화하기 위한 것이고, CXL은 학습용 데이터를 빠른 속도로 가져오는 역할을 한다. 

 

CXL은 쉽게 말해 고성능 연산이 필요한 애플리케이션에서 서로 다른 기종의 제품을 효율적으로 연결하는 차세대 인터페이스다. 보통 CPU 1개당 사용할 수 있는 D램 모듈이 제한되어 있는데, 데이터 처리량을 늘리려면 CPU를 늘려야 한다. 이때 CXL을 활용하면 이들 인터페이스를 하나로 통합해 장치 간 직접 통신을 가능하게 하고 메모리를 공유할 수 있다.

 

삼성전자는 2023년 5월 업계 최초로 CXL 2.0을 지원하는 128기가바이트 'CXL 2.0 D램'개발에 성공한 뒤 양산을 앞두고 있다. SK하이닉스도 2023년 10월에 CXL 기반 연산기능을 통합한 메모리 솔루션 'CMS 2.0'을 공개했고, 지금은 상용화 단계에 있다.

 

특히 SK하이닉스가 CXL을 통해 궁극적인 목표로 삼는 플랫폼은 다수의 서버 및 사용자가 공유하는 '메모리 풀(Pool)' 시스템이다. CXL은 시스템 간 공통된 인터페이스를 통해 내가 가진 (메모리) 리소스 뿐만 아니라 타인의 리소스까지 내 것처럼 활용할 수 있는 기회를 제공한다. 업계에서는 이를 가리켜 '메모리 중심 컴퓨팅(Memory-Driven Computing)'이라 부른다. 메모리 중심 컴퓨팅은 CXL과 같은 다수의 메모리 저장장치를 고속의 패브릭(Fabric)으로 수백에서 수천 개까지 연결해 거대한 공유 메모리를 구성하는 컴퓨팅 아키텍처를 형성한다. 이 공유 메모리 풀을 통해 복수의 컴퓨팅 노드가 각자 데이터를 병렬적으로 처리함으로써 컴퓨터의 정보 처리 속도가 크게 향상되는 것이다. 중요한 건 메모리 자원이 공유되는 만큼 기업들은 서버 구축을 위한 비용을 절감할 수 있다. 따라서 CXL은 데이터센터를 주도하는 IT 기업들의 총소유비용을 크게 절감시켜준다.

 

p.22

실제로 2024년 9월 11일 경(현지시간) 골드만삭스가 샌프란시스코에서 주최한 테크 콘퍼런스에서 엔비디아의 CEO 젠슨 황의 발언은 한국의 반도체 주가마저 견인했다. 젠슨 황은 엔비디아 AI칩을 구매한 하이퍼스케일러(대규모 데이터센터 제공업체)가 칩 구매 비용 1달러당 5달러의 수익을 거두고 있다고 말했다. 이어 엔비디아 제품을 이용하면 비용이 2배 올라가지만 컴퓨팅 속도가 20배 빨라져 결국 비용을 10분의 1로 절감할 수 있다고도 했다.

 

p.23

젠슨 황의 발언 및 엔비디아의 행보에서 특히 주목해야 하는 것은 신형 칩 '블랙웰(Blackwell)'이다. 블랙웰은 2개의 칩을 하나의 GPU로 합친 형태다. 집적된 트랜지스터가 모두 2,080억 개에 이르는데, 이는 전작 '하퍼(Hopper)'의 2배가 넘는 수준이다. 엔비디아는 블랙웰로 인해 AI 성능이 기존보다 4배 개선돼 비용과 에너지를 크게 절감할 것으로 기대한다. 가령 1조 8,000억 개의 매개변수를 가진 AI모델을 훈련하기 위해 기존에는 90일 동안 8,000개의 GPU를 15메가와트의 전력으로 돌려야 했다면, 블랙웰 출시로 같은 기간 2,000개의 GPU와 4메가와트만 있으면 된다는 것이다. 블랙웰은 아마존의 웹서비스와 구글 클라우드, 마이크로소프트 애저 등 3대 클라우드에서 사용될 예정이다.

 

p.25

TSMC의 3대 패키징 사업 로드맵 : InFO, CoWoS, SoIC

 

- InFO(Integrated Fan-Out) : Substrate를 사용하지 않고 웨이퍼 위에 RDL을 형성해 패키징 하는 기술

- CoWoS(Chip on Wafer on Substrate) : 실리콘 인터포저 위에 칩을 연결한 후 Substrate에 연결하는 방식으로, 현재 AI반도체 생산에 가장 보편적으로 이용되는 패키징 기술, 엔비디아의 H100, H200, 블랙웰, AMD의 MI300 등이 채택

- SoIC(System on Integrated Chips) : 마이크로 범프 없이 칩을 3D 구조로 적층하는 기술로, 기존 패키징 방식 대비 속도와 전력 효율 우수. AI 확산으로 데이터 처리량이 급증함에 따라 칩 성능을 향상시키기 위해 다수의 팹리스 기업들이 SoIC 기술 적용

 

p.27

젠슨 황은 "(삼성전자의 HBM은) 새로운 설계(Design)가 필요하다"고 언급하며 삼성전자를 난처하게 했다. 삼성전자가 엔비디아에 공급하는 HBM은 5세대 제품인 HBM3E로, 여기에 쓰이는 메모리는 4세대 모델인 '1a'이다.

 

그런데 D램 시장의 주력 모델이 '1a'에서 '1b'로 바뀌며 삼성전자가 궁지에 몰리고 만 것이다. 삼성전자 '1b'의 수율, 즉 불량을 제외한 완제품 비율은 60% 남짓으로 안정적인 양산 수율인 80%대에 미치지 못한다. 수율이 낮으면 제품원가가 높아져 판매하더라도 이윤이 줄 수밖에 없다.

 

삼성전자가 '1b'를 개발한 건 지난 2022년 12월이었다. 젠슨 황의 요구대로 지금 '1b'를 재설계할 경우 삼성전자의 기술력이 2년 전으로 후퇴할 수도 있게 된다. SK하이닉스는 이미 2024년 8월에 6세대용인 '1c' 개발에까지 성공한 상태다. 삼성전자와 SK하이닉스의 기술격차는 더 벌어질 상황에 놓였다.

 

삼성전자의 주가는 2024년 7월 11일 연중 최고치(장중 8만 7,600원)를 기록한 이후 '1b'로의 변경 소식이 시장에 퍼지며 좀체 하락세에서 벗어나지 못했다. 특히 외국인 투자가들의 삼성전자 매도 공세가 심각했다. 지난 6개월 동안 외국인 투자자들이 22조 원 넘는 삼성전자 주식을 공매도했다.

 

결국 HBM 1라운드에서 엔비디아는 SK하이닉스의 손을 들어줬다. SK하이닉스는 글로벌 최대 HBM 수요처인 엔비디아에 HBM3E 시리즈를 가장 먼저 납품한 뒤부터 사실상 독점 공급하고 있다. HBM은 다른 반도체 제품과 달리 주문형 반도체(ASIC)로 제작되는 고부가가치 품목으로, 과거 반도체 혹한기에 문제를 일으켰던 재고 잠식 리스크가 없다.

 

p.32-33

 

 

p.39

국내 AI 관련 유망 투자 

 

구분 기업명 설명
대형주 네이버 1. 2023년 8월, B2B 대상 초거대 AI 모델 '하이퍼클로바X' 출시
    - 네이버 뉴스(50년치), 블로그(9년치) 데이터 학습 기반, 한국어 특화 언어모델
    - '하이퍼클로바X'가 탑재된 '뉴로 클라우드' 납품
    - 내부 생성형 AI 서비스 구축 가능
2. 2024년 4월, AI 개발 도구 '클로바 스튜디오'를 통해 'HCX-DASH-001' 출시
    - 기존 '하이퍼클로바X' 모델(HCX-003)에 비해 비용 저렴, 속도 개선
3. 2024년 4월, '하이퍼클로바X' 기술 고도화를 위해 포티투마루에 전략적 투자
  카카오 1. 2024년 1월, 멀티모달 LLM 오픈소스 '허니비' 공개
2. 2021년 11월, GPT3 기반 한국어 특화 'KoGPT' 공개 및 'KoGPT 2.0' 공개 준비 중
3. 2023년 7월, 초거대 AI이밎  생성 모델 '칼로 2.0' 공개
  삼성SDS 1. 2024년 5월, 국내 버전의 MS Copilot인 'Brity Copilot', 'Fabrix'공식 론칭
  SK텔레콤 1. 2023년 11월, 아이폰 음성 녹음/요약 B2C 솔루션 '에이닷' 론칭
2. 2024년 실시간 번역 기능 추가 및 글로벌 통신사들과 JV 설립을 통해 '텔코 LLM' 개발 중
3. 대규모 지분 투자 : 앤트로픽, 람다, Perplexity, 사피온 등
  KT 1. 2023년 10월, 자체 개발한 LLM '믿음' 출시
2. KT클라우드 기반으로 기업용 생성형AIㅅ 솔루션 서비스 제공 확대 중
소형주 더존비즈온 1. 2024년 6월 사무용 AI 'ONE AI' 개발 및 출시
2. 2025년 'ONE AI' 매출 855% 증가 예상.
  루닛 1. 의료 AI 영상분석(흉부 엑스레이, 유방 촬영술 등) 솔루션 '루닛 인사이트' 출시
  폴라리스오피스 1. 2023년 8월, 생성형AI모델 기반 오피스 SW '폴라리스오피스 AI' 출시
2. 폴라리스오피스 AI의 Write 기능에 GPT-4o 적용
  이스트소프트 1. 2024년 5월, AI 휴먼 영상 제작 서비스 'AI 스튜디오 페르소' 및 실시간으로 대화/통역을 지원하는 대화형 AI 휴먼 서비스 '페르소 라이브'를 구독형으로 제공
  한글고컴퓨터 1. 2024년 상반기, AI 기반 질의응답 솔루션 '한컴피디아 QA' 출시
2. 2024년 AI 자동문서 작성 기능을 추가한 '한컴독스 AI' 정식 버전 및 AI 활용 지능형 문서 작성 도구 '한컴 어시스턴트' 베타 버전 출시
  플리토 1. AI 개반 실시간 통 번역 솔루션 '챗 트렌슬레이션/라이브 트랜슬레이션' 고객사 대상 산업군, 업종별 특화 데이터를 주기적으로 업데이트 및 서비스 제공
  샌즈랩 1. 2023년 10월, 사이버 위협 인텔리전스 서비스 CTX 공개.
2. 2024년 1월, CTX for GPT, Open AI GPT스토어에 입점 및 판매
  코난테크놀로지 1. SK텔레콤이 지분 20.7% 보유
2. 2023년, 최신 AI 음성 기술 탑재 동시 통역 솔루션 출시.
  솔트룩스 1. AI 파운데이션 모델 '루시아GPT' 출시 (파라미터 수: 70억~500억 개)
  셀바스AI 1. 딥러닝 기반 음성/필기/영상 지능, 자연어처리, 음성합성 등의 HCI 기술 개발
2. 딥러닝 기반 음성 합성 솔루션 '셀비 딥TTS' 출시
오픈AI 동영상 생성형AI Sora 관련 키네마스터 1. AI를 활용한 영상 편집 솔루션 보유
  포바이포 1. 화질은 높이면서 용량은 줄이는 기술력 보유. AI를 통해 자동화 기술 강화

 

 

p.43

글로벌 빅테크의 NPU 사업 전개 현황

 

기업명 AI칩 사업 내용
삼성전자 엑시노스 2400 1. 2023년 10월 NPU 성능 14.7배, CPU 성능 1.7배 향상된 스마트폰용 AI칩 공개.
2. 향상된 AP를 통해 갤럭시 시리즈에 탑재되는 '갤럭시 AI'는 실시간 통역 기능 제공
3. 새로운 AI TV 'Neo QLED 8k'에 스크린 전용 NPU 탑재
LG전자 LG8111 1. 가전제품용 AI칩으로, 2023년 9월 유럽 최대 가전박람회 IFA에서 처음으로 소개된 'LG 디오스 오브제 컬렉션 무드업'에 탑재.
2. LG전자 시스템반도체 조직인 SIC센터에서 온디바이스AI 2세대 NPU 설계 및 IP 개발 중
애플 M2 1. CPU와 GPU, NPU, 메모리(RAM) 등을 하나의 칩으로 통합한 고성능 시스템반도체 'M1' 독자 개발
2. 2022년 2세대 5나노미터 기술과 200억 개 트렌지스터를 사용해 제작한 차기 버전 'M2' 공개(전작 'M1' 대비 40% 향상된 성능).
구글 TPU v4 1. 2023년 4월 4세대 AI반도체인 'TPU(Tensor Processing Unit) v4' 공개
2. 기계학습 성능이 종전 3세대보다 10배 이상 뛰어나고 에너지 효율도 2~3배 높음
메타 MTIA 1. 2023년 5월 AI프로그램 구동을 위해 설계된 1세대 맞춤형 실리콘 '메타 트레이닝 및 추론 가속기(MTIA)' 공개
2. 메타의 AI프레임워크인 '파이토치'를 사용해 최적화된 소프트웨어 실행
퀄컴 Snapdragon8
Gen3
1. 직전 2세대 제품보다 NPU 성능을 98% 개선한 스마트폰용 AI칩으로, 메타의 생성형 AI인 'Llama-2'지원
2. 2023년 10월 새로운 PC용 AI칩인 'XElite'를 탑재한 코파일럿+PC 22종 공개
인텔  Meteor Lake 1. 2023년 12월 최초로 NPU 탑재된 14세대 노트북용 코어 울트라 칩 '메테오레이크' 출시
2. '메테오레이크'에는 NPU 외에도 '인텔4'(7nm급 공정)와 'FOVEROS' 3D 반도체 적층 기술 등이 사용되어 전력 효율성과 그래픽 성능 대폭 향상
AMD  Ryzen 8040 1. 노트북용 프로세서로, 이전 세대 모델 대비 64% 빠른 비디오 편집과 37% 빠른 3D 렌더링 지원
2. 에이수스, 델테크놀로지스, HP, 레노버 등 주요 노트북 제조사들이 'Ryzen 8040' 탑재.
엔비디아 GeForce RTX 40 (고성능 GPU) 1. 2022년 10월 'RTX40' 시리즈 3종 공개(RTX 4070 슈퍼, RTX 4070 Ti 슈퍼, RTX 4080), 코어 수 증가 및 메모리 입 출력 속도 강화.
2. RTX GPU를 내장한 노트북이 레노버, HP, 델, 에이수스, 삼성전자 등 주요 제조사를 통해 출시
테슬라 D1 1. 자율주행 수준을 높이기 위해 최상의 AI학습 성능을 보유한 슈퍼 컴퓨터 'Dojo'에서 대용량 정보처리를 담당할 NPU칩 'D1' 개발
미디어텍 Dimensity 9300 1. 2023년 11월 자체 개발한 NPU 'APU(AI Processing Unit) 790'을 적용한 'Dimensity 9300' 발표
2. 최대 330억 개의 매개변수 처리 가능 및 기존 생성형AI 성능을 8배 개선

 

 

p.44

 

 

 

 

 

 

"이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."

댓글