[인터뷰] LLM 추론 특화 AI 반도체 설계 회사 하이퍼엑셀… 이진원 CTO “...

하이퍼엑셀은 삼성전자 4나노 공정을 활용한 LLM 추론 특화 반도체 '베르다(Verda)'를 통해 AI 서비스 이용료를 3만 원대에서 5,000원 수준으로 낮추는 것을 목표로 합니다. 고가의 HBM 대신 저렴한 LPDDR5X를 채택한 자체 LPU 아키텍처로 엔비디아 GPU 대비 총소유비용(TCO)을 3분의 1로 절감하고 메모리 효율을 90%까지 끌어올릴 계획입니다.

AI 요약

하이퍼엑셀은 엔비디아가 주도하는 AI 반도체 시장에서 '가성비'를 무기로 대규모언어모델(LLM) 추론 전용 칩 '베르다'를 개발하는 국내 팹리스 스타트업입니다. 삼성전자 시스템 반도체 설계 엔지니어 출신인 이진원 CTO가 개발을 총괄하며, 기존 GPU의 고질적인 병목 현상을 해결하기 위해 중간 저장소를 최소화하고 연산 장치에 데이터를 직접 전달하는 LPU(Language Processing Unit) 아키텍처를 도입했습니다. 특히 고가의 HBM 대신 저렴한 저전력 D램(LPDDR5X)을 사용하여 인프라 구축 비용을 혁신적으로 낮췄으며, 이를 통해 데이터센터뿐만 아니라 가전과 로봇 등 온디바이스 AI 시장까지 공략할 예정입니다. 현재 삼성전자 4나노 공정에서 시제품 제작이 마무리 단계에 있으며, 네이버클라우드 및 LG전자와 기술 검증(PoC)을 진행하며 하반기 양산을 준비하고 있습니다.

핵심 인사이트

  • 비용 혁신: AI 서비스 이용료를 현재의 3만 원대에서 5,000원 수준으로 약 6분의 1가량 낮추는 것을 핵심 목표로 설정.
  • 기술적 차별화: HBM 대신 LPDDR5X를 채택하고 자체 LPU 아키텍처를 통해 메모리 대역폭 활용률을 GPU(약 50%) 대비 월등한 90% 수준으로 상향.
  • 생산 및 일정: 삼성전자 파운드리 4나노 공정을 사용하며, 2024년 3월 중 칩 시제품이 출고되어 하반기 본격 양산 돌입 예정.
  • 전략적 파트너십: 네이버클라우드와 PoC를 진행 중이며, LG전자와 가전용 AI 가속기 개발을 위한 기술 협력 추진.

주요 디테일

  • TCO 절감: 개당 7,000만~8,000만 원에 달하는 엔비디아 H100 대비 장비비와 전력 소모를 동시에 줄여 총소유비용(TCO)을 1/3 수준으로 절감.
  • LPU 아키텍처: 범용 가속기인 GPU와 달리 트랜스포머 모델의 데이터 흐름에만 최적화된 특화 구조를 설계하여 추론 효율 극대화.
  • 병목 현상 해결: 데이터가 메모리에서 S램을 거쳐 연산기로 가는 복잡한 과정을 단순화하여 외부 메모리에서 연산기로 데이터를 직접 쏘아주는 구조 채택.
  • 전문 인력: 이진원 CTO는 삼성전자 시스템LSI 사업부에서 스마트폰 AP를 설계했던 베테랑 엔지니어 출신.
  • 온디바이스 확장: 전력 제약이 큰 가전 및 로봇 환경에서 실시간 AI 처리가 가능하도록 고효율 아키텍처를 활용한 온디바이스 시장 정조준.

향후 전망

  • 초기 데이터센터 고객사를 중심으로 공급을 확대하고, K-클라우드 사업과 연계하여 국내 시스템 반도체 생태계의 선순환 구조 구축 기여.
  • 고효율·저비용 특성을 바탕으로 클라우드 사업자부터 소형 기기 제조사까지 폭넓은 고객층 확보 및 상용화 사례 확대 예상.
Share

이것도 읽어보세요

댓글

이 소식에 대한 의견을 자유롭게 남겨주세요.

댓글 (0)

불러오는 중...