가비아, 국산 NPU 탑재 클라우드 서비스 출시…AI 추론 시장 승부수

[지디넷코리아]

가비아가 국산 인공지능(AI) 반도체 기반 클라우드 서비스를 출시하며 AI 인프라 사업 다각화를 추진한다. 그래픽처리장치(GPU) 중심 구조에서 벗어나 비용 효율성과 공급 안정성을 확보한다는 전략이다.

가비아는 리벨리온의 신경망처리장치(NPU) ‘아톰-맥스’를 탑재한 클라우드 서비스형 NPU(NPUaaS)를 출시했다고 9일 밝혔다.

최근 생성형 AI와 AI 에이전트 확산으로 실시간 추론 인프라 수요가 급증하는 가운데, GPU 수급 불안과 비용 부담이 주요 과제로 떠오르고 있다. 가비아는 NPU 기반 클라우드 서비스를 통해 이러한 문제를 해결하고 AI 서비스 환경 효율성을 높인다는 목표다.

가비아가 리벨리온 NPU 아톰-맥스를 탑재한 NPUaaS 서비스를 출시했다. (사진=가비아)

NPUaaS는 NPU 인프라를 클라우드 형태로 구독해 사용하는 서비스다. 학습된 AI 모델을 실제 서비스에 적용하는 추론 작업에 특화된 NPU는 GPU 대비 전력 소모가 적고 비용 효율성이 높아 대안으로 주목받고 있다.

가비아 NPUaaS는 인스턴스(VM) 기반으로 제공되며 운영체제(OS) 커널 수준의 세밀한 환경 설정과 커스터마이징을 지원한다. 기업은 AI 워크로드 특성에 맞는 정밀한 인프라 구성을 구현하고 서비스 목적에 따라 유연하게 확장할 수 있다.

아톰-맥스는 1장 기준 128 테라플롭스(FP16)의 연산 성능과 64GB NPU 메모리, 16 v코어 CPU, 256GB 시스템 메모리를 제공한다. 대규모언어모델(LLM), 비전 AI, 멀티모달 AI, 피지컬 AI 등 다양한 워크로드를 지원하며 도입 규모에 따라 다중 구성도 가능하다.

가비아는 NPUaaS와 함께 AI 추론 프레임워크 최적화 컨설팅도 제공한다. 소프트웨어 개발 키트(SDK) 기반 환경 설정부터 성능 최적화까지 전문 인력이 지원한다. 또 파이토치와 텐서플로우 기반 환경은 물론 허깅페이스 허브 모델 연동도 돕는다. vLLM, 트라이톤 추론 서버, 토치서브 등 서빙 도구 활용도 제공한다.

또 고객사 워크로드에 맞춘 맞춤형 기술 지원도 병행한다. 라마 3, 젬마 등 오픈소스 LLM이 아톰-맥스 환경에서 최적의 성능을 낼 수 있도록 프로파일링과 커널 최적화, 파라미터 튜닝을 지원한다.

가비아는 이번 서비스를 통해 금융·의료·공공 등 보안과 성능 요구가 높은 산업을 중심으로 AI 인프라 시장 공략을 확대할 계획이다.

정대원 가비아 상무는 “AI 서비스의 경쟁력은 모델 성능만큼이나 추론 환경의 효율성에 달려 있다”며 “NPUaaS와 전문 컨설팅을 결합해 기업이 인프라 부담 없이 AI 비즈니스에 집중할 수 있는 환경을 만들겠다”고 말했다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다