본문으로 건너뛰기

최대 864GB 메모리, PRO6000 GPU서버 출시

· 약 5분

GPU상품 출시 docs배너

iwinv가 고속 LLM 프레임워크 vLLM 운용에 최적화된 GPU 가상 서버를 출시했습니다.
NVIDIA Blackwell 기반 PRO6000 GPU 서버는 최대 864GB 메모리(GDDR7-ECC & DDR5)로
Gemma 3, Phi-4, DeepSeek-R1은 물론 GPT-OSS 120B 규모의 대형 모델까지 안정적으로 운용할 수 있습니다.

vLLM이란?

vLLM은 *Paged Attention 기술을 활용하여 GPU 메모리 내 KV 캐시(Key-Value cache)를 효율적으로 관리하는 오픈소스 프레임워크(LLM 추론 엔진)입니다. 한정된 GPU 자원으로도 응답 속도를 극대화하여 원활한 AI 구동을 지원합니다.

*Paged Attention: LLM 추론 시 KV 캐시를 고정 크기 블록으로 나누어 관리하는 메모리 최적화 기법. 메모리 단편화를 줄이고 GPU 메모리 효율을 크게 개선함.

PRO6000 GPU 서버 강점

GPU 성능 차세대 NVIDIA Blackwell 기반의 PRO6000은 기존 6000Ada 대비 VRAM 용량이 약 2배 증가했습니다.

대용량 메모리 최대 864GB 메모리(GDDR7-ECC & DDR5 기반)를 지원하여 대규모 LLM 운영 환경에서 더욱 안정적입니다.

vLLM 최적화 가상 환경에서도 vLLM 기반의 빠른 토큰 응답을 보장하여 실시간 AI 서비스에 최적화되어 있습니다.

검증된 성능 자체 테스트 결과 GPT-OSS 120B 모델 기준 초당 181.42 Token의 높은 처리 성능을 확인하였습니다
(PRO6000 GPU 1개 기준).

vLLM 벤치마크 결과

GPU상품 출시 docs배너

GPU 서버가 적합한 워크로드

PRO6000 GPU 서버는 AI 추론 및 학습뿐 아니라, 대규모 연산 처리가 필요한 다양한 환경에 최적화되어 있습니다.

  • 대형 언어모델(LLM) 학습 및 서빙
  • AI·머신러닝 추론 및 실시간 응답 서비스
  • 고성능 데이터 분석 및 시뮬레이션
  • 컴퓨터 비전 및 이미지·영상 처리
상품명GPURAM (DRAM + VRAM)vCPUStorage(OS)Traffic가격(부가세 별도)
PRO6000.G11216GB (DRAM 120GB + VRAM 96GB)8100GB620GB/월55,200원/일, 490,000원/월
PRO6000.G22432GB (DRAM 240GB + VRAM 192GB)16100GB620GB/월110,400원/일, 2,980,000원/월
PRO6000.G44864GB (DRAM 480GB + VRAM 384GB)32100GB620GB/월220,800원/일, 5,960,000원/월

출시 기념 특별 프로모션

GPU 서버 출시를 기념하여 **'반값 프로모션'**을 진행 중입니다.
프로모션 혜택: iwinv의 GPU 서버를 1년 이상 이용한 고객이 추가로 1년 서비스 약정 시, 50% 할인된 금액으로 서비스를 이용할 수 있습니다(위약금 없음!).
신청 방법: iwinv 홈페이지에서 프로모션 상세 내용을 확인하고 즉시 신청 가능합니다

상세 내용 확인하기

출시 예정: PRO4000, PRO5000 GPU 서버

PRO4000 및 PRO5000 가상 GPU 서버도 순차적으로 출시하여 고성능 LLM 학습·서빙부터 중·소규모 AI 개발까지 폭넓게 지원할 예정입니다. 앞으로도 많은 관심 부탁드립니다! 🙂