본문으로 건너뛰기

개요

LLM&GPU는 CPU+GPU를 사용하여 가성비를 높힌 Ollama 상품과 속도와 Multi-GPU를 위주로 하는 vLLM 상품을 사용할 수 있도록 하드웨어 또는 가상 서버를 제공하는 상품입니다. 쉽고 빠른 설치 방법과 사용 방법에 관한 매뉴얼을 제공하여 초심자도 손쉽게 나만의 챗봇을 만들 수 있습니다.

Ollama, vLLM 특징

특징설명
고성능 LLM 지원(Ollama)경량화한 고성능 LLM을 원하는대로 튜닝/학습 가능한 소프트웨어 지원
고성능 LLM 지원(vLLM)Meta, Google 등 주요 오픈소스 모델에 최적화된 추론 프레임워크에서 실행
비용 효율성오픈 소스 LLM에 최적화 기본 사양 및 고객 맞춤 사양 제공
전문 기술 제공LLM 및 응용 소프트웨어 기술적 지원 시스템 상시 기술지원
높은 보안성사용자 데이터 프라이버시 보호를 위한 분리된 서버 시스템 제공

GPU 성능 비교

모델제조사아키텍처GPU 메모리GPU 메모리 대역폭CUDAFP32TDP
A6000NVIDIAAmpere48GB (GDDR6 ECC)768 GB/s10,75238.7 TFLOPS300W
4000AdaNVIDIAAda Lovelace20GB (GDDR6)448 GB/s6,14430 TFLOPS130W
6000AdaNVIDIAAda Lovelace48GB (GDDR6 ECC)960 GB/s18,71691.1 TFLOPS300W
Tesla T4NVIDIATuring16GB (GDDR6)320 GB/s2,5608.1 TFLOPS70W
W6800AMDAMD RDNA™ 232GB (GDDR6 ECC)512 GB/s3,84017.83 TFLOPS250W
W7800AMDAMD RDNA™ 332GB (GDDR6 ECC)576 GB/s4,48045.2 TFLOPS260W