Ollama (가상서버)
GPU Server (가상서버)에서 사용할 수 있는 Ollama는 CPU 및 GPU을 혼합해서 사용 할 수 있는 경량 플랫폼으로 전용 리포지토리를 통해 양자화 모델을 작동 할 수 있습니다.
팁
정보
- 지능형 챗봇 플랫폼 및 생성형 API 시스템
- RAG 및 검색 기반 AI 서비스
- 블록체인 및 AI 연계한 DApp 수행
- 사용자 경험(UX) 및 비주얼 데이터 최적화 서비스
- reference 매뉴얼을 통한 손쉬운 설치 및 사용 방법 제안
상품 사양 정보 및 LLM 모델 벤치마크
Tesla T4 (KR1-Z07)
제원 : CUDA 2,560, 16GB(GDDR6)
| 상품명 | GPU | GPU memory | vCPU | Memory | Storage(OS) | Traffic | 가격(부가세 별도) |
|---|---|---|---|---|---|---|---|
T4.G1 | 1 | 16GB | 6vCPU | 30GB | 100GB | 620GB/월 | 6,260원/일 169,000원/월 |
T4.G2 | 2 | 32GB | 12vCPU | 60GB | 100GB | 620GB/월 | 12,520원/일 338,000원/월 |
T4.G4 | 4 | 64GB | 24vCPU | 120GB | 100GB | 620GB/월 | 25,040원/일 676,000원/월 |
T4.G1 기준 벤치마크 자료
| 매개변수 | 컨텍스트 길이 | 양자화 | 크기 | DRAM 사용량 | VRAM 사용량 | 출력 Token/s |
|---|---|---|---|---|---|---|
| Gemma3 12B | 128K | Q4_K_M | 8.1GB | 8.5GB | 10345MB | 16.716 |
| Gemma3 27B | 128K | Q4_K_M | 17GB | 17.2GB | 12669MB | 6.026 |
| DeepSeek-R1 7B | 128K | Q4_K_M | 4.7GB | 5GB | 5257MB | 28.814 |
| DeepSeek-R1 14B | 128K | Q4_K_M | 9GB | 9GB | 10703MB | 12.982 |
| DeepSeek-R1 32B | 128K | Q4_K_M | 19GB | 19.4GB | 13995MB | 4.378 |
| Llama 4 - Scout 109B | 10MB | Q4_K_M | 67GB | 54.9GB | 11403MB | 4.268 |
| Llama 3.3 70B | 128K | Q4_K_M | 46GB | 49GB | 13617MB | 1.434 |
| Llama 3.2 11B | 128K | Q4_K_M | 7.8GB | 8.3GB | 11103MB | 30.898 |
| Llama 3.2 90B | 128K | Q4_K_M | 67GB | 56.4GB | 13815MB | 1.396 |
| Phi4 14B | 16K | Q4_K_M | 12GB | 9GB | 10813MB | 11.66 |
| HyperCLOVA X SEED 1.5B | 128K | F16 | 4.9GB | 3.5GB | 4213MB | 58.324 |
| HyperCLOVA X SEED 3B | 128K | Q4_K_M | 4GB | 2.5GB | 3431MB | 56.738 |
4000Ada (KR1-Z07)
제원 : CUDA 6144, 20GB(GDDR6-ECC)
| 상품명 | GPU | GPU memory | vCPU | Memory | Storage(OS) | Traffic | 가격(부가세 별도) |
|---|---|---|---|---|---|---|---|
4000Ada.G1 | 1 | 20GB | 8vCPU | 60GB | 100GB | 620GB/월 | 9,200원/일 248,500/월 |
4000Ada.G2 | 2 | 40GB | 16vCPU | 120GB | 100GB | 620GB/월 | 18,400원/일 495,000/월 |
4000Ada.G4 | 4 | 80GB | 32vCPU | 240GB | 100GB | 620GB/월 | 36,700원/일 990,000/월 |
4000Ada.G1 기준 벤치마크 자료
| 매개변수 | 컨텍스트 길이 | 양자화 | 크기 | DRAM 사용량 | VRAM 사용량 | 출력 Token/s |
|---|---|---|---|---|---|---|
| Gemma3 12B | 128K | Q4_K_M | 8.1GB | 15.2GB | 9852MB | 33.684 |
| Gemma3 27B | 128K | Q4_K_M | 17GB | 27.4GB | 16144MB | 10.762 |
| DeepSeek-R1 7B | 128K | Q4_K_M | 4.7GB | 9.4GB | 4916MB | 57.72 |
| DeepSeek-R1 14B | 128K | Q4_K_M | 9GB | 16.5GB | 9512MB | 31.094 |
| DeepSeek-R1 32B | 128K | Q4_K_M | 19GB | 16.7GB | 19116MB | 8.488 |
| DeepSeek-R1 70B | 128K | Q4_K_M | 42GB | 39.5GB | 18540MB | 1.72 |
| Llama 4 - Scout 109B | 10MB | Q4_K_M | 81GB | 54.9GB | 16450MB | 5.49 |
| Llama 3.3 70B | 128K | Q4_K_M | 46GB | 39.8GB | 18542MB | 1.736 |
| Llama 3.2 11B | 128K | Q4_K_M | 7.8GB | 6.8GB | 11114MB | 55.61 |
| Llama 3.2 90B | 128K | Q4_K_M | 67GB | 54.6GB | 18812MB | 1.616 |
| Phi4 14B | 16K | Q4_K_M | 12GB | 7.6GB | 9750MB | 32.026 |
| HyperCLOVA X SEED 1.5B | 128K | F16 | 4.9GB | 2.1GB | 3858MB | 80.738 |
| HyperCLOVA X SEED 3B | 128K | Q4_K_M | 4GB | 1.1GB | 2838MB | 100.594 |
| Qwen3 30B | 256K | Q4_K_M | 18GB | 15.8GB | 18436MB | 75.102 |
| Qwen3 32B | 40K | Q4_K_M | 20GB | 17.7GB | 18796MB | 7.17 |
| Qwen3 235B | 256K | Q4_K_M | 142GB | x | x | x |
| GPT-OSS 20B | 128K | MXFP4 | 13.2GB | 15.8GB | 13748MB | 43.582 |
| GPT-OSS 120B | 128K | MXFP4 | 65GB | 15.8GB | 16598B | 3.454 |