Ollama 사용 방법
Ollama 사용 방법
Ollama
는 별도의 리포지토리를 통해 LLM 모델을 제공합니다. 종류에 대해서는 이곳을 통해 확인이 가능하며 한국어에 능통했던 LLM 모델과 사양은 아래와 같습니다.
정보
- 운영체제 : Ubuntu 24.04
모델 | 파라미터 크기 | GPU VRAM 권장사양 | 명령어 |
---|---|---|---|
Gemma3 | 12B | 16GB | ollama run gemma3:12b |
Gemma3 | 27B | 32GB | ollama run gemma3:27b |
Phi4 | 14B | 16GB | ollama run phi4:14b |
정보
- 7B 파라미터마다 8GB의 배수가 되는 DRAM or VRAM이 필요합니다.
1. LLM 모델 실행
run 옵션을 통해 LLM 모델이 작동하며 서버 내부에 파일이 없을 경우 다운로드가 진행 된 뒤 질문을 남길 수 있습니다.
ollama run gemma3:27b
LLM 동작
>>> Send a message (/? for help)
>>> 학습한 데이터는 몇년도 데이터인가요?
2022년 12월까지의 데이터를 학습했습니다. 따라서 2022년까지 발생한 사건, 뉴스, 트렌드 등에 대한 정보를 포함하고 있습니다.
>>> /bye
2. LLM 모델 동작 확인
ps 옵션을 통해 동작하는 모델의 내용과 상태를 확인할 수 있습니다.
ollama ps
NAME ID SIZE PROCESSOR UNTIL
gemma3:27b a418f5838eaf 21 GB 30%/70% CPU/GPU Forever
NAME : LLM 모델 이름
ID : LLM 모델 ID
SIZE : 사용 용량
PROCESSOR : CPU(DRAM), GPU(VRAM)의 사용량
UNTIL : 작동 상태