Ollama 설치 및 설정
Ollama, Open WebUI란
ollama
는 여러 언어 모델을 자신의 서버에서 사용할 수 있도록 하는 도구로 전용 리포지토리를 제공하며 LLM에 입문하는 초심자에게 추천하는 프로그램 입니다. 기본적으로는 GPU의 VRAM을 사용하나 LLM 모델에 따라 CPU의 DRAM도 같이 사용하는 구조로 되어있어 높은 파라미터의 모델도 타협 해서 구동이 가능하다는 장점이 있습니다.
Open WebUI
는 ollama
와 연동하여 LLM 모델을 Web에서 사용할 수 있도록 하는 프로그램입니다. 사용이 간편하며 여러 기능이 탑재되어 있습니다.
설치 및 설정 방법
이 가이드에서는 ollama
와 Open WebUI
의 설치 및 설정 방법에 대해 설명 합니다.
정보
- 운영체제 : Ubuntu 24.04
경고
- 설치 전 라이선스를 확인하시기 바랍니다.
- 설치에 실패할 경우 서버 내부에서 외부망 사용이 불가능한지 확인 해주세요.
1. 운영체제 업데이트 및 업그레이드
운영체제의 업데이트 및 업그레이드를 진행 후 리부팅을 진행합니다.
apt update
apt upgrade
reboot
2. ollama 설치
ollama
에서 제공하는 스크립트로 설치를 진행합니다.
curl -fsSL https://ollama.com/install.sh | sh
설치가 완료되면 아래와 같은 내용을 확인 할 수 있습니다.
>>> Installing ollama to /usr/local
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
3. ollama 설정(블록스토리지를 추가할 경우)
LLM 모델의 종류 및 파라미터에 따라 저장되는 용량에 차이가 있어 사용 하다보면 서버 내부의 디스크 공간이 부족할 수 있습니다. 이 경우 이곳을 참고하여 블록스토리지를 장착한 뒤 사용하는 것을 권장 합니다.
df -Th # 마운트 전
Filesystem Type Size Used Avail Use% Mounted on
tmpfs tmpfs 5.9G 1.1M 5.9G 1% /run
/dev/vda1 ext4 96G 21G 76G 22% /
tmpfs tmpfs 30G 4.0K 30G 1% /dev/shm
tmpfs tmpfs 5.0M 0 5.0M 0% /run/lock
/dev/vda16 ext4 881M 112M 707M 14% /boot
/dev/vda15 vfat 105M 6.2M 99M 6% /boot/efi
tmpfs tmpfs 5.9G 20K 5.9G 1% /run/user/0
블록스토리지를 추가했다면 ollama
에 사용될 LLM 모델이 저장될 디렉토리를 생성하고 마운트를 진행합니다.
mkdir /ollama_llm
mount /dev/vdb1 /ollama_llm
chown ollama: /ollama_llm/