vLLM 설치 및 설정
vLLM, Open WebUI란
vLLM는 여러 언어 모델을 자신의 서버에서 사용할 수 있도록 하는 도구로 Hugging Face를 통해 LLM 모델을 다운로드 받아 사용할 수 있는 프로그램 입니다.
기본적으로는 GPU의 VRAM을 사용하도록 구성되어 있어 작동 속도가 빠르며 LLM 모델에 따라서는 명령어 옵션을 자세히 파악하고 있어야 원할한 사용이 가능하기에 중상급자에게 추천하는 프로그램입니다.
Open WebUI는 ollama와 연동하여 LLM 모델을 Web에서 사용할 수 있도록 하는 프로그램으로 OpenAI API를 지원하고 있어 vLLM와 연동이 가능하고 사용이 간편하며 여러 기능이 탑재되어 있습니다.
이 가이드에서는 vLLM와 Open WebUI의 설치 및 설정 방법에 대해 설명하며 설치 스크립트는 하단의 내용을 참고 해주시기 바랍니다.
설치 및 설정 방법
테스트 서버 환경
- 운영체제 : Ubuntu 24.04
라이선스 확인
- 설치 전 라이선스를 확인하시기 바랍니다.
- 설치에 실패할 경우 서버 내부에서 외부망 사용이 불가능한지 확인 해주세요.
1. 운영체제 업데이트 및 업그레이드
운영체제의 업데이트 및 업그레이드를 진행 후 리부팅을 진행합니다.
apt update
apt upgrade
reboot
2. vLLM & Open WebUI 설치
vLLM 설치에 필요한 패키지를 설치합니다.
apt install python3-pip python3.12-venv nvidia-driver-550
파이썬의 가상환경을 생성합니다.
python3 -m venv /iwinv_venv
가상환경으로 진입합니다.
source /iwinv_venv/bin/activate
가상환경 내부에서 vLLM, Open WebUI, huggingface_hub를 설치합니다.
pip install vllm open-webui huggingface_hub