2024년 9월 2일 월요일

Web 기반 Ollama 서비스 구동 방법

이 글은 Web 기반 Ollama (올라마) 서비스 구동 방법을 간략히 정리한다. 이를 이용하면, Ollama 를 손쉽게 사용할 수 있는 웹 어플리케이션 형태로, 오픈 LLM 모델들을 로컬 컴퓨터에서 사용할 수 있다.

다음 링크에서 올라마를 설치한다. 
웹에서 실행하기 위해 다음 링크 참고해 도커를 설치한다. 그리고 재부팅한다. 
다음 명령을 터미널 명령창에서 실행한다.
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

로컬주소(localhost:3000)를 웹에서 띄우면 다음 화면을 볼 수 있다.

이제 웹에서 제공되는 메뉴를 통해 오픈된 LLM 모델을 ChatGPT처럼 사용할 수 있다.

댓글 없음:

댓글 쓰기