이 글은 WebUI 기반 Ollama 서비스 구동 방법을 간략히 정리한다. 이를 이용하면, 공개된 LLM을 로컬 컴퓨터에서 손쉽게 사용할 수 있다.
다음 링크를 참고해, 올라마를 우선 설치한다.
웹에서 실행하기 위해 다음 링크 참고해 도커를 설치한다.
다음 명령을 명령창에서 실행한다.
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
로컬주소를 웹에서 띄우면 다음 화면을 볼 수 있다.
댓글 없음:
댓글 쓰기