포스트

Local에서 LLM 모델 사용해보기 ( 무료!! ) - 1

출처 : 테디노트

LangServe를 이용해 로컬에서 LLM 모델 사용해보기

설치


올라마(Ollama)

올라마 Link 에서 중앙에 있는 다운로드 버튼으로 별도의 설정없이 진행

HugginFace Hub 설치

1
pip install hugginface-hub

EEVE(야놀자) model 다운로드

HugginFace Page 페이지에서 EEVE-Korean-Instruct-10.8B-v1.0-Q8_0.gguf모델을 다운로드 받아주자
Q{num} num에 따라 모델의 크기가 다른데 8이 가장 큰 버전으로 성능이 가장 좋다.
본인 pc가 감당할 수 있는 크기의 모델을 선택하면 된다.

Modelfile

Model File 문서

model을 Ollama에서 사용하게 하기 위해 ModelFile을 구성한다.
Modelfile 이름의 파일을 생성한 후 아래의 코드 복사 붙여넣기

FROM 이후의 gguf 파일은 우리가 다운로드한 모델의 이름으로 적용한다.
허깅페이스 페이지에서 EEVE-Korean-Instruct-10.8B-v1.0-Q8_0.gguf를 다운로드 받았기 때문에 해당 명으로 적용

1
2
3
4
5
6
7
8
9
10
11
12
13
FROM EEVE-Korean-Instruct-10.8B-v1.0-Q8_0.gguf

TEMPLATE """
<s>{{ .System }}</s>
<s>Human:
{{ .Prompt }}</s>
<s>Assistant:
"""

SYSTEM """A chat between a curious user and an artificial intelligence assistant. The assistant gives helpful, detailed, and polite answers to the user's questions."""

PARAMETER stop <s>
PARAMETER stop </s>

필자는 아래와 같이 EEVE model file과 Modelfile을 세팅했다.

Modelfile에 따라서 답변의 퀄리티가 달라질 수 있다. Modelfile 까지 준비가 됐다면 ollama에 세팅을 하기위해 밑의 코드를 터미널에서 실행한다.

1
ollama create EEVE -f ./Modelfile

명령어 규칙은 ollama create [내가사용할이름] -f [Modelfile 경로]이다.
이름은 EEVE로 사용했고 Modelfile 경로는 현재폴더 위치의 Modelfile로 설정했다.
잘 생성되었는지 밑의 코드를 통해 확인해보자.

1
ollama list

Model Test

밑 코드를 통해 터미널상에서 모델을 실행하고 질문을 하면 답변을 얻을 수 있다.

1
ollama run EEVE:latest

여기까지 허깅페이스페이지에서 모델을 다운받아 ollama에 세팅하여 터미널상에서 모델을 실행하여 질문과 답변을 할 수 있었다. 다음 포스팅에서는 web상에서 해당 기능을 이용해보는 과정을 알아보도록 하자!

이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.