코멘토 로고

화재의 deepseek 모델 - 로컬에 설치하기

의견존중하는 문서 아티스트

설 연휴기간 동안, 전 세계를 뜨겁게 달구었던 deepseek 모델이 오픈소스로 공개되었습니다.

그래서 직접 ollama를 통해서 deepseek를 제 PC에 설치해봤습니다. 이 과정을 통해서 오픈소스로 공개된 LLM모델을 로컬PC에 설치해서 사용하는 방법도 쉽고 빠르게 익히실 수 있을 거에요. 아마, deepseek를 써보고 싶은데 보안에 대한 걱정 때문에 어려운 경우에는 로컬피씨에 설치해서 사용하면 안전하게 사용할 수 있습니다.

 

오픈소스로 공개된 LLM을 설치하고 사용하기 위해서는 ollama라는 오픈소스 도구를 활용합니다. 올라마를 활용하면, 집에서도 정말 간단하게 LLM을 설치하고 쓸 수 있다는 점에서 엄청나게 세상이 많이 편해지고 바뀌고 있다는 생각이 드네요.

 

아래의 순서를 따라가면 엄청 편하게, deepseek를 내 pc에 설치할 수 있습니다.

 

  1. 우선 여기를 눌러서 올라마 사이트에 접속합니다.
  2. 올라마에서 Download버튼을 눌러서 올라마를 내 pc에 설치합니다.
  3. 그 다음으로 헤더 상단에 Model 버튼을 누르고 deepseek R1모델을 선택합니다. 딥시크 외에도 많은 모델을 선택할 수 있으니, 관심있으시면 다른 모델도 설치해보세요.
  4. 그 다음으로 설치하고 싶은 버전을 선택합니다. 버전별로 용량도 다르고, 내 PC의 GPU와 메모리 성능에 따라서 구동 가능한 모델들이 있습니다. 저는 Test를 위해서 1.5b와 7b 모델을 선택해봤는데, 일단 1.5b 모델은 성능이 많이 낮다고 생각하시면 됩니다.
  5. 윈도우나 맥북의 터미널 창을 엽니다. 윈도우에서는 시작에서 cmd를 입력한 후 명령프롬프트로 이동합니다.
  6. 아까 올라마 설치 화면에서 노란색으로 표시된 부분을 누르면 설치 명령어가 복사됩니다. 복사한 명령어를 명령 프롬프트에 입력해주면 올라마가 LLM모델을 로컬PC에 설치합니다.//
  7. 설치가 완료되면 터미널에서 아래와 같이 프롬프트를 입력할 수 있습니다.//

 

이 모델을 다시 쓰고 싶을 때는 cmd에 와서 이전에 설치했던 실행 명령어를 똑같이 입력하면 다시 사용할 수 있습니다.

  • 실행: ollama run deepseek-r1:7b
  • 그리고 삭제하고 싶다면 "rm" 명령어를 통해서 모델을 삭제할 수 있습니다. ollama rm deepseek-r1:7b

 

물론 로컬pc에 설치한 모델이라고 해서 cmd나 터미널에서만 구동되는 것은 아닙니다. Web UI에서 작동할 수 있도록 하는 "Open WebUI"를 설치하면 우리가 익숙한 chatGPT와 같은 인터페이스에서 로컬에 설치된 LLM을 사용할 수 있습니다.

 

이걸 사용하기 위해서는 위 페이지에 안내된 대로 Docker를 설치한 다음에 사용해야 하는데, 방법이 어렵지 않으니 체험 이상으로 사용해보고 싶으신 분이 있다면, 한 번 설치해서 사용해보시기를 추천합니다.

 

오픈소스와 AI가 결합되면, 내 입맛에 맛게 자유자재로 LLM 모델을 개인이 수정하고 사용하는 날이 머지 않았다는 생각이 드네요.

 

세상이 정말 빠르게 변하는 것 같습니다.