Deepseek 딥시크를 내 PC 에 설치해서 사용하는 방법
IT,PC,모바일,스마트폰 정보와 팁 그리고 제품리뷰와 생활정보
Deepseek 딥시크를 내 PC 에 설치해서 사용하는 방법
요즘 인터넷에서 화두가 되는것중에 하나가 바로 중국에서 개발한 AI 모델인 DeepSeek 인데요. 이 DeepSeek 가 굉장히 놀라운 성능을 보여주고 있지만, 개인정보등의 유출 불안등으로 이슈가 되고 있는데요. 이 DeepSeek 를 인터넷에서 사용하는게 아닌 내 PC 에 설치해서 사용하는 방법도 있다는 사실을 알고 계시나요? 이번 글에서는 딥시크를 내 PC 에 설치해서 사용해 보는 방법에 대해서 알아 보도록 하겠습니다.
ChatGPT 등 다양한 AI 모델들이 구독등의 요금을 지불을 하고 사용을 하는데요. 이번 포스팅에서 알려 드리는 방법으로 AI 모델을 직접 PC 에 설치해서 사용을 하면, 별도로 비용이 발생하지 않고 AI 모델을 사용을 할수도 있다는 장점이 있습니다.
내 PC 에 DeepSeek-R1 을 설치 하기 위해서 필요한 Ollama
DeepSeek-R1 모델의 경우 약 70억개의 매개변수를 사용을 한다고 알려져 있습니다. 이 DeepSeek 를 내 PC 에서 설치를 해서 사용한다고 하면 어렵게 느껴 질수 있지만 생각보다 설치 하는 방법은 매우 간단합니다.
설치 하기 위해서는 Ollama 를 설치를 해야 하는데요. ollama 가 뭔지에 대해서 우선 잠깐 살펴 보도록 하겠습니다.
Ollama 란?
Ollama 는 로컬 PC 등의 환경에서 대규모 언어 모델 (LLM) 을 실행하도록 도와 주는 오픈소스 도구로 AI 모델을 로컬에서 실행할수 있도록 도와주는 AI 프레임워크 입니다.
Ollama는 로컬 환경에서 대규모 언어 모델(LLM)을 실행하고 관리하는 오픈소스 도구로, 데이터 프라이버시 보호와 클라우드 의존성 해결에 특화된 AI 프레임워크입니다. 아래는 주요 특징과 활용 방안입니다.
Ollama의 핵심 기능
1. 로컬 AI 실행
- 클라우드 서버 없이 개인 PC에서 LLM 구동 가능
- 모델 가중치, 설정 파일, 종속성을 포함한 독립 실행 환경 구성
- NVIDIA/AMD GPU 가속 지원으로 처리 속도 향상
2. 모델 관리
ollama pull
로 Llama, Mistral, DeepSeek-R1 등 80여 종 모델 즉시 활용- Modelfile 시스템으로 모델 커스터마이징 가능[2][15]
# 사용자 정의 모델 생성 예시 ollama create my_model -f ./Modelfile
3. 다중 인터페이스 지원
- CLI:
ollama run
으로 대화형 실행 - Python SDK:
import ollama response = ollama.chat(model='deepseek-r1', messages=[...])
- REST API: OpenAI 호환 엔드포인트 제공
Ollama의 장점
🔒 데이터 보안
- 민감 정보가 외부 서버로 유출되지 않음[2][20]
- GDPR/CCPA 등 규제 준수 용이[3][9]
⚡ 성능 최적화
- Quantization 기술로 리소스 사용량 70% 감소[5][20]
- 1.5B 모델 기준 M1 Mac에서 초당 45토큰 처리[11][14]
🛠️ 확장성
- Docker/Kubernetes 통합으로 클러스터 환경 배포 가능[1][15]
- RAG(검색기반 생성)으로 문서 분석 기능 확장[1][8]
Ollama 설치 방법
일단, 앞에서 설명했던것처럼 DeepSeek-R1 모델을 로컬에서 사용을 하기 위해서는 Ollama 먼저 설치를 해야 합니다. 아래 링크를 클릭을 해서 다운로드 받을수 있습니다.
Ollama
Get up and running with large language models.
ollama.com
사이트에 접속을 하신후에 아래와 같은 아주 심플한 페이지가 나오면 Download 를 클릭을 해서 다운로드를 받습니다. MacOS, Linux, Windows 모든 OS 에 대해서 지원을 하기 때문에 맥북에서도 사용해 볼수가 있습니다.
설치는 다운로드 받은 파일을 클릭을 해서 하시면 되며, 그냥 Install 버튼만 눌러 주시면 됩니다.
Ollama 에서 DeepSeek-R1 모델 설치 하기
앞에서 처럼 Ollama 를 설치를 하셨다면 이제 아주 간단하게 DeepSeek 를 내 PC 에서 설치를 해서 사용을 해볼수가 있습니다. Ollama 설치가 끝난후에 아래와 같이 터미널 창이 하나 열리게 되는데요. 여기에서 아래의 명령어를 이용해서 Deepseek 를 설치해볼수가 있습니다.
ollama run deepseek-r1:7b
그러면 보시는 것처럼 ollama 에서 제공하는 Deepseek 모델을 다운로드 받게 되는데요., 약 4.7GB 정도의 용량을 필요로 하니 와이파이 등에 연락이 된 상태에서 다운로드 받으시는걸 추천해 드립니다.
설치가 모두 끝나면 바로 사용을 해볼수가 있습니다. 기본적으로 ollama 를 사용을 해서 DeepSeek 를 사용을 하기 위해서는 아래처럼 명령프롬프트 터미널 창에서 사용을 할수가 있습니다. >>> Send a message 라고 나온곳에서 바로 프롬프트를 입력을 하시면 되는데요. 이렇게 하면 상당히 불편하죠.
실제로 사용을 해보면 아래와 같은 아웃풋을 볼수가 있습니다. 뭐 이렇게 사용을 하더라도 큰 불편함은 없겠지만 아무래도 대부분 ChatGPT 등처럼 WEB UI 에 적응이 되어 있으니 가능하면 WEB-UI 를 사용해 보는게 좋겠죠?
Ollama WEBUI 를 사용하는 방법
Ollama 에서도 웹브라우저를 통해서 사용할수 있는 여러가지 방법이 있습니다. 그중에서 이번 포스팅에서 알려 드리려고 하는 방법은 가장 많이 사용하는 방법중에서 Open-Webui 를 이용하는 방법에 대해서 알려 드리도록 하겠습니다. 그러기 위해서는 윈도우에 Docker 가 먼저 설치가 되어야 하는데요. Docker 웹 페이지에 들어가서 Docker Desktop 버전을 다운로드 받아서 먼저 설치를 해주시면 됩니다.
설치가 완료 되었다면 이번에도 명령어를 이용을 해서 설치를 해야 하는데요. 앞에 Open-Webui Github 사이트에 들어가면 나오는 설치 방법의 명령어를 그대로 입력을 해주시면 됩니다. 그러면 이미지를 다운로드 받고 실행까지 됩니다.
정상적으로 실행이 되었다면 우측 이미지에서처럼 localhost:3000 을 웹 브라우저에서 열면 Open WebUI 기본 설정을 할수가 있습니다.
그럼 현재 ollama 에 설치되어 있는 AI 모델을 이용을 해서 ChatGPT 처럼 사용을 할수가 있습니다.
확실히 앞에 터미널에서 보는것보다 훨씬 깔끔하게 보여지니 괜찮은거 같네요.
DeepSeek-R1 을 사용을 해보기 위해서는 최소 메모리 8GB 이고, 권장은 16GB 이상의 용량이 필요 하다고 합니다. 저장공간의 경우 모델에 따라서 차이가 있겠지만 4GB 이상은 필요로 하겠죠?
하지만 로컬에서 사용을 하기 때문에 모델에 따라서 최신 데이터가 없기 때문에 간혹 이상한 답변이 나올수도 있다는 점을 참고 하셔야 합니다. 그리고 AI 가 생각을 하는 도중에 저 같은 경우에 GPU 를 100% 사용을 하는걸 볼수 있었습니다.
DeepSeek-R1 모델의 경우 사고가 필요한 곳에 정말 유용하다고 합니다. 그리고 코딩 관련해서도 성능이 꾀 만족스럽다고 하구요. 개인적으로는 로컬에 설치를 한후에 인터넷이 잘 안되는 곳에서 코딩을 하거나 할때 정말 유용하지 않을까 생각이 됩니다. 그리고 비싼 유료 AI 모델을 사용하는 대신 이렇게 사양만 된다면 Local 에서 설치해서 사용하는것도 괜찮을거 같네요.
DeepSeek 의 정보유츨등의 걱정이 되지만 한번 사용을 해보고 싶으시다면 이렇게 Local 에 설치해서 사용해 보세요. 이번 포스팅에서는 최근 AI 분야에서 핫 이슈가 되고 있는 DeepSeek-R1 AI 모델을 직접 PC 에 설치해서 사용하는 방법에 대해서 알아 보았습니다. ^^