본문 바로가기
카테고리 없음

DeepSeek R-1 로컬 설치 가이드

by Self-developer 2025. 2. 7.

개요

DeepSeek R-1은 중국 AI 기업 DeepSeek이 개발한 오픈소스 AI 언어 모델입니다. OpenAI의 모델과 비교될 정도로 뛰어난 성능을 제공하며, 특히 로컬에서 실행할 수 있다는 점이 큰 장점입니다. 이 글에서는 Ollama를 활용하여 DeepSeek R-1을 로컬 환경에서 실행하는 방법을 설명합니다.

Ollama


DeepSeek R-1 로컬 설치방법

  • DeepSeek R-1을 로컬에 설치하려면 Ollama 도구를 사용하면 됩니다.
  • Ollama는 macOS, Linux, Windows 환경에서 대형 언어 모델을 쉽게 실행할 수 있도록 설계된 무료 오픈소스 프로젝트입니다.

 

1. Ollama 설치

Ollama 다운로드 및 설치

  1. Ollama 공식 웹사이트에 접속합니다.
  2. 사용 중인 운영체제에 맞는 설치 파일을 다운로드합니다.
  3. 다운로드한 파일을 실행하여 Ollama를 설치합니다.

설치 확인 방법

설치 완료 후, 터미널(또는 명령 프롬프트)에서 아래 명령어를 실행하여 설치 상태를 확인합니다.

더보기

※ 명령 프롬프트(cmd) 열기

  • Windows 사용자의 경우 Win + R을 누른 후 cmd 입력 후 엔터를 누르세요.
  • Mac/Linux 사용자는 터미널을 엽니다.
ollama -v

 

  • 버전 정보가 정상적으로 표시되면 설치가 완료된 것입니다.

 

cmd로 버전 체크


2. DeepSeek R-1 모델 설치 및 실행

  • Ollama 사이트에서 DeepSeek R-1 모델을 검색하시면 모델의  파라미터별로  다운로드 명령어를 확인하실 수 있습니다.

Ollama에서 deepseek 모델 조회

 

  • 가벼운 모델을 설치해보기 위해 8b 모델을 선택하겠습니다.

deepseek-r1 파라미터 별 설치 명령어

 

3. CMD에서 Ollama 실행하기

  1. DeepSeek R-1 모델 다운로드 및 실행
    • 명령 프롬프트에서 아래 명령어를 입력하세요.
    ollama run deepseek-r1:8b
    • 실행하면 자동으로 모델이 다운로드됩니다.
    • 다운로드가 완료되면 로컬 환경에서 모델이 실행됩니다.
    • 8b 8B(80억) 파라미터 버전이며, VRAM 8GB 이상의 GPU가 필요합니다.

Deepseek-r1 8B버전 설치

 
  2. 정상적으로 실행되었는지 확인

 

4. 모델에 질문하기

  • 이제부터 Ollama 환경에서 DeepSeek R-1을 자유롭게 사용할 수 있습니다.
> Prompt: What is DeepSeek R-1?
<< Response: DeepSeek-R-1 is an AI assistant developed by the Chinese company DeepSeek ...


DeepSeek R-1 성능 분석 

  • Ollama에서 DeepSeek R-1을 검색하면 모델 성능과 관련된 다양한 벤치마크 정보를 확인할 수 있습니다.
  • 해당 벤치마크는 DeepSeek R-1이 어떤 분야에서 강점을 보이는지를 평가하는 지표로 활용됩니다.

LLM 모델 성능비교

주요 벤치마크 설명

AIME 2024 수학 문제 풀이
Codeforces 알고리즘 문제 풀이 
GPQA Diamond 일반 지식 질의응답
MATH-500 고급 수학 문제 해결
MMLU 다양한 과목에 대한 지식 테스트
SWE-bench 소프트웨어 엔지니어링 문제 해결

 


DeepSeek R-1의 VRAM 요구 사항

  • DeepSeek-R1의 VRAM 요구량은 모델 크기와 양자화(quantization) 적용 여부에 따라 달라집니다.
모델 변형 파라미터 수 (십억) VRAM 요구량 (GB) 권장 GPU
DeepSeek-R1 671 약 1,342 NVIDIA A100 80GB ×16
DeepSeek-R1-Distill-Qwen-1.5B 15 약 0.7 NVIDIA RTX 3060 12GB 이상
DeepSeek-R1-Distill-Qwen-7B 70 약 3.3 NVIDIA RTX 3070 8GB 이상
DeepSeek-R1-Distill-Llama-8B 80 약 3.7 NVIDIA RTX 3070 8GB 이상
DeepSeek-R1-Distill-Qwen-14B 140 약 6.5 NVIDIA RTX 3080 10GB 이상
DeepSeek-R1-Distill-Qwen-32B 320 약 14.9 NVIDIA RTX 4090 24GB
DeepSeek-R1-Distill-Llama-70B 700 약 32.7 NVIDIA RTX 4090 24GB ×2
  • VRAM 사용량은 설정에 따라 달라질 수 있습니다.
  • 전체 모델은 단일 GPU로 실행하기 어려우며, 다중 GPU 구성이 필요합니다.
  • 디스틸된(distilled) 모델은 상대적으로 낮은 사양에서도 실행이 가능합니다.


마무리

DeepSeek R-1은 수학, 코딩 및 일반 지식 테스트에서 OpenAI의 모델과 비교해도 높은 성능을 제공합니다. Ollama를 통해 쉽게 다운로드하고 실행할 수 있으며, 로컬에서 사용할 경우 개인정보 보호, 오프라인 사용, 비용 절감, 유연한 활용 등의 장점을 누릴 수 있습니다.
 
명령 프롬프트 사용이 익숙하지 않다면, Chatbox AI를 활용하여 DeepSeek R-1을 웹 인터페이스에서 더욱 편리하게 이용할 수 있습니다. 아래 링크를 참고하시기 바랍니다.
 
Chatbox를 활용한 로컬 LLM 실행 가이드
 
 
 
추가 질문이 있거나 도움이 필요하시면 언제든지 댓글남겨주세요!
감사합니다.