← 활용 가이드

오픈 LLM으로 코딩 어시스턴트 셀프 호스팅하기

DeepSeek Coder V3 또는 라마 4를 자체 GPU에서 돌려 프라이빗 코드 어시스턴트 세팅 단계별 가이드.

  1. STEP 1

    모델 선정

    VRAM 24GB 이상이면 DeepSeek Coder V3 33B가 최고 품질. 노트북 GPU엔 라마 4 8B. 비전·다국어 필요하면 Qwen3.6 7B.

  2. STEP 2

    Ollama 설치

    ollama.com → 설치 → ollama pull deepseek-coder-v3:33b. 33B Q4 가중치 ~20GB, 다운로드 10분 예상.

  3. STEP 3

    에디터 연결

    VS Code: Continue 확장 설치, 프로바이더를 Ollama로. JetBrains: Continue 또는 Tabby. 둘 다 OpenAI API 스펙을 따르므로 http://localhost:11434/v1 가리키면 됨.

  4. STEP 4

    시스템 프롬프트 튜닝

    디폴트 채팅 템플릿은 채팅엔 OK. 인라인 완성엔 모델별 FIM 템플릿 — DeepSeek Coder는 <|fim_begin|> / <|fim_hole|> / <|fim_end|>.

  5. STEP 5

    코드베이스 컨텍스트 추가

    Continue와 Cursor는 프로젝트 단위 검색 지원. 레포 한 번 인덱싱하면 쿼리가 자동으로 관련 파일 가져옴. DeepSeek Coder V3 같은 64K 컨텍스트 모델과 결합하면 완전 로컬에서 거의 Cursor 품질.

추천 모델