← 블로그
2026-04-19 · security · tutorial

2026년 오픈 LLM 가중치 안전하게 다운로드하는 곳

허깅페이스가 디폴트지만 유일한 옵션은 아님. 미러, 토렌트, 공식 소스, 체크섬 검증법.

오픈 LLM 체크포인트는 5~200GB 바이너리 블롭으로, 추론 프로세스에 로드해 행동을 신뢰하는 것. 다운로드를 다른 바이너리 공급망 문제처럼 취급하는 게 현명. 방법.

소스, 순위 1. **공식 조직 HF 계정**: meta-llama, deepseek-ai, Qwen, mistralai, google, microsoft, allenai 등. 항상 검증·서명·최신. 2. **공식 사이트 / API**: 메타, DeepSeek, 코히어, 미스트랄 등 자체 포털 제공. 느리지만 HF 접근 안 될 때 우회. 3. **TheBloke / lmstudio-community / bartowski**: 양자화 GGUF/AWQ 신뢰 재업로더. 원본 레포 항상 교차 확인. 4. **미러 (modelscope, hf-mirror.com)**: HF 제한 지역에서 유용. 사용 전 공식 소스 체크섬 검증. 5. **검증 안 된 HF 재업로드**: 비추. 6. **/r/LocalLLaMA 메가스레드 토렌트**: 매우 큰 모델엔 가끔 유용, 단 로드 전 체크섬 검증 필수.

가중치 검증 - 허깅페이스 레포 메타데이터에 파일 SHA 표시. 다운로드 파일과 비교: `sha256sum model.safetensors`. - `.bin`(pickle)보다 `.safetensors` 선호. Pickle은 로드 시 임의 코드 실행 가능 — safetensors는 불가. - GGUF는 llama.cpp가 로드 시 체크섬 출력. 소스와 비교.

도구 - `huggingface-cli download <repo>`: 가장 깔끔한 CLI, 재개·병렬. - `hfd.sh`(서드파티): 느린 링크에서 aria2로 더 빠름. - `ollama pull <model>`: Ollama로만 쓸 거면 가장 단순. - `lmstudio`: 인앱 다운로더가 전부 처리.

저장소 진지한 로컬 LLM 머신은 2TB 드라이브 금세 채움. 라마 4 405B fp16은 800GB, Q4면 200GB. 계층형 저장소 계획: 핫 모델은 NVMe, 콜드는 느린 SSD.

다운로드 시 라이선스 컴플라이언스 다운로드는 쉬운 부분. 상업 제품에 모델 로드하려면 라이선스 약관 준수 필요. 라마, Gemma, Qwen, DeepSeek, 팔콘 모두 필요:

  1. 제품에 라이선스 사본 표시(보통 NOTICE 파일).
  2. 어트리뷰션 표시("Built with Llama" / "Powered by Gemma").
  3. 사용 제한을 최종 사용자에게 적용.

Apache-2.0과 MIT 모델은 가중치와 함께 라이선스 파일만 보관하면 됨. 가장 쉬운 방법은 레포에 "NOTICE" 파일을 만들어 출시 모델과 라이선스를 모두 나열.

관련 모델