← 디렉토리
Microsoft · 2025-12 출시
Phi-4
MS의 14B 추론 모델. 14B인데 70B급 수학·추론 점수 — 리더보드 파라미터 효율 1위.
MIT상업 사용 OK
최대 파라미터
14B
변형
14B
컨텍스트
16K
MMLU
84.8
HumanEval
82.6
GSM8K
95.2
최소 VRAM (fp16)
8GB
Q4 GGUF (최소)
~4GB
지원 언어
5
장점
- ✓파라미터 대비 성능 최고
- ✓MIT 라이선스
- ✓4090 한 장이면 충분
단점
- ×컨텍스트 16K로 짧음
- ×영어 위주
하이라이트
- ●MIT 라이선스 — 완전 오픈
- ●14B로 GSM8K 95.2
- ●합성 데이터로 집중 훈련
다운로드
허깅페이스: microsoft/phi-4
또는 Ollama (
ollama pull phi-4) / LM Studio.관련 글
2026년 베스트 오픈소스 LLM: 용도별 솔직한 추천
2026년 어떤 오픈소스 LLM을 돌릴지 솔직한 추천. 프론티어 추론, 코딩, RAG, 엣지, 다국어 등 용도별로.
오픈소스 LLM 라이선스 정리: 라마 vs Apache vs Gemma vs MIT
라마를 상업 제품에 써도 되나? Gemma 라이선스가 실제로 뭘 제한하나? 주요 오픈 LLM 라이선스를 평이하게 정리.
2026년 노트북에서 LLM 돌리기: M 시리즈, 양자화, 실제 작동하는 것
단계별: 양자화 선택, Ollama 또는 LM Studio 설치, 7B~14B 모델을 맥북·16GB GPU에서 돌리기. 멘탈 잃지 않는 법.
엣지 디바이스 소형 LLM: 2026년 폰·라즈베리파이·브라우저에서 뭐가 돌아가나
Gemma 2B는 라즈베리파이 5에서 돈다. Phi-4는 WebGPU로 브라우저에서. 폰은 라마 3B. 작은 하드웨어 LLM 실용 가이드.