← 디렉토리
Google DeepMind · 2025-11 출시
Gemma 3
구글 오픈 가중치 모델. 2B는 강력한 소형 모델, 폰·엣지·라즈베리파이 5에서도 돈다.
Gemma상업 사용 OK👁 비전
최대 파라미터
27B
변형
27B / 9B / 2B
컨텍스트
128K
MMLU
78.5
HumanEval
71.2
GSM8K
86.5
최소 VRAM (fp16)
6GB
Q4 GGUF (최소)
~1.6GB
지원 언어
35
장점
- ✓소형 모델 클래스 최강
- ✓구글 백업
- ✓Gemma 라이선스 관대
단점
- ×코드는 동급에서 최강은 아님
- ×Gemma 금지 용도 조항 있음
하이라이트
- ●2B는 엣지 디바이스 구동
- ●9B+는 비전 입력 가능
- ●제미니 리서치 기반
다운로드
허깅페이스: google/gemma-3-27b
또는 Ollama (
ollama pull gemma-3) / LM Studio.관련 글
2026년 베스트 오픈소스 LLM: 용도별 솔직한 추천
2026년 어떤 오픈소스 LLM을 돌릴지 솔직한 추천. 프론티어 추론, 코딩, RAG, 엣지, 다국어 등 용도별로.
오픈소스 LLM 라이선스 정리: 라마 vs Apache vs Gemma vs MIT
라마를 상업 제품에 써도 되나? Gemma 라이선스가 실제로 뭘 제한하나? 주요 오픈 LLM 라이선스를 평이하게 정리.
2026년 노트북에서 LLM 돌리기: M 시리즈, 양자화, 실제 작동하는 것
단계별: 양자화 선택, Ollama 또는 LM Studio 설치, 7B~14B 모델을 맥북·16GB GPU에서 돌리기. 멘탈 잃지 않는 법.
엣지 디바이스 소형 LLM: 2026년 폰·라즈베리파이·브라우저에서 뭐가 돌아가나
Gemma 2B는 라즈베리파이 5에서 돈다. Phi-4는 WebGPU로 브라우저에서. 폰은 라마 3B. 작은 하드웨어 LLM 실용 가이드.