← 디렉토리
Mistral AI · 2024-04 출시
Mixtral 8x22B
2024년 클래식 MoE. 22B 익스퍼트 8개, 토큰당 39B 액티브. Apache-2.0이라 프로덕션 팀의 오픈 MoE 단골.
Apache-2.0상업 사용 OK
최대 파라미터
141B
변형
141B / 47B
컨텍스트
64K
MMLU
77.8
HumanEval
75.3
GSM8K
88.4
최소 VRAM (fp16)
80GB
Q4 GGUF (최소)
~26GB
지원 언어
5
장점
- ✓진짜 무료 라이선스
- ✓스파스 효율
- ✓전장 검증
단점
- ×오래됨 — 신모델이 더 똑똑
- ×MoE 메모리 크기
하이라이트
- ●Apache-2.0
- ●액티브 39B
- ●프로덕션 검증
다운로드
또는 Ollama (
ollama pull mixtral-8x22b) / LM Studio.