← 디렉토리
Mistral AI · 2024-04 출시

Mixtral 8x22B

2024년 클래식 MoE. 22B 익스퍼트 8개, 토큰당 39B 액티브. Apache-2.0이라 프로덕션 팀의 오픈 MoE 단골.

Apache-2.0상업 사용 OK
최대 파라미터
141B
변형
141B / 47B
컨텍스트
64K
MMLU
77.8
HumanEval
75.3
GSM8K
88.4
최소 VRAM (fp16)
80GB
Q4 GGUF (최소)
~26GB
지원 언어
5
장점
  • 진짜 무료 라이선스
  • 스파스 효율
  • 전장 검증
단점
  • ×오래됨 — 신모델이 더 똑똑
  • ×MoE 메모리 크기

하이라이트

  • Apache-2.0
  • 액티브 39B
  • 프로덕션 검증

다운로드

또는 Ollama (ollama pull mixtral-8x22b) / LM Studio.