← 디렉토리
Shanghai AI Lab · 2026-01 출시
InternLM 3
상하이 AI 랩 3세대 InternLM. Apache-2.0, 200K 컨텍스트, 추론 강점. 조용히 잘 만든 중국발 오픈 모델.
Apache-2.0상업 사용 OK
최대 파라미터
70B
변형
70B / 20B / 7B
컨텍스트
200K
MMLU
80.4
HumanEval
73
GSM8K
89.6
최소 VRAM (fp16)
14GB
Q4 GGUF (최소)
~4GB
지원 언어
18
장점
- ✓긴 컨텍스트
- ✓라이선스 관대
- ✓다국어 우수
단점
- ×서구 커뮤니티 약함
- ×200K 컨텍스트 메모리 부담
하이라이트
- ●200K 컨텍스트
- ●Apache-2.0
- ●RAG 성능 강점
다운로드
허깅페이스: internlm/internlm3-70b-chat
또는 Ollama (
ollama pull internlm-3) / LM Studio.