Sarvam-105B,2026 年 3 月發布,印度 Sarvam AI 出品,105B 參數,Apache 2.0 授權,專注印度語言(Hindi、Tamil 等)及多語言能力。
Qwen3.5 大型 MoE 模型,122B 總參數激活 10B,支援 262K 上下文。在 llm-stats.com 開源排行榜名列第 5,Code Arena 1136,GPQA 88.4%。
ollama run qwen3.5:27bMinimax M2.7
Minimax M2.7 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Mistral Small 4,2026 年 3 月最新發布,24B 參數,Apache 2.0 授權,支援 128K 上下文,多語言與視覺能力全面升級。
ollama run mistral-small4:latestStep 3.5 Flash 由 stepfun-ai 開發的開源 語言 模型。授權:apache_2_0。共 1 個尺寸版本。
Step-3.5-Flash,階躍星辰 2026 年 2 月發布,65.5B 參數,Apache 2.0 授權,65K 上下文,GPQA 78.0%,SWE-bench 44.0%。
LongCat-Flash-Lite,美團 2026 年 2 月發布,560B MoE 模型,Apache 2.0 授權,256K 上下文,GPQA 66.8%,長文本處理能力突出。
Minimax M2 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Nvidia Nemotron Nano 9B V2 由 nvidia 開發的開源 語言 模型。授權:nvidia_open_model_license_agreement。共 1 個尺寸版本。
MiniMax M2.5,2026 年 2 月發布,230B MoE 模型,支援超長 1M token 上下文,GPQA 80.2%,SWE-bench 76.3%,旗艦開源模型。
LongCat-Flash-Thinking-2601,美團 2026 年 1 月發布,560B MoE 推理增強版本,Apache 2.0 授權,GPQA 81.5%,SWE-bench 59.4%。
GLM-4.7-Flash,2026 年 1 月發布,30B 輕量版本,Apache 2.0 授權,GPQA 75.2%,128K 上下文,24 GB VRAM 可運行。
ollama run glm4.7-flash:latestQwen3 Next 由 Qwen 開發的開源 語言 模型。授權:apache_2_0。共 3 個尺寸版本。
MiniMax M2.1,2025 年 12 月發布,230B MoE 模型,支援 1M token 上下文,GPQA 84.5%,SWE-bench 60.2%,Code Arena 51.0%。
GLM-4.7,2025 年 12 月發布,355B 參數,GLM-4 授權,131K 上下文,GPQA 81.5%,中文能力頂尖,需要多 GPU 部署。
Deepseek Reasoner
Deepseek Reasoner 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
MiMo-V2-Flash,小米 2025 年 12 月發布,309B MoE 模型,Apache 2.0 授權,256K 上下文,GPQA 83.7%,SWE-bench 58.3%。
NVIDIA Nemotron 3 Nano,30B MoE 模型(激活 3B),2025 年 12 月發布,NVIDIA Open Model 授權,128K 上下文,高效推理。
Deepseek V3.2 Speciale 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Deepseek 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Ministral 3 14B Instruct 2512,2025 年 12 月發布,14B 參數,MRL 授權,128K 上下文,推理能力強化版本。
ollama run ministral3:8b-instructMistral Large 3,675B 參數,256K 上下文,Mistral 最新旗艦,多語言和推理能力頂尖,需多機多 GPU 部署。
Deepseek V3.2 Exp 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
GLM-4.6,32B 參數,Apache 2.0 授權,131K 上下文,在 llm-stats.com 開源排行榜第 4 名,中文能力頂尖。
Deepseek V3.1 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
GLM-4.5-Air,32B 參數,Apache 2.0 授權,131K 上下文,中文能力強,Q4 約需 20 GB VRAM。
Devstral Small 2507 由 mistralai 開發的開源 語言 模型。授權:apache_2_0。共 1 個尺寸版本。
月之暗面 Kimi K2.5,超大規模 MoE 模型,在 llm-stats.com 開源排行榜名列前茅,需要多機多 GPU 部署。
Llama 3.1 Nemotron 由 nvidia 開發的開源 語言 模型。授權:llama_3_1_community_license。共 1 個尺寸版本。
NVIDIA Nemotron 3 Super,120B MoE 模型(激活 12B),2026 年 3 月發布,NVIDIA Open Model 授權,128K 上下文,適合企業推理部署。
Minimax M1 80K 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Mistral Small 3.2 最新版本,24B 參數,支援 128K 上下文和視覺輸入,Apache 2.0 授權,適合企業部署。
ollama run mistral-small3.2:24bMinimax M1 40K 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Mistral Magistral Small,24B 推理模型,Apache 2.0 授權,256K 上下文,推理能力強,Q4 約需 15 GB VRAM。
ollama run magistral:24bLlama 3.1 Nemotron Nano 8B V1 由 nvidia 開發的開源 語言 模型。授權:llama_3_1_community_license。共 1 個尺寸版本。
Deepseek R1 0528 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Meta Llama 4 Scout,109B MoE(17B 激活),支援 1M 超長上下文和多模態,比 Maverick 更輕量,可在單機多 GPU 部署。
IBM Granite 3.3 8B,Apache 2.0 授權,128K 上下文,企業級 AI 模型,工具使用和 RAG 能力強,Q4 約需 6 GB VRAM。
ollama run granite3.3:8bMicrosoft Phi-4 Reasoning,14B 推理模型,MIT 授權,在數學和科學推理上表現出色,Q4 約需 9 GB VRAM。
ollama run phi4-reasoning:14b