Deepseek V4 Flash Max
Deepseek V4 Flash Max 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Gemma 4 E2b 由 google 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
Gemma 4 E4b 由 google 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
Qwen3.6 是阿里巴巴 Qwen 團隊推出的開源語言模型系列,提供 35B A3B(MoE)和 27B(Dense)兩個版本。35B A3B 採用混合專家架構,推理時僅激活 3B 參數,速度接近小模型但智能接近大模型;27B 為全密集架構,適合需要穩定推理的場景。兩者均支援 128K 上下文,具備強大的多語言能力和工具調用支持。
Deepseek V4 Pro Max
Deepseek V4 Pro Max 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Google DeepMind 推出的第四代 Gemma 開源多模態模型系列,涵蓋 Dense 與 MoE 架構。E2B/E4B 支援文字、圖像及音訊輸入,適合行動裝置與筆電部署;26B A4B 採用 MoE 架構,以 4B 的推理速度提供 26B 的能力;31B Dense 版本在推理、編程及多模態理解上達到頂尖水準,支援高達 256K 上下文。
Qwen3.5 大型 MoE 模型,122B 總參數激活 10B,支援 262K 上下文。在 llm-stats.com 開源排行榜名列第 5,Code Arena 1136,GPQA 88.4%。
ollama run qwen3.5:27bMistral Small 4,2026 年 3 月最新發布,24B 參數,Apache 2.0 授權,支援 128K 上下文,多語言與視覺能力全面升級。
ollama run mistral-small4:latestMistral Small Latest
Mistral Small Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
Minimax M2.7 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Sarvam-105B,2026 年 3 月發布,印度 Sarvam AI 出品,105B 參數,Apache 2.0 授權,專注印度語言(Hindi、Tamil 等)及多語言能力。
MiniMax M2.5,2026 年 2 月發布,230B MoE 模型,支援超長 1M token 上下文,GPQA 80.2%,SWE-bench 76.3%,旗艦開源模型。
Step-3.5-Flash,階躍星辰 2026 年 2 月發布,65.5B 參數,Apache 2.0 授權,65K 上下文,GPQA 78.0%,SWE-bench 44.0%。
Step 3.5 Flash 由 stepfun-ai 開發的開源 語言 模型。授權:apache_2_0。共 1 個尺寸版本。
Nvidia Nemotron Nano 9B V2 由 nvidia 開發的開源 語言 模型。授權:nvidia_open_model_license_agreement。共 1 個尺寸版本。
LongCat-Flash-Lite,美團 2026 年 2 月發布,560B MoE 模型,Apache 2.0 授權,256K 上下文,GPQA 66.8%,長文本處理能力突出。
Minimax M2 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Qwen3 Coder 由 Qwen 開發的開源 程式碼 模型。授權:apache_2_0。共 2 個尺寸版本。
Qwen3 Next 由 Qwen 開發的開源 語言 模型。授權:apache_2_0。共 3 個尺寸版本。
Qwen3-TTS 1.7B,HF 月下載 108 萬次,Apache 2.0 授權,支援自訂聲音克隆,多語言 TTS,音質自然流暢,8 GB VRAM 可運行。
GLM-4.7-Flash,2026 年 1 月發布,30B 輕量版本,Apache 2.0 授權,GPQA 75.2%,128K 上下文,24 GB VRAM 可運行。
ollama run glm4.7-flash:latestStep3 Vl 由 stepfun-ai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
LongCat-Flash-Thinking-2601,美團 2026 年 1 月發布,560B MoE 推理增強版本,Apache 2.0 授權,GPQA 81.5%,SWE-bench 59.4%。
GLM-4.7,2025 年 12 月發布,355B 參數,GLM-4 授權,131K 上下文,GPQA 81.5%,中文能力頂尖,需要多 GPU 部署。
Ministral 8B Latest
Ministral 8B Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
Deepseek Reasoner
Deepseek Reasoner 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。
Ministral 14B Latest
Ministral 14B Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
MiniMax M2.1,2025 年 12 月發布,230B MoE 模型,支援 1M token 上下文,GPQA 84.5%,SWE-bench 60.2%,Code Arena 51.0%。
MiMo-V2-Flash,小米 2025 年 12 月發布,309B MoE 模型,Apache 2.0 授權,256K 上下文,GPQA 83.7%,SWE-bench 58.3%。
Mistral Large Latest
Mistral Large Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
Ministral 3B Latest
Ministral 3B Latest 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
Mistral Large 3 675B Instruct 2512 Eagle 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。
Mistral Large 3 675B Instruct 2512 Nvfp4 由 mistralai 開發的開源 多模態 模型。授權:apache_2_0。共 1 個尺寸版本。