資料來源:🤗 Hugging Face · GitHub · 資料庫即時更新

探索開源 AI 宇宙
自由部署,完全掌控

179+ 個開源可自行部署的 AI 模型與工具,資料來源自 🤗 Hugging Face

179+開源模型
87+語言模型
35+多模態
10+圖像生成
10+語音處理
6+影片生成
最新發布2026
👁️2026-04
Gemma 4
👁️2026-04
Gemma 4 E4b
👁️2026-04
Gemma 4 E2b
🤖2026-03
Cursor
👁️2026-03
Mistral Small Latest
🤖2026-03
Kilo Code
🤖2026-03
Claude Code
🧠2026-03
Minimax M2.7
🤖2026-03
AstrBot
🧠2026-03
Mistral Small 4

模型瀏覽

分類:
VRAM:
我的 GPU:
強項篩選:
排序:
找到 87 個結果🤗
🧠 大型語言模型2 版本✦ 最近更新

Sarvam

📅更新2026年3月
選擇版本(參數量)
最大上下文:128K tokens📅 2026年3月

Sarvam-105B,2026 年 3 月發布,印度 Sarvam AI 出品,105B 參數,Apache 2.0 授權,專注印度語言(Hindi、Tamil 等)及多語言能力。

印度語言優化多語言理解複雜推理
120K/月
▸ 1%
參數量
105B
最大上下文
128K tokens
128K印度語言多語言最新
vLLMllama.cppSGLang
Apache 2.0
🧠 大型語言模型MoE8 版本✦ 最近更新💬 1

Qwen3.5

📅更新2026年3月
選擇版本(參數量)
最大上下文:262K tokens📅 2026年2月

Qwen3.5 大型 MoE 模型,122B 總參數激活 10B,支援 262K 上下文。在 llm-stats.com 開源排行榜名列第 5,Code Arena 1136,GPQA 88.4%。

超長上下文高效MoE架構多模態理解
1.19K/月
參數量
27B
最大上下文
262K tokens
推薦超長上下文262K中文嵌入式低顯存
Ollamallama.cppLM StudiovLLMSGLang
ollama run qwen3.5:27b
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

Minimax M2.7

📅2026年3月

Minimax M2.7 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

參數量
最大上下文
VRAM 資料待補充
MiniMaxAImitllm
ollamallama.cpp
MIT
🧠 大型語言模型✦ 最近更新🔒 需申請

Mistral Small 4

📅更新2026年3月

Mistral Small 4,2026 年 3 月最新發布,24B 參數,Apache 2.0 授權,支援 128K 上下文,多語言與視覺能力全面升級。

多模態理解長上下文處理多語言支援
72K/月
參數量
24B
最大上下文
128K tokens
128K多語言視覺最新
OllamavLLMllama.cpp
ollama run mistral-small4:latest
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

Step 3.5 Flash (196B MoE)

📅2026年2月

Step 3.5 Flash 由 stepfun-ai 開發的開源 語言 模型。授權:apache_2_0。共 1 個尺寸版本。

高效能推理大規模語言理解MoE架構優勢
296K/月
▸ 2%
參數量
196B (A19.6B)
最大上下文
64K tokens
stepfun-aillmStep 3.5 Flash
ollamallama.cpp
Apache 2.0
🧠 大型語言模型✦ 最近更新

Step 3.5 Flash (65.5B Dense)

📅更新2026年2月

Step-3.5-Flash,階躍星辰 2026 年 2 月發布,65.5B 參數,Apache 2.0 授權,65K 上下文,GPQA 78.0%,SWE-bench 44.0%。

長上下文處理高效能部署程式碼理解
119K/月
▸ 1%
參數量
65.5B
最大上下文
65K tokens
65KApache 2.0StepFun
vLLMSGLang
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新🔒 需申請

LongCat-Flash-Lite

📅更新2026年2月

LongCat-Flash-Lite,美團 2026 年 2 月發布,560B MoE 模型,Apache 2.0 授權,256K 上下文,GPQA 66.8%,長文本處理能力突出。

長文本處理大規模模型高效推理
395
參數量
560B
最大上下文
128K tokens
256KApache 2.0美團長文本
vLLMSGLang
Apache 2.0
🧠 大型語言模型MoE✦ 最近更新

Minimax M2

📅2026年2月

Minimax M2 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

超大上下文高效能MoE架構MIT開源
675K/月
▸ 5%
參數量
230B (A23B)
最大上下文
977K tokens
MiniMaxAImitllm
ollamallama.cpp
MIT
🧠 大型語言模型✦ 最近更新

Nvidia Nemotron Nano 9B V2

📅2026年2月

Nvidia Nemotron Nano 9B V2 由 nvidia 開發的開源 語言 模型。授權:nvidia_open_model_license_agreement。共 1 個尺寸版本。

日語優化指令遵循工具調用
500K/月
▸ 3%
參數量
8.9B
最大上下文
nvidiallm
ollamallama.cpp
NVIDIA Open
🧠 大型語言模型MoE✦ 最近更新

MiniMax M2.5

📅更新2026年2月

MiniMax M2.5,2026 年 2 月發布,230B MoE 模型,支援超長 1M token 上下文,GPQA 80.2%,SWE-bench 76.3%,旗艦開源模型。

超長上下文旗艦性能MoE架構
675K/月
▸ 5%
參數量
230B
最大上下文
1M tokens
MoE1M Context最新旗艦
vLLMSGLang
MiniMax
🧠 大型語言模型MoE🔒 需申請

LongCat-Flash-Thinking-2601

📅更新2026年1月

LongCat-Flash-Thinking-2601,美團 2026 年 1 月發布,560B MoE 推理增強版本,Apache 2.0 授權,GPQA 81.5%,SWE-bench 59.4%。

長上下文理解高效推理知識問答
45K/月
參數量
560B
最大上下文
128K tokens
128KApache 2.0美團推理
vLLMSGLang
Apache 2.0
🧠 大型語言模型🔒 需申請

GLM-4.7-Flash

📅更新2026年1月

GLM-4.7-Flash,2026 年 1 月發布,30B 輕量版本,Apache 2.0 授權,GPQA 75.2%,128K 上下文,24 GB VRAM 可運行。

輕量高效長上下文中文優化
320K/月
▸ 2%
參數量
30B
最大上下文
128K tokens
128K高效中文推薦
OllamavLLMllama.cpp
ollama run glm4.7-flash:latest
Apache 2.0
🧠 大型語言模型MoE

Qwen3 Next

📅2026年1月

Qwen3 Next 由 Qwen 開發的開源 語言 模型。授權:apache_2_0。共 3 個尺寸版本。

高效能程式碼代理長程推理
1.1M/月
▸ 7%
參數量
80B (A8B)
最大上下文
128K tokens
Qwenllm
ollamallama.cpp
Apache 2.0
🧠 大型語言模型MoE

MiniMax M2.1

📅更新2025年12月

MiniMax M2.1,2025 年 12 月發布,230B MoE 模型,支援 1M token 上下文,GPQA 84.5%,SWE-bench 60.2%,Code Arena 51.0%。

旗艦級性能超長上下文程式碼能力
35K/月
參數量
230B
最大上下文
1M tokens
MoE1M Context旗艦
vLLMSGLang
MiniMax
🧠 大型語言模型🔒 需申請

GLM-4.7

📅更新2025年12月

GLM-4.7,2025 年 12 月發布,355B 參數,GLM-4 授權,131K 上下文,GPQA 81.5%,中文能力頂尖,需要多 GPU 部署。

旗艦中文能力超長上下文高精度推理
180K/月
▸ 1%
參數量
355B
最大上下文
128K tokens
131K旗艦中文
vLLMSGLang
GLM-4
🧠 大型語言模型MoE

Deepseek Reasoner

📅2025年12月

Deepseek Reasoner 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

大型語言模型開源模型MoE架構
參數量
685B (A68.5B)
最大上下文
128K tokens
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型MoE

MiMo-V2-Flash

📅更新2025年12月

MiMo-V2-Flash,小米 2025 年 12 月發布,309B MoE 模型,Apache 2.0 授權,256K 上下文,GPQA 83.7%,SWE-bench 58.3%。

高速推理長上下文理解MoE 高效能
59K/月
參數量
309B
最大上下文
256K tokens
256K推理Apache 2.0小米
vLLMSGLang
Apache 2.0
🧠 大型語言模型MoE🔒 需申請

Nemotron 3 Nano (30B A3B)

📅更新2025年11月

NVIDIA Nemotron 3 Nano,30B MoE 模型(激活 3B),2025 年 12 月發布,NVIDIA Open Model 授權,128K 上下文,高效推理。

高效推理超長上下文MoE 架構
1.7M/月
▸ 11%
參數量
30B (A3B)
最大上下文
128K tokens
MoE128KNVIDIA
vLLMSGLangTensorRT-LLM
NVIDIA Open Model
🧠 大型語言模型MoE

Deepseek V3.2 Speciale

📅2025年11月

Deepseek V3.2 Speciale 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

高效推理Agentic AI開源模型
19K/月
參數量
685B (A68.5B)
最大上下文
128K tokens
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型MoE

Deepseek

📅2025年10月

Deepseek 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

多模態理解多語言支援超長上下文
3.2M/月
▸ 21%
參數量
685B (A68.5B)
最大上下文
128K tokens
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型7 版本

Ministral 3

📅更新2025年10月
選擇版本(參數量)
最大上下文:128K tokens

Ministral 3 14B Instruct 2512,2025 年 12 月發布,14B 參數,MRL 授權,128K 上下文,推理能力強化版本。

多模態理解高效能推理邊緣部署優化
580K/月
▸ 4%
參數量
8B
最大上下文
128K tokens
32K輕量基礎模型推薦128K多語言
Ollamallama.cppvLLM
ollama run ministral3:8b-instruct
MRL
🧠 大型語言模型🔒 需申請

Mistral Large 3

📅更新2025年9月

Mistral Large 3,675B 參數,256K 上下文,Mistral 最新旗艦,多語言和推理能力頂尖,需多機多 GPU 部署。

旗艦多語言超長上下文頂級推理
4K/月
參數量
675B
最大上下文
128K tokens
256K多語言旗艦
vLLMSGLang
Mistral Research
🧠 大型語言模型MoE

Deepseek V3.2 Exp

📅2025年9月

Deepseek V3.2 Exp 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

開源模型大規模參數高效能MoE
151K/月
▸ 1%
參數量
685B (A68.5B)
最大上下文
128K tokens
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型🔒 需申請

GLM-4.6

📅更新2025年9月

GLM-4.6,32B 參數,Apache 2.0 授權,131K 上下文,在 llm-stats.com 開源排行榜第 4 名,中文能力頂尖。

頂尖中文能力超長上下文高性能推理
24K/月
參數量
32B
最大上下文
128K tokens
中文131KApache 2.0
vLLMllama.cppSGLang
Apache 2.0
🧠 大型語言模型

Deepseek V3.1

📅2025年8月

Deepseek V3.1 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

超大上下文開源模型高參數規模
140K/月
▸ 1%
參數量
671B
最大上下文
128K tokens
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型

GLM-4.5-Air

📅更新2025年7月

GLM-4.5-Air,32B 參數,Apache 2.0 授權,131K 上下文,中文能力強,Q4 約需 20 GB VRAM。

長上下文理解強大中文能力智能代理核心
397K/月
▸ 3%
參數量
32B
最大上下文
128K tokens
中文131KApache 2.0
vLLMllama.cppSGLang
Apache 2.0
🧠 大型語言模型

Devstral Small 2507

📅2025年7月

Devstral Small 2507 由 mistralai 開發的開源 語言 模型。授權:apache_2_0。共 1 個尺寸版本。

軟體工程專精程式碼代理多檔案編輯
41K/月
參數量
24B
最大上下文
128K tokens
mistralaillm
ollamallama.cpp
Apache 2.0
🧠 大型語言模型MoE2 版本

Kimi

📅更新2025年7月
選擇版本(參數量)
最大上下文:128K tokens📅 2025年7月

月之暗面 Kimi K2.5,超大規模 MoE 模型,在 llm-stats.com 開源排行榜名列前茅,需要多機多 GPU 部署。

超長上下文MoE高效能中文旗艦
1.8M/月
▸ 12%
參數量
1.0T (A32B)
最大上下文
128K tokens
MoE旗艦128K中文Agent
vLLMSGLangllama.cpp
Modified MIT
🧠 大型語言模型

Llama 3.1 Nemotron

📅2025年6月

Llama 3.1 Nemotron 由 nvidia 開發的開源 語言 模型。授權:llama_3_1_community_license。共 1 個尺寸版本。

視覺理解文件智慧多模態推理
1.7M/月
▸ 11%
參數量
70B
最大上下文
128K tokens
nvidiallm
ollamallama.cpp
Llama
🧠 大型語言模型🔒 需申請

Magistral Medium

📅更新2025年6月

Mistral Magistral Medium,123B 推理模型,256K 上下文,Mistral 最新推理旗艦,需 70 GB+ VRAM(Q4 約 74 GB)。

旗艦模型超長上下文強大推理
320K/月
▸ 2%
參數量
123B
最大上下文
256K tokens
推理256K旗艦
vLLMSGLang
Mistral Research
🧠 大型語言模型MoE🔒 需申請

Nemotron 3 Super (120B A12B)

📅更新2025年6月

NVIDIA Nemotron 3 Super,120B MoE 模型(激活 12B),2026 年 3 月發布,NVIDIA Open Model 授權,128K 上下文,適合企業推理部署。

高效能推理超長上下文企業級部署
1.7M/月
▸ 11%
參數量
120B (A12B)
最大上下文
128K tokens
MoE128K最新NVIDIA
vLLMSGLangTensorRT-LLM
NVIDIA Open Model
🧠 大型語言模型

Minimax M1 80K

📅2025年6月

Minimax M1 80K 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

超長上下文巨量參數開源免費
843
參數量
456B
最大上下文
977K tokens
MiniMaxAImitllm
ollamallama.cpp
MIT
🧠 大型語言模型

Mistral-Small-3.2-24B

📅更新2025年6月

Mistral Small 3.2 最新版本,24B 參數,支援 128K 上下文和視覺輸入,Apache 2.0 授權,適合企業部署。

指令跟隨視覺理解多語言支援
768K/月
▸ 5%
參數量
24B
最大上下文
128K tokens
128K多語言視覺
OllamavLLMllama.cpp
ollama run mistral-small3.2:24b
Apache 2.0
🧠 大型語言模型

Minimax M1 40K

📅2025年6月

Minimax M1 40K 由 MiniMaxAI 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

大型語言模型MIT開源廣泛部署
24K/月
參數量
456B
最大上下文
MiniMaxAImitllm
ollamallama.cpp
MIT
🧠 大型語言模型

Magistral Small 2506

📅更新2025年6月

Mistral Magistral Small,24B 推理模型,Apache 2.0 授權,256K 上下文,推理能力強,Q4 約需 15 GB VRAM。

強大推理多語言支援長上下文
43K/月
參數量
24B
最大上下文
256K tokens
推理Apache 2.0256K
OllamavLLMllama.cpp
ollama run magistral:24b
Apache 2.0
🧠 大型語言模型

Llama 3.1 Nemotron Nano 8B V1

📅2025年6月

Llama 3.1 Nemotron Nano 8B V1 由 nvidia 開發的開源 語言 模型。授權:llama_3_1_community_license。共 1 個尺寸版本。

視覺理解文件智能邊緣部署
1.7M/月
▸ 11%
參數量
8B
最大上下文
128K tokens
nvidiallm
ollamallama.cpp
Llama
🧠 大型語言模型

Deepseek R1 0528

📅2025年5月

Deepseek R1 0528 由 deepseek-ai 開發的開源 語言 模型。授權:mit。共 1 個尺寸版本。

超大規模長上下文理解開源靈活
781K/月
▸ 5%
參數量
671B
最大上下文
128K tokens
deepseek-aimitllm
ollamallama.cpp
MIT
🧠 大型語言模型MoE

Llama 4 Scout

📅更新2025年4月

Meta Llama 4 Scout,109B MoE(17B 激活),支援 1M 超長上下文和多模態,比 Maverick 更輕量,可在單機多 GPU 部署。

超長上下文多模態理解高效能MoE
315K/月
▸ 2%
參數量
109B (A17B)
最大上下文
1.024M tokens
MoE1M 上下文多模態
vLLMSGLangllama.cpp
Llama
🧠 大型語言模型

Granite 3.3 8B

📅更新2025年4月

IBM Granite 3.3 8B,Apache 2.0 授權,128K 上下文,企業級 AI 模型,工具使用和 RAG 能力強,Q4 約需 6 GB VRAM。

指令跟隨長上下文企業級
421K/月
▸ 3%
參數量
8B
最大上下文
128K tokens
Apache 2.0128K企業Tool Use
OllamavLLMllama.cpp
ollama run granite3.3:8b
Apache 2.0
🧠 大型語言模型3 版本

Phi 4 Reasoning

📅更新2025年4月
選擇版本(參數量)
最大上下文:32K tokens📅 2025年4月

Microsoft Phi-4 Reasoning,14B 推理模型,MIT 授權,在數學和科學推理上表現出色,Q4 約需 9 GB VRAM。

數學推理科學計算輕量高效
1.1M/月
▸ 7%
參數量
14B
最大上下文
32K tokens
MIT推理128K輕量數學32K
Ollamallama.cppLM StudiovLLM
ollama run phi4-reasoning:14b
MIT

常見問題

什麼是開源 AI 模型?
開源 AI 模型是指原始碼、模型權重或訓練資料公開發布的人工智慧模型,任何人都可以免費下載、修改和自行部署。常見的開源 AI 模型包括 Meta 的 Llama、Mistral AI 的 Mistral、阿里巴巴的 Qwen 等。
如何自行部署開源 AI 模型?
最常用的工具包括:Ollama(最簡單,適合本機部署)、LM Studio(圖形介面,適合初學者)、vLLM(高效能伺服器部署)、llama.cpp(輕量化 CPU/GPU 推理)。根據你的 GPU VRAM 選擇合適的量化版本即可。
我需要多少 VRAM 才能運行 AI 模型?
7B 模型(Q4 量化)約需 4-6 GB VRAM;13B 約需 8-10 GB;70B 約需 40-48 GB。OSAI Centre 為每個模型提供詳細的 VRAM 需求表。
OSAI Centre 收錄了哪些類型的 AI 模型?
OSAI Centre 收錄超過 160 個開源 AI 模型,涵蓋:語言模型(LLM)、圖像生成(Stable Diffusion、FLUX)、語音、程式碼生成、多模態、影片生成,以及 AI 工具和 Agent 框架。
什麼是量化(Quantization)?
量化通過降低模型權重精度(如 FP16 → Q4)來減少 VRAM 佔用和加快推理速度。常見格式:Q2、Q3、Q4、Q5、Q6、Q8,數字越大精度越高但 VRAM 需求也越大。
如何選擇適合我的開源 AI 模型?
建議考慮:1) GPU VRAM 大小;2) 使用場景(對話、程式碼、圖像生成等);3) 語言支援;4) 授權條款。使用 OSAI Centre 的 VRAM 篩選器和分類篩選快速找到合適的模型。
Llama 和 GPT-4 有什麼分別?
Llama(Meta)是開源免費的,可下載權重在本地自行部署,資料完全私密。GPT-4(OpenAI)是閉源商業模型,只能透過付費 API 呼叫。Llama 3.3 70B 在多項基準測試上接近 GPT-4 水準,且完全免費本地運行。
如何在 Windows 上安裝和使用 Ollama?
從 ollama.com 下載 Windows 安裝包,安裝後開啟 PowerShell 或命令提示字元,輸入:ollama run llama3.2(或其他模型名稱)。Ollama 會自動下載模型並啟動本地對話。如需圖形介面,可搭配 Open WebUI 或 LM Studio 使用。
可以在 Mac 上運行 AI 模型嗎?
可以!搭載 Apple Silicon(M1/M2/M3/M4)的 Mac 非常適合本地 AI 部署。Ollama 原生支援 macOS,使用統一記憶體(RAM)作為顯存。M2 Pro 16 GB 記憶體可流暢運行 7B–13B 模型。在終端機輸入:ollama run qwen2.5:7b 即可開始。
開源 AI 模型可以商業使用嗎?
取決於具體授權協議。Llama 3.3 允許大多數企業商業使用(月活用戶不超過 7 億);Qwen 2.5 採用 Apache 2.0(完全免費商用);Mistral 系列也是 Apache 2.0。商業部署前請務必在 Hugging Face 頁面確認該模型的具體授權條款。
2025 年最好的開源大語言模型是哪個?
2025 年頂級開源 LLM:Llama 3.3 70B(綜合品質最佳)、Qwen 2.5 72B(多語言和程式碼能力強)、Mistral Large(高效)、DeepSeek R1(推理能力強)、Phi-4(小模型中的佼佼者)。最佳選擇取決於你的顯存大小和使用場景。
沒有 GPU 可以運行 AI 模型嗎?
可以,使用 llama.cpp 或 Ollama 的純 CPU 推理模式。7B Q4 模型約需 8 GB 記憶體,在現代 CPU 上運行速度約 2–5 tokens/秒。即使是中階 GPU(如 RTX 3060 12 GB)也能大幅提升速度。Apple Silicon Mac 的統一記憶體利用效率也很高。
Ollama、LM Studio 和 vLLM 有什麼區別?
Ollama:命令行快速本地部署,支援大多數 GGUF 模型。LM Studio:圖形介面,適合 Windows/Mac 初學者,無需命令行。vLLM:高吐吐量生產伺服器,支援 OpenAI 相容 API,需要 Linux/GPU。個人使用選 Ollama 或 LM Studio;服务多用戶選 vLLM。
本地運行 AI 模型安全私密嗎?
是的!本地 AI 模型完全在你自己的硬體上運行,沒有任何資料傳送到外部伺服器。你的對話、文件和提示詞永遠不會離開你的機器。這使得本地 AI 非常適合處理敗感業務資料、個人隱私和離線場景。
最適合寫程式碼的開源 AI 模型是哪個?
頂級程式碼模型:Qwen 2.5 Coder 32B(綜合最佳)、DeepSeek Coder V2(推理能力強)、CodeLlama 70B(Meta)、Phi-4(高效)。VRAM 有限時,Qwen 2.5 Coder 7B 或 14B 是性價比最高的選擇。
最適合中文的開源 AI 模型是哪個?
最佳中文開源模型:Qwen 2.5(阿里巴巴,中英文最強)、DeepSeek V3(中文推理能力強)、Yi-1.5(01.AI)、Baichuan 2。Qwen 2.5 72B 被廣泛認為是中文 NLP 任務的首選。
如何在本地運行 Stable Diffusion?
使用 ComfyUI(最靈活,節點式工作流)或 AUTOMATIC1111 WebUI(初學者友好)。從 Hugging Face 或 CivitAI 下載模型檔案(如 SDXL、FLUX)。最低需求:SDXL 需 6 GB VRAM;FLUX 建議 8 GB+。支援 Windows、Mac(MPS)和 Linux。
如何在 Linux 上運行 AI 模型?
安裝 Ollama:curl -fsSL https://ollama.com/install.sh | sh,然後執行:ollama run llama3.2。GPU 加速需確保安裝 NVIDIA 驅動和 CUDA。vLLM 適合 Linux 伺服器部署:pip install vllm,然後 python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen2.5-7B-Instruct。
什麼是 RAG(檢索增強生成)?
RAG 將本地 AI 模型與文件檢索系統結合,讓模型基於你自己的檔案(PDF、文件、筆記)回答問題。常用工具:Ollama + Open WebUI(內建 RAG)、LlamaIndex、LangChain、AnythingLLM。這讓你能基於自己的知識庫建立私有 ChatGPT。