跳轉到

LLM 連線

Mailslide 支援使用本地 LLM 進行推理(如透過 llama.cpp),讓你可以在離線或不仰賴外部雲端 API 的情況下,保障郵件隱私與資料安全。 也可使用 OpenAI API Key 連線 OpenAI 的模型或相容 OpenAI API 的雲端服務。

警語:AI 會閱讀你的郵件,請確認要讓 AI 處理的郵件不包含個人隱私或業務機密,或使用本地模型處理。

免責聲明: Mailslide 僅提供工具,不保證第三方或本地 AI 模型處理資料之安全性;因使用者輸入內容或模型服務造成之資料外洩、機密洩漏或相關損害,專案作者不負任何責任。使用前請自行評估風險並遵循組織政策與法規。

1. 使用 llama.cpp 作為本地 LLM

llama.cpp Releases 下載對應作業系統的 llama-server 執行檔。 (Windows 版本若無獨立顯示卡,可下載 CPU 版本;雖然只適合較小參數的模型,但小模型對於單純的文字分類仍有不錯效果。)

2. 啟動 Server

推薦使用 qwen3.5 等小模型,2B 或 4B 的參數在郵件分類場景上就有不錯的效果。小模型也可輕易使用 CPU 執行,例如 2B/4B Q8 量化版可能僅佔用約 2-4G RAM。 唯系統提示詞需要多次調整,才能達到理想的分類效果。

你可以到 Huggingface 下載 Qwen3.5-4B-Q8_0.gguf 或其他中意的模型。

# 基本啟動指令
.\llama-server.exe -m .\Qwen3.5-4B-Q8_0.gguf --port 8080

# 關閉思考功能(推薦)
.\llama-server.exe -m .\Qwen3.5-4B-Q8_0.gguf --port 8080 --chat_template_kwargs '{"enable_thinking":false}'
參數 說明
-m 模型 GGUF 檔案路徑
--port 伺服器連接埠(預設 8080)
--chat_template_kwargs 傳入額外參數,例如關閉思考功能以加速文字分類

3. 設定 LLM 參數 (llm-config.yaml)

打開 TUI 的 LLM 設定 或是編輯 config/llm-config.yaml

api_base: "http://localhost:8080/v1"
api_key: "any"
model: "Qwen3.5-4B-Q8_0.gguf"

參數說明: - api_base: llama.cpp server 的本機網址(結尾應包含 /v1,以相容 OpenAI 格式)。 - api_key: 對於未加驗證的本地端 llama.cpp 而言,輸入任意字串皆可。 - model: 依照你載入到 server 的對應模型名稱設定即可。

api_key 會使用 Windows DPAPI 加密儲存,請勿直接在 yaml 檔案中寫入 api_key,請使用 TUI 的 LLM 設定頁面進行設定。