What is Oterm?
直接在命令列中與您本機的 Ollama AI 模型互動,完全無需離開命令列。如果您經常在終端機工作並使用 Ollama,oterm 提供了一個精簡且功能豐富的介面,旨在增強您的工作流程。忘掉需要不斷切換的網頁 UI 或陽春的命令提示字元吧;oterm 將精密的 AI 互動直接帶入您熟悉的終端機環境。
它簡化了管理多個模型、自訂模型行為以及追蹤對話的過程,所有操作都透過直觀的文字使用者介面 (TUI) 實現。
主要功能
⌨️ 直接終端機 UI: 在您的終端機內立即啟動 Ollama 模型並與之互動。無需管理單獨的伺服器或前端 – 只需輸入
oterm即可。💻 跨平台相容性: 在 Linux、macOS 和 Windows 上無縫運行 oterm,支援大多數標準終端機模擬器。
💾 持久聊天會話: 維護多個獨立的聊天會話。您的對話歷史記錄、系統提示和每個會話的參數設定都會以 SQLite 資料庫的形式儲存在本機,方便日後調用。
🤖 靈活的模型使用: 選擇並切換您 Ollama 實例中可用的任何模型,包括您自己建構的客製化模型。
⚙️ 深度自訂: 直接在介面中輕鬆修改系統提示並調整模型參數(例如溫度或 top-k),以針對特定任務微調 AI 回應。
🔌 模型上下文協定 (MCP) 支援: 使用 MCP 整合外部工具和資料來源。將 oterm 連接到客製化伺服器(透過 SSE 或 WebSocket)以向模型提供即時、特定上下文的資訊(例如,存取本機檔案、資料庫或 API)。
🖼️ 終端機圖像顯示: 直接從終端機在提示中包含圖像,並在相容的模擬器中支援 Sixel 圖像渲染。
✨ 可自訂外觀: 使用多個內建主題個性化介面的外觀。
🛠️ 內建除錯: 存取應用程式內日誌檢視器,以幫助排除問題或更深入地了解模型互動。
🚀 自訂指令: 在 oterm 中定義您自己的可重複使用的指令。每個指令都可以啟動一個預先設定的聊天會話,其中包含用於重複性任務的特定模型、提示和連接的工具。
使用案例
了解 oterm 如何融入實際工作流程:
程式碼生成與協助: 作為開發人員,您正在終端機編輯器中處理腳本。您需要快速的程式碼片段或說明。您無需切換視窗,而是開啟一個新的終端機選項卡,啟動
oterm,選擇您偏好的程式碼模型(如 CodeLlama),然後提出您的問題。您會直接在終端機中得到答案,複製它,並在幾乎不受干擾的情況下繼續編碼。您可以使用針對 Python 開發優化的特定系統提示來儲存此會話。實驗提示: 您正在探索使用 Ollama 提取的新多模式模型的功能。使用 oterm,您啟動多個聊天會話。在一個會話中,您使用 Sixel 支援透過圖像測試其描述能力。在另一個會話中,您調整系統提示和溫度參數,以了解它如何影響創意寫作輸出。每個會話都會被儲存,讓您可以輕鬆地在稍後比較結果。
上下文感知資訊檢索: 您需要從公司內部的知識庫或特定的 Git 儲存庫中查詢資訊。您設定一個簡單的 MCP 伺服器來存取這些資料。在 oterm 中,您連接到這個工具。現在,您可以詢問 AI 模型問題,例如「總結專案 X 的 'main' 分支中的最新變更」或「Q3 策略文件的重點是什麼?」,模型會在生成回應之前透過 MCP 工具檢索相關上下文。
結論
oterm 提供了一種專注且有效的方式,可以直接在您的終端機中與 Ollama AI 模型互動。它結合了命令列的直接性與持久會話、深度自訂、透過 MCP 進行工具整合以及圖像支援等功能。如果您重視控制、效率,並且喜歡停留在您的終端機環境中,那麼 oterm 提供了一個強大且使用者友好的客戶端,用於利用您的本機 AI 模型。





