What is Oterm?
无需离开命令行,即可直接与本地 Ollama AI 模型交互。如果您经常在终端工作并使用 Ollama,那么 oterm 提供了一个精简且功能丰富的界面,旨在增强您的工作流程。告别需要来回切换的 Web UI 或基本的命令提示符;oterm 将复杂的 AI 交互直接引入您熟悉的终端环境中。
通过直观的基于文本的用户界面 (TUI),它可以简化管理多个模型、自定义其行为以及跟踪您的对话的过程。
主要特性
⌨️ 直接终端 UI: 在您的终端中立即启动 Ollama 模型并与之交互。无需管理单独的服务器或前端——只需键入
oterm即可。💻 跨平台兼容性: 在 Linux、macOS 和 Windows 上无缝运行 oterm,支持大多数标准终端模拟器。
💾 持久聊天会话: 维护多个不同的聊天会话。您的对话历史记录、系统提示以及每个会话的参数设置都保存在本地 SQLite 数据库中,以便轻松回忆。
🤖 灵活的模型使用: 在 Ollama 实例中提供的任何模型之间进行选择和切换,包括您自己定制的模型。
⚙️ 深度自定义: 直接在界面中轻松修改系统提示并调整模型参数(如 temperature 或 top-k),以针对特定任务微调 AI 响应。
🔌 模型上下文协议 (MCP) 支持: 使用 MCP 集成外部工具和数据源。将 oterm 连接到自定义服务器(通过 SSE 或 WebSocket),以便向模型提供实时的、特定于上下文的信息(例如,访问本地文件、数据库或 API)。
🖼️ 终端图像显示: 直接从终端将图像包含在您的提示中,并在兼容的模拟器中支持 Sixel 图形渲染。
✨ 可自定义的外观: 使用多个内置主题个性化界面的外观和风格。
🛠️ 内置调试: 访问应用内日志查看器,以帮助排除问题或更深入地了解模型交互。
🚀 自定义命令: 在 oterm 中定义您自己的可重用命令。每个命令都可以启动一个预配置的聊天会话,其中包含用于重复任务的特定模型、提示和连接的工具。
使用场景
了解 oterm 如何融入实际工作流程:
代码生成与辅助: 作为一名开发人员,您正在终端编辑器中处理一个脚本。您需要一个快速的代码片段或解释。您无需切换窗口,而是打开一个新的终端选项卡,启动
oterm,选择您喜欢的编码模型(如 CodeLlama),然后提出您的问题。您直接在终端中获得答案,复制它,并继续编码,最大限度地减少中断。您使用针对 Python 开发优化的特定系统提示保存此会话。提示语实验: 您正在探索使用 Ollama 拉取的新多模态模型的功能。使用 oterm,您启动多个聊天会话。在一个会话中,您使用 Sixel 支持测试其对图像的描述能力。在另一个会话中,您调整系统提示和 temperature 参数,以查看它如何影响创意写作输出。每个会话都会被保存,以便您以后轻松比较结果。
上下文感知信息检索: 您需要从公司内部知识库或特定的 Git 存储库中查询信息。您设置了一个简单的 MCP 服务器来访问此数据。在 oterm 中,您连接到此工具。现在,您可以向 AI 模型询问诸如“总结项目 X 的‘main’分支中的最新更改”或“Q3 战略文档中的关键点是什么?”之类的问题,并且该模型会在生成其响应之前通过 MCP 工具检索相关上下文。
结论
oterm 提供了一种专注且高效的方式,可以直接在您的终端中与 Ollama AI 模型交互。它结合了命令行的直接性以及持久会话、深度自定义、通过 MCP 进行的工具集成和图像支持等功能。如果您重视控制、效率并且更喜欢留在您的终端环境中,那么 oterm 提供了一个强大且用户友好的客户端,用于利用您的本地 AI 模型。





