What is CleverBee?
在浩瀚的在线信息海洋中,找到可靠的答案可能会让人感到不知所措。你可能会花费数小时筛选搜索结果,试图拼凑出一个连贯的理解,同时还要与潜在的错误信息或 AI“幻觉”作斗争。 CleverBee 应运而生,它提供了一种结构化、透明的 AI 驱动研究方法。
CleverBee 是一个基于 Python 的研究助理代理,作为一个开源项目而构建,供任何对复杂主题感到好奇的人使用。它利用多个大型语言模型 (LLM)、Web 自动化和一个清晰的界面来帮助你彻底探索问题。其目标不仅仅是获得答案,而是理解这些答案如何得出的,并清楚地引用回源材料。由于它是开源的,该工具受益于社区贡献,随着时间的推移变得越来越强大和通用。
主要功能:
🧠 专业的多 LLM 策略:CleverBee 将不同的任务分配给不同的 LLM,以获得最佳结果。它使用 Gemini 1.5 Pro 进行高层次的规划和最终报告的综合,使用 Gemini 1.5 Flash 用于分析研究进展并决定下一步,并使用另一个 Gemini 1.5 Flash 实例来有效地总结 Web 内容。这种分工旨在在每个阶段实现更高质量、更集中的输出。
🌐 自动化 Web 研究:利用 Playwright 根据你的研究主题主动浏览 Web。它搜索相关信息并从有希望的页面中提取原始 HTML 内容。
📊 智能内容处理:原始 HTML 会自动清理并转换为 Markdown 格式。然后,这种结构化文本由专用的 LLM 总结,使规划代理更容易理解并决定后续操作。
🖥️ 交互式用户界面:使用 Chainlit 构建的 Web UI 提供了一个清晰的窗口来了解研究过程。你可以观看 CleverBee 规划其方法、执行步骤,并实时查看它正在查阅哪些来源。
🔧 可扩展的工具集成:支持模型上下文协议 (MCP),允许集成外部工具以进行专门的数据收集,例如获取 YouTube 字幕或搜索学术数据库。
📈 透明的成本与性能:具有集成的 Token 跟踪功能,可监控 LLM 使用情况并估算成本。它还采用基于 SQLite 的缓存 (NormalizingCache) 来存储先前 LLM 调用的结果,从而可能加快后续类似查询的速度并减少冗余 API 费用。
⚙️ 可配置和可调整:根据
config.yaml文件中定义的设置运行,允许你定制其行为。它的模块化设计支持各种 LLM 提供商,包括 Google Gemini、Anthropic Claude,甚至本地 GGUF 模型(如 Llama、Mistral、Deepseek),这些模型通过llama-cpp-python运行,以增强隐私或离线使用。🌍 开源和社区驱动:可在 GitHub 上免费获得,你可以检查代码、提出改进建议或直接为其开发做出贡献。
CleverBee 如何处理研究:一个实际例子
想象一下,你向 CleverBee 提出了一个深刻的问题,例如:“人生的意义是什么?”
CleverBee 不会给出一个单一的、可能带有偏见的答案,而是启动一个结构化的研究计划:
规划:主要 LLM 概述了一个策略,确定了潜在的来源类型(哲学文本、科学文章、专家意见、社区讨论)。
执行:
它使用 Playwright 搜索和访问相关的哲学资源和信誉良好的网站。
它可能会使用 MCP 工具来查找和转录 YouTube 上相关的专家讲座。
它可以探索像 Reddit 这样的论坛,以获得不同的社区视角。
另一个 MCP 工具可能会搜索学术数据库,以查找相关的心理学或科学研究。
处理:从这些来源提取、清理和总结内容。
分析:“下一步”LLM 审查收集到的摘要,检查计划的进展情况,并确定是否需要更具体的搜索。
综合:最后,主要 LLM 编译这些发现,将来自各种来源的信息综合成一份平衡的报告。
报告:最终输出提供了一个简洁的摘要,承认了局限性,并且至关重要的是,包括了所有查阅来源的引文,允许你亲自验证信息。界面显示 Token 使用指标,以提高透明度。
重要注意事项
CleverBee 是一种旨在辅助研究的工具,而不是取代批判性思维或深厚的领域专业知识。虽然其构建旨在将其发现建立在事实来源的基础上并最大限度地减少偏见,但 AI 模型(即使有明确的说明)仍然可能生成不正确的信息(幻觉)。始终审查提供的来源并交叉引用发现,尤其是在做出关键决策时。





