2025年最好的 Carton 替代方案
-

ONNX Runtime:随时随地,更快运行机器学习模型。加速跨平台推理与训练。支持 PyTorch、TensorFlow 等框架!
-

Cortex 是一款与 OpenAI 兼容的 AI 引擎,开发者可以使用它来构建 LLM 应用。它配备了受 Docker 启发的命令行界面和客户端库。它可以作为独立服务器使用,也可以作为库导入。
-

使用 CLIKA ACE,将 AI 模型缩小 87%,速度提升 12 倍。 自动化压缩,实现更快、更经济的硬件部署。 保证精度不损失!
-

-

-

-

在 macOS 和 Windows 系统上使用 Jellybox 离线运行 AI 模型。它拥有易于重用的模板、可自定义的主题,并支持多种模型。自动检测 GPU 用于语言和图像生成。点击了解更多!
-

-

KTransformers 是由清华大学 KVCache.AI 团队和 QuJing Tech 共同开发的开源项目,旨在优化大型语言模型的推理过程。它能够降低硬件门槛,在 24GB 显存的单 GPU 上运行 6710 亿参数的模型,并提升推理速度(预处理速度高达 286 tokens/s,生成速度高达 14 tokens/s),适用于个人、企业和学术用途。
-

OpenCoder 是一款高性能的开源代码大型语言模型 (LLM)。支持英语和中文,提供完全可复现的流程。非常适合开发者、教育工作者和研究人员。
-

Transformer Lab:一个开源平台,无需编码即可在本地构建、微调和运行大型语言模型 (LLM)。下载数百个模型,跨硬件微调,聊天,评估等等。
-

-

-

-

-

WhiteLightning: 仅凭一个提示词,即可构建自定义文本分类器,无需任何数据!随时随地快速部署轻量级、生产就绪的AI模型。
-

-

通过Martian的Model Router释放AI的强大功能。通过开创性Model mapping技术,在AI应用中实现更高的绩效和更低的开销。
-

借助 Microsoft Cognitive Toolkit (CNTK) 助力您的深度学习。利用 CNTK 的自动微分和分布式功能,有效构建模型、优化参数并节省时间。将其用于图像识别、自然语言处理和机器翻译。
-

-

AITemplate 是一个 Python 框架,它可以将神经网络渲染成高性能 CUDA/HIP C++ 代码。专门针对 FP16 TensorCore(NVIDIA GPU)和 MatrixCore(AMD GPU)推断。
-

CogniSelect SDK:构建可在浏览器中私密运行 LLM 的 AI 应用。 享受零成本运行时、完全数据隐私和即时可扩展性。
-

LoRAX (LoRA eXchange) 是一款创新框架,它使用户能够在单一GPU上运行成千上万个微调模型,从而显著降低了模型部署成本,同时丝毫不影响吞吐量和延迟表现。
-

Neural Magic 提供高性能推理服务,专为开源大型语言模型 (LLM) 而设计。降低成本,增强安全性,轻松扩展。可在各种环境中的 CPU/GPU 上部署。
-

TalkCody: The open-source AI coding agent. Boost developer velocity with true privacy, model freedom & predictable costs.
-

-

一套用于计算机操作代理的开源基础设施。它包含了沙盒、SDKs 和基准,旨在训练和评估能够完全控制桌面(macOS、Linux、Windows)的 AI 代理。
-

LlamaEdge 项目让您能够轻松运行 LLM 推理应用程序,并在本地为 Llama2 系列的 LLM 创建与 OpenAI 兼容的 API 服务。
-

nCompass:简化LLM托管与加速。降低成本,享受无速率限制API,并支持灵活部署。响应速度更快,集成更轻松。非常适合初创企业、大型企业和科研机构。
-

