2025年最好的 Phi-3 Mini-128K-Instruct ONNX 替代方案
-

ONNX Runtime:随时随地,更快运行机器学习模型。加速跨平台推理与训练。支持 PyTorch、TensorFlow 等框架!
-

Phi-2 是一款针对机械可解释性、安全改进和微调实验等不同领域探索的理想模型,供研究人员使用。
-

-

MiniCPM3-4B 是 MiniCPM 系列的第三代模型。MiniCPM3-4B 的整体性能超越 Phi-3.5-mini-Instruct 和 GPT-3.5-Turbo-0125,与许多最近的 7B~9B 模型相当。
-

Gemma 3 270M:小巧轻便、极致高效的人工智能,专精于特定任务。可微调以实现精准指令遵循,并支持低成本的设备端部署。
-

-

NetMind:您的一站式AI平台。凭借丰富的多元模型、强劲的GPU算力以及经济高效的工具,助您轻松构建、弹性部署,并实现规模化扩展。
-

Nexa AI 助力在任何设备上轻松部署高性能、隐私保护的生成式AI。以无与伦比的速度、卓越的效率,同时确保设备本地隐私,助您加速构建。
-

MiniMax-M1:开放权重AI模型,具备百万级token上下文窗口及卓越的深度推理能力。高效处理海量数据,赋能各类先进AI应用。
-

-

从零开始构建人工智能模型!MiniMind 助您在单张 GPU 上经济高效地进行 LLM 训练。学习 PyTorch,打造您专属的 AI。
-

Nemotron-4 340B 是一个针对 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 优化的模型系列,包含最先进的指令和奖励模型,以及一个用于生成式 AI 训练的数据集。
-

探索LG AI Research推出的EXAONE 3.5。这是一套双语(英语和韩语)指令调优生成式模型,参数范围从24亿到320亿。支持长达32K标记的长上下文,在现实场景中表现卓越。
-

Neural Magic 提供高性能推理服务,专为开源大型语言模型 (LLM) 而设计。降低成本,增强安全性,轻松扩展。可在各种环境中的 CPU/GPU 上部署。
-

-

Reka Flash 3:低延迟、开源的 AI 推理模型,专为快速高效的应用程序而生。赋能聊天机器人、端侧 AI 及 Nexus。
-

使用 CLIKA ACE,将 AI 模型缩小 87%,速度提升 12 倍。 自动化压缩,实现更快、更经济的硬件部署。 保证精度不损失!
-

Mistral Small 3 (2501) 在70B参数以下的“小型”大型语言模型类别中树立了新的标杆,它拥有24B参数,并实现了与更大模型相当的、最先进的功能!
-

告别AI基础设施的困扰。Novita AI 凭借200多个模型、定制选项以及无服务器GPU云,简化了AI模型的部署与扩展。助您省时省钱。
-

KTransformers 是由清华大学 KVCache.AI 团队和 QuJing Tech 共同开发的开源项目,旨在优化大型语言模型的推理过程。它能够降低硬件门槛,在 24GB 显存的单 GPU 上运行 6710 亿参数的模型,并提升推理速度(预处理速度高达 286 tokens/s,生成速度高达 14 tokens/s),适用于个人、企业和学术用途。
-

-

-

-

-

MiniCPM 由 ModelBest Inc. 和清华自然语言处理实验室联合开发,是一款端侧 LLM,不含词嵌入仅有 2.4B 参数(总计 2.7B)。
-

由 AI21 推出的 Jamba 1.5 开放模型家族,基于 SSM-Transformer 架构,具备处理长文本的能力,速度和质量都非常高,是目前市场上同类产品中的佼佼者,适用于处理大型数据和长文本的企业级用户。
-

-

CogniSelect SDK:构建可在浏览器中私密运行 LLM 的 AI 应用。 享受零成本运行时、完全数据隐私和即时可扩展性。
-

Synexa AI是一个功能强大的AI平台,提供简洁易用的API接口,支持图像、视频和语音等多种AI功能。其目标是帮助开发者和企业快速集成AI能力,提升工作效率。
-

