2025年最好的 Model2vec 替代方案
-

KTransformers 是由清华大学 KVCache.AI 团队和 QuJing Tech 共同开发的开源项目,旨在优化大型语言模型的推理过程。它能够降低硬件门槛,在 24GB 显存的单 GPU 上运行 6710 亿参数的模型,并提升推理速度(预处理速度高达 286 tokens/s,生成速度高达 14 tokens/s),适用于个人、企业和学术用途。
-

-

-

DeepSeek-VL2,是由 DeepSeek-AI 开发的视觉-语言模型,能够处理高分辨率图像,并借助 MLA 技术提供快速响应,在视觉问答 (VQA) 和光学字符识别 (OCR) 等多种视觉任务中表现出色。它是研究人员、开发者和商业智能 (BI) 分析师的理想之选。
-

-

-

EmbeddingGemma:专为隐私优先的AI应用打造的设备端多语言文本嵌入技术。即使离线,亦能提供顶尖的性能与效率。
-

-

JetMoE-8B 的训练成本不足 0.1 百万美元1,但其性能却超过了拥有数十亿美元训练资源的 Meta AI 推出的 LLaMA2-7B。这表明 LLM 的训练成本可能远低于人们的普遍预期。
-

MiniCPM 由 ModelBest Inc. 和清华自然语言处理实验室联合开发,是一款端侧 LLM,不含词嵌入仅有 2.4B 参数(总计 2.7B)。
-

RWKV 是一种 RNN,拥有与 Transformer 级别 LLM 相当的性能。它可以像 GPT 一样直接进行训练(可并行化)。因此,它结合了 RNN 和 Transformer 的优点——出色的性能、快速的推理、节省 VRAM、快速的训练、"无限"的 ctx_len 以及免费的句子嵌入。
-

通过Martian的Model Router释放AI的强大功能。通过开创性Model mapping技术,在AI应用中实现更高的绩效和更低的开销。
-

-

-

FastEmbed 是一款轻量、高速的 Python 库,专注于高性能地生成文本嵌入。我们已支持众多主流文本模型。如果您有新的模型需求,欢迎随时在 Github 上提交 issue,我们将积极评估并考虑加入。
-

-
Qwen3 Embedding 助您解锁强大的多语言文本理解能力。它荣膺 MTEB 榜单之首,支持百余种语言,并提供灵活的模型,赋能搜索、检索及 AI 等广泛应用。
-

阿里云Qwen2.5-Turbo。100万token上下文窗口。速度更快,价格更低。非常适合研究、开发和商业应用。可用于论文摘要、文档分析以及构建高级对话式AI。
-

-

OLMo 2 32B:开源大型语言模型,媲美 GPT-3.5!免费提供代码、数据和权重。助力研究、定制并构建更智能的 AI。
-

Gemma 3 270M:小巧轻便、极致高效的人工智能,专精于特定任务。可微调以实现精准指令遵循,并支持低成本的设备端部署。
-

Transformer Lab:一个开源平台,无需编码即可在本地构建、微调和运行大型语言模型 (LLM)。下载数百个模型,跨硬件微调,聊天,评估等等。
-

-

利用 DeepSpeed 提升您的 AI 项目 - 由 Microsoft 提供的易用且强大的深度学习优化软件套件。在训练和推理中实现前所未有的规模、速度和效率。在此处了解有关 Microsoft 的 AI at Scale 计划的更多信息。
-

-

OpenBMB:构建一个大规模预训练语言模型中心,以及用于加速使用超过 100 亿个参数的大模型的训练、调整和推理的工具。加入我们的开源社区,让每个人都能用上大模型。
-

从零开始构建人工智能模型!MiniMind 助您在单张 GPU 上经济高效地进行 LLM 训练。学习 PyTorch,打造您专属的 AI。
-

揭秘 Falcon 2:TII 发布全新 AI 模型系列,超越 Meta 新 Llama 3 Meet Falcon 2: TII Releases New AI Model Series, Outperforming Meta’s New Llama 3
-

XVERSE-MoE-A36B: 由 XVERSE Technology Inc. 开发的多语言大型语言模型。
-

