2025年最好的 Model2vec 替代方案
-

KTransformers 是由清華大學 KVCache.AI 團隊與 QuJing Tech 共同開發的開源專案,旨在優化大型語言模型的推論過程。它能降低硬體門檻,讓使用者僅需配備 24GB 顯示記憶體的單張 GPU,即可運行 6710 億參數的模型。此外,它還能大幅提升推論速度(預處理階段最高可達每秒 286 個 tokens,生成階段最高可達每秒 14 個 tokens),非常適合個人、企業以及學術機構使用。
-

-

-

DeepSeek-VL2 是由 DeepSeek-AI 開發的視覺語言模型,它能夠處理高解析度的圖像,並透過 MLA 提供快速的回應。DeepSeek-VL2 在各種視覺任務中表現出色,例如 VQA 和 OCR。對於研究人員、開發者和 BI 分析師來說,DeepSeek-VL2 是一個理想的選擇。
-

-

-

EmbeddingGemma:為著重隱私的 AI 應用程式,提供裝置端多語言文字嵌入。無論線上線下,皆能享有卓越的效能與效率。
-

VoltaML Advanced Stable Diffusion WebUI,易於使用且功能豐富的 WebUI,安裝簡便。由社群打造,服務社群。
-

JetMoE-8B 在不到 0.1 百萬美元1 的成本下進行訓練,但效能卻超越 Meta AI 的 LLaMA2-7B,而 Meta AI 擁有數十億美元的訓練資源。LLM 訓練可以比一般人想像中便宜許多。
-

MiniCPM 是由 ModelBest Inc. 和 TsinghuaNLP 開發的 End-Side LLM,不包含嵌入函數的參數只有 2.4B 個(總計 2.7B 個)。
-

RWKV 是一種具有 Transformer 層級 LLM 效能的 RNN。它能像 GPT 一樣直接接受訓練(可平行運算)。因此,它結合了 RNN 和 Transformer 的最佳優勢:效能佳、推論快、節省 VRAM、訓練快、「無窮」ctx_len,以及提供句子嵌入。
-

-

-

-

FastEmbed 是一個輕巧、快速,專為生成嵌入向量而打造的 Python 函式庫。我們支援多種熱門的文字模型。如果您希望我們新增其他模型,請在 Github 上開啟一個議題。
-

-
透過 Qwen3 Embedding,解鎖您強大的多語言文本理解能力。榮獲 MTEB 評測榜首,支援逾百種語言,其彈性模型廣泛適用於搜尋、檢索與人工智慧應用。
-

阿里雲 Qwen2.5-Turbo。100萬詞元上下文視窗。速度更快,價格更低。非常適合研究、開發和商業應用。可摘要論文、分析文件,並建構進階對話式 AI。
-

-

OLMo 2 32B:開源大型語言模型,足以媲美 GPT-3.5!免費提供程式碼、資料與權重,供您研究、客製化,並打造更智慧的 AI。
-

Gemma 3 270M:輕巧高效能的 AI,專為特定任務打造。可微調以實現精準指令遵循,並支援低成本的裝置端部署。
-

Transformer Lab:一個開源平台,讓您可在本地端建構、微調和執行大型語言模型 (LLM),無需編碼。下載數百個模型,跨硬體微調,聊天、評估等等。
-

-

使用 DeepSpeed 為您的 AI 計畫注入強大動力,這是由 Microsoft 推出的易於使用且強大的深度學習最佳化軟體套件。在訓練和推論中達成前所未有的規模、速度和效率。在此處瞭解更多關於 Microsoft 的 AI at Scale 計畫。
-

-

OpenBMB:建立大型預訓練語言模型中心與工具,以加速訓練、微調和推論超過 100 億參數的大型模型。加入我們的開放原始碼社群,讓每個人都能使用大型模型。
-

從零開始打造 AI 模型! MiniMind 提供快速且經濟實惠的 LLM 訓練,在單一 GPU 上即可完成。 學習 PyTorch 並創建您自己的 AI。
-

認識 Falcon 2: TII 發布全新 AI 模型系列,表現超越 Meta 的 Llama 3 Meet Falcon 2: TII Releases New AI Model Series, Outperforming Meta’s New Llama 3
-

XVERSE-MoE-A36B:由 XVERSE Technology Inc. 開發的多語言大型語言模型。
-

