2025年最好的 Phi-3 Mini-128K-Instruct ONNX 替代方案
-

ONNX Runtime:隨處皆能,加速執行 ML 模型。加速跨平台推論與訓練。支援 PyTorch、TensorFlow 等框架!
-

-

-

MiniCPM3-4B 是 MiniCPM 系列的第三代。MiniCPM3-4B 的整體效能超越了 Phi-3.5-mini-Instruct 和 GPT-3.5-Turbo-0125,與許多近期 7B~9B 模型相當。
-

Gemma 3 270M:輕巧高效能的 AI,專為特定任務打造。可微調以實現精準指令遵循,並支援低成本的裝置端部署。
-

-

NetMind:您的一站式 AI 平台。運用多元模型、高效能 GPU 與高性價比工具,助您輕鬆建構、部署與規模化您的 AI 專案。
-

Nexa AI 讓高效能且私密的生成式 AI 部署於各種裝置變得輕鬆簡單。憑藉無與倫比的速度、卓越的效率與裝置端隱私,助您加速建構。
-

MiniMax-M1:一款開放權重AI模型,擁有百萬token的超長上下文視窗,並具備卓越的深度推理能力。能高效處理海量資料,為各種先進AI應用提供強大支援。
-

-

從零開始打造 AI 模型! MiniMind 提供快速且經濟實惠的 LLM 訓練,在單一 GPU 上即可完成。 學習 PyTorch 並創建您自己的 AI。
-

Nemotron-4 340B,是一系列針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優化的模型,包含最先進的指令和獎勵模型,以及用於生成式 AI 訓練的數據集。
-

探索LG AI Research的EXAONE 3.5。這是一套雙語(英語和韓語)指令微調生成式模型,參數規模從24億到320億不等。支援長達32K個詞元的長上下文處理,在真實場景中表現卓越。
-

Neural Magic 提供高性能推論服務,適用於開源大型語言模型 (LLM)。降低成本、增強安全性,並輕鬆擴展規模。可在各種環境中的 CPU/GPU 上部署。
-

-

Reka Flash 3:低延遲、開源 AI 推論模型,適用於快速、高效能的應用程式。為聊天機器人、裝置端 AI 及 Nexus 提供強大動力。
-

使用 CLIKA ACE 將 AI 模型縮小 87%,速度提升 12 倍。自動化壓縮流程,加速且降低硬體部署成本。同時確保精準度不受影響!
-

Mistral Small 3 (2501) 在 70B 以下的「小型」大型語言模型中樹立了新的標竿,它擁有 24B 個參數,並達到了可與更大模型相媲美的最先進能力!
-

告別 AI 基礎設施的繁瑣挑戰。Novita AI 助您輕鬆部署及擴展 AI 模型,提供逾 200 種模型、客製化選項,並採用無伺服器 GPU 雲端運算。為您節省寶貴的時間與金錢。
-

KTransformers 是由清華大學 KVCache.AI 團隊與 QuJing Tech 共同開發的開源專案,旨在優化大型語言模型的推論過程。它能降低硬體門檻,讓使用者僅需配備 24GB 顯示記憶體的單張 GPU,即可運行 6710 億參數的模型。此外,它還能大幅提升推論速度(預處理階段最高可達每秒 286 個 tokens,生成階段最高可達每秒 14 個 tokens),非常適合個人、企業以及學術機構使用。
-

-

-

-

-

MiniCPM 是由 ModelBest Inc. 和 TsinghuaNLP 開發的 End-Side LLM,不包含嵌入函數的參數只有 2.4B 個(總計 2.7B 個)。
-

由 AI21 推出的 Jamba 1.5 開放模型家族,基於 SSM-Transformer 架構,擁有長文本處理能力,速度快、品質高,在市面上同類產品中表現最佳,適合處理大量數據和長文本的企業級用戶。
-

-

CogniSelect SDK:打造可在瀏覽器中私下執行 LLM 的 AI 應用程式。享有零成本執行期、完全的資料隱私權及即時擴充性。
-

Synexa AI 是一個強大的 AI 平台,提供簡潔易用的 API 介面,並支援多種 AI 功能,例如影像、影片和語音的生成。其目標是協助開發者和企業快速整合 AI 能力,提升工作效率。
-

