2025年最好的 Yi-VL-34B 替代方案
-

-

C4AI Aya Vision 8B:開源多語言視覺 AI,用於圖像理解。支援 23 種語言的 OCR、圖像描述和推理。
-

-

-

GLM-4.5V:賦予您的 AI 卓越視覺能力。可從螢幕截圖生成網頁程式碼、自動化圖形使用者介面,並能運用深度推理,精準分析文件與影片。
-

-

CogVLM 和 CogAgent 是一款功能強大的開源視覺語言模型,擅長於影像理解和多回合對話。
-

-

DeepSeek-VL2 是由 DeepSeek-AI 開發的視覺語言模型,它能夠處理高解析度的圖像,並透過 MLA 提供快速的回應。DeepSeek-VL2 在各種視覺任務中表現出色,例如 VQA 和 OCR。對於研究人員、開發者和 BI 分析師來說,DeepSeek-VL2 是一個理想的選擇。
-

解鎖 YaLM 100B 的強大力量,一個類似 GPT 的神經網絡,擁有 1000 億個參數,可以生成和處理文字。全球開發者和研究人員免費使用。
-

-

BAGEL:字節跳動-Seed 開源的多模態人工智慧模型。能理解、生成、編輯圖像和文字。功能強大、靈活,堪比 GPT-4o。可用於構建先進的人工智慧應用程式。
-

擁有 80 億個參數,該模型在整體效能上超越了 GPT-4V-1106、Gemini Pro、Qwen-VL-Max 和 Claude 3 等專有模型。
-

Mini-Gemini 支援一系列 2B 到 34B 的 LLMs(大型語言模型),同時具有影像理解、推理和生成功能。我們基於 LLaVA 建立此儲存庫。
-

-

XVERSE-MoE-A36B:由 XVERSE Technology Inc. 開發的多語言大型語言模型。
-

-

Janus: 解耦視覺編碼以實現統一的多模態理解和生成 Janus: Decoupling Visual Encoding for Unified Multimodal Understanding and Generation
-

-

Qwen2.5 系列語言模型提供增強的功能,包括更大的資料集、更豐富的知識、更強的編碼和數學技能,以及更符合人類偏好的對齊。 它是開源的,可透過 API 取得。
-

探索LG AI Research的EXAONE 3.5。這是一套雙語(英語和韓語)指令微調生成式模型,參數規模從24億到320億不等。支援長達32K個詞元的長上下文處理,在真實場景中表現卓越。
-

PolyLM 是一款革命性的多語言大型語言模型 (LLM),支援 18 種語言,在各種任務中表現卓越,且為開源項目。非常適合開發者、研究人員和企業滿足多語言需求。
-

-

Voyager 是專業的管道,可增強 AI 藝術生成。Voyager 使用比 SDXL 等標準模型多約 6 倍的資源,可產生獨特且更高級的輸出。
-

-

RWKV 是一種具有 Transformer 層級 LLM 效能的 RNN。它能像 GPT 一樣直接接受訓練(可平行運算)。因此,它結合了 RNN 和 Transformer 的最佳優勢:效能佳、推論快、節省 VRAM、訓練快、「無窮」ctx_len,以及提供句子嵌入。
-

-

-

-

MetaVoice-1B 係一款 1.2B 參數基礎模型,經由 100K 小時語音訓練,用於 TTS(文字轉語音)。
