XVERSE-MoE-A36B
Yi-VL-34B| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Content Creation,Story Writing,Text Generators |
| Launched | 2024 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Entertainment |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | |
| Country | |
| Month Visit |
Estimated traffic data from Similarweb
Yuan2.0-M32 - Yuan2.0-M32 es un modelo de lenguaje de Mezcla de Expertos (MoE) con 32 expertos, de los cuales 2 están activos.
DeepSeek Chat - DeepSeek-V2: modelo MoE de 236 mil millones. Rendimiento líder. Muy asequible. Experiencia inigualable. Chat y API actualizados al modelo más reciente.
JetMoE-8B - JetMoE-8B se entrenó con un costo de menos de $ 0,1 millones, pero supera a LLaMA2-7B de Meta AI, que cuenta con recursos de capacitación multimillonarios. La capacitación de LLM puede ser mucho más económica de lo que generalmente se cree.
EXAONE 3.5 - Descubre EXAONE 3.5 de LG AI Research. Un conjunto de modelos generativos ajustados por instrucciones bilingües (inglés y coreano) con parámetros que van de 2.4 mil millones a 32 mil millones. Admite contextos largos de hasta 32 mil tokens, con un rendimiento de primer nivel en escenarios del mundo real.