XVERSE-MoE-A36B
EXAONE 3.5| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Content Creation,Story Writing,Text Generators |
| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Text Generators,Question Answering,Answer Generators |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | |
| Country | |
| Month Visit |
Estimated traffic data from Similarweb
Yuan2.0-M32 - Yuan2.0-M32 es un modelo de lenguaje de Mezcla de Expertos (MoE) con 32 expertos, de los cuales 2 están activos.
DeepSeek Chat - DeepSeek-V2: modelo MoE de 236 mil millones. Rendimiento líder. Muy asequible. Experiencia inigualable. Chat y API actualizados al modelo más reciente.
JetMoE-8B - JetMoE-8B se entrenó con un costo de menos de $ 0,1 millones, pero supera a LLaMA2-7B de Meta AI, que cuenta con recursos de capacitación multimillonarios. La capacitación de LLM puede ser mucho más económica de lo que generalmente se cree.
Yi-VL-34B - El modelo Yi Visual Language (Yi-VL) es la versión multimodal y de código abierto de la serie Yi Large Language Model (LLM), que permite la comprensión, el reconocimiento y las conversaciones multironda de contenido sobre imágenes.