XVERSE-MoE-A36B
DeepSeek Chat| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Content Creation,Story Writing,Text Generators |
| Launched | 2000-08 |
| Pricing Model | Free Trial |
| Starting Price | |
| Tech used | Next.js,Gzip,OpenGraph,Webpack,Nginx,Ubuntu |
| Tag | Language Learning |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | 135 |
| Country | China |
| Month Visit | 319266449 |
Estimated traffic data from Similarweb
Yuan2.0-M32 - Yuan2.0-M32는 32개의 전문가로 구성된 Mixture-of-Experts (MoE) 언어 모델로, 그 중 2개가 활성화되어 있습니다.
JetMoE-8B - JetMoE-8B는 0.1백만 달러 미만의 비용1으로 훈련되었지만 수십억 달러 규모의 훈련 리소스를 확보한 Meta AI의 LLaMA2-7B보다 성능이 더 우수합니다. 일반적으로 생각보다 LLM 훈련을 훨씬 더 저렴하게 할 수 있습니다.
EXAONE 3.5 - LG AI Research의 EXAONE 3.5를 발견하세요. 24억에서 320억 파라미터까지의 쌍어(영어 및 한국어) 명령어 튜닝 생성형 모델 세트입니다. 최대 32K 토큰의 장문 컨텍스트를 지원하며, 실제 시나리오에서 최고 수준의 성능을 발휘합니다.
Yi-VL-34B - Yi Visual Language(Yi-VL) 모델은 Yi Large Language Model(LLM) 시리즈의 오픈 소스, 멀티모달 버전으로, 이미지에 대한 이해, 인식, 여러 차례의 대화를 가능하게 합니다.