JetMoE-8B
Molmo AI| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Text Generators,Answer Generators,Chatbot Builder |
| Launched | 2024-09 |
| Pricing Model | Free Trial |
| Starting Price | |
| Tech used | Cloudflare CDN,Next.js,Gzip,OpenGraph,Webpack,YouTube |
| Tag | Data Analysis,Data Science |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | 1382983 |
| Country | United States |
| Month Visit | 22012 |
Estimated traffic data from Similarweb
XVERSE-MoE-A36B - XVERSE-MoE-A36B: XVERSE Technology Inc.에서 개발한 다국어 대규모 언어 모델입니다.
Yuan2.0-M32 - Yuan2.0-M32는 32개의 전문가로 구성된 Mixture-of-Experts (MoE) 언어 모델로, 그 중 2개가 활성화되어 있습니다.
OpenBMB - OpenBMB: 100억 개가 넘는 파라미터를 가진 대규모 사전 훈련 언어 모델 센터와 툴을 구축하여 대형 모델의 훈련, 튜닝 및 추론을 가속화합니다. 오픈소스 커뮤니티에 참여하여 모두에게 대형 모델을 제공하세요.
Gemma 3 270M - Gemma 3 270M: 특화된 작업을 위한 소형 초고효율 AI. 정교한 지시 수행 및 저비용 온디바이스 배포를 위해 미세 조정 가능합니다.