MOSS
XVERSE-MoE-A36B| Launched | 2023 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Chatbot Character,Question Answering,Text Generators |
| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Content Creation,Story Writing,Text Generators |
| Global Rank | 0 |
| Country | |
| Month Visit | 0 |
| Global Rank | |
| Country | |
| Month Visit |
Estimated traffic data from Similarweb
JetMoE-8B - JetMoE-8B는 0.1백만 달러 미만의 비용1으로 훈련되었지만 수십억 달러 규모의 훈련 리소스를 확보한 Meta AI의 LLaMA2-7B보다 성능이 더 우수합니다. 일반적으로 생각보다 LLM 훈련을 훨씬 더 저렴하게 할 수 있습니다.
Moonshine - Moonshine 음성 인식 모델. 빠르고 정확하며 리소스 효율적입니다. 기기 내 처리에 이상적입니다. Whisper보다 뛰어납니다. 실시간 음성 기록 및 음성 명령을 위해. 다양한 애플리케이션을 강화합니다.
Yuan2.0-M32 - Yuan2.0-M32는 32개의 전문가로 구성된 Mixture-of-Experts (MoE) 언어 모델로, 그 중 2개가 활성화되어 있습니다.
Molmo AI - Molmo AI는 AI2에서 개발한 오픈소스 멀티모달 인공지능 모델입니다. 텍스트와 이미지를 포함한 다양한 유형의 데이터를 처리하고 생성할 수 있습니다.