MiniCPM-2B
MiniMind| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Language Learning |
| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Mlops,Developer Tools,Software Development |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | |
| Country | |
| Month Visit |
Estimated traffic data from Similarweb
MiniCPM-Llama3-V 2.5 - 총 80억 개의 매개변수를 갖춘 이 모델은 GPT-4V-1106, Gemini Pro, Qwen-VL-Max, Claude 3와 같은 독점 모델을 능가하는 전반적인 성능을 제공합니다.
MiniCPM3-4B - MiniCPM3-4B는 MiniCPM 시리즈의 3세대 모델입니다. MiniCPM3-4B는 Phi-3.5-mini-Instruct와 GPT-3.5-Turbo-0125를 능가하는 전반적인 성능을 보여주며, 최근 7B~9B 모델들과 비교 가능한 수준입니다.
SmolLM - SmolLM은 1억 3,500만, 3억 6,000만, 17억 개의 매개변수로 구성된 세 가지 크기로 제공되는 최첨단 소형 언어 모델 시리즈입니다.
OpenBMB - OpenBMB: 100억 개가 넘는 파라미터를 가진 대규모 사전 훈련 언어 모델 센터와 툴을 구축하여 대형 모델의 훈련, 튜닝 및 추론을 가속화합니다. 오픈소스 커뮤니티에 참여하여 모두에게 대형 모델을 제공하세요.