Launched | 2023 |
Pricing Model | Free |
Starting Price | |
Tech used | Amazon AWS CloudFront,cdnjs,Google Fonts,KaTeX,Gzip,OpenGraph,RSS,Stripe |
Tag |
Launched | 2023 |
Pricing Model | Free |
Starting Price | |
Tech used | |
Tag |
Global Rank | 0 |
Country | |
Month Visit | 0 |
Global Rank | 0 |
Country | |
Month Visit | 0 |
GLM-130B - GLM-130B: 개방형 2개 국어 사전 학습 모델(ICLR 2023)
Eagle 7B - Eagle 7B: 100여개 이상의 언어로 1조개 토큰을 보유한 Transformer를 능가하는 급상승(RWKV-v5)
OpenBMB - OpenBMB: 100억 개가 넘는 파라미터를 가진 대규모 사전 훈련 언어 모델 센터와 툴을 구축하여 대형 모델의 훈련, 튜닝 및 추론을 가속화합니다. 오픈소스 커뮤니티에 참여하여 모두에게 대형 모델을 제공하세요.
GPT-NeoX-20B - GPT-NeoX-20B는 GPT-NeoX 라이브러리를 사용하여 Pile에서 훈련된 200억 개 파라미터 자동 회귀 언어 모델입니다.