Launched | 2023 |
Pricing Model | Free |
Starting Price | |
Tech used | Amazon AWS CloudFront,cdnjs,Google Fonts,KaTeX,Gzip,OpenGraph,RSS,Stripe |
Tag |
Launched | |
Pricing Model | Free |
Starting Price | |
Tech used | |
Tag |
Global Rank | 0 |
Country | |
Month Visit | 0 |
Global Rank | |
Country | |
Month Visit |
ChatGLM-6B - ChatGLM-6B는 62억 개의 변수(현재는 중국어 질의 응답 및 대화에 최적화되어 있음)를 갖춘 개방형 CN&EN 모델입니다.
Eagle 7B - Eagle 7B: 100여개 이상의 언어로 1조개 토큰을 보유한 Transformer를 능가하는 급상승(RWKV-v5)
OpenBMB - OpenBMB: 100억 개가 넘는 파라미터를 가진 대규모 사전 훈련 언어 모델 센터와 툴을 구축하여 대형 모델의 훈련, 튜닝 및 추론을 가속화합니다. 오픈소스 커뮤니티에 참여하여 모두에게 대형 모델을 제공하세요.
GPT-NeoX-20B - GPT-NeoX-20B는 GPT-NeoX 라이브러리를 사용하여 Pile에서 훈련된 200억 개 파라미터 자동 회귀 언어 모델입니다.