Launched | 2023 |
Pricing Model | Free |
Starting Price | |
Tech used | Amazon AWS CloudFront,cdnjs,Google Fonts,KaTeX,Gzip,OpenGraph,RSS,Stripe |
Tag |
Launched | 2007-7 |
Pricing Model | Free |
Starting Price | |
Tech used | |
Tag |
Global Rank | 0 |
Country | |
Month Visit | 0 |
Global Rank | 0 |
Country | |
Month Visit | 2564 |
GLM-130B - GLM-130B: 개방형 2개 국어 사전 학습 모델(ICLR 2023)
ChatGLM-6B - ChatGLM-6B는 62억 개의 변수(현재는 중국어 질의 응답 및 대화에 최적화되어 있음)를 갖춘 개방형 CN&EN 모델입니다.
OpenBMB - OpenBMB: 100억 개가 넘는 파라미터를 가진 대규모 사전 훈련 언어 모델 센터와 툴을 구축하여 대형 모델의 훈련, 튜닝 및 추론을 가속화합니다. 오픈소스 커뮤니티에 참여하여 모두에게 대형 모델을 제공하세요.
GPT-NeoX-20B - GPT-NeoX-20B는 GPT-NeoX 라이브러리를 사용하여 Pile에서 훈련된 200억 개 파라미터 자동 회귀 언어 모델입니다.