MOSS

10 comments
MOSS 소개: 16B 매개 변수를 갖춘 중국어 및 영어를 지원하는 오픈 소스 언어 모델입니다. 원활한 대화와 플러그인 지원을 위해 단일 GPU에서 실행하세요.0
웹사이트 방문하기

What is MOSS?

MOSS는 중국어와 영어 언어 및 다양한 플러그인을 지원하는 오픈 소스 대화 언어 모델입니다. moss-moon 시리즈 모델은 160억 개의 매개 변수를 가지고 있으며 단일 A100/A800 GPU 또는 FP16 정밀도에서 두 개의 3090 GPU에서 실행할 수 있습니다. INT4/8 정밀도에서는 단일 3090 GPU에서도 실행할 수 있습니다. MOSS 기본 언어 모델은 약 7000억 개의 중국어-영어 및 코드 단어로 사전 학습됩니다. 여러 차례 대화를 나눌 수 있는 능력과 다양한 플러그인을 사용할 수 있는 능력을 갖추기 위해 대화 지침, 플러그인 강화 학습 및 인간 선호도 학습으로 추가적으로 미세 조정되었습니다.

More information on MOSS

Launched
2023
Pricing Model
Free
Starting Price
Global Rank
Country
Month Visit
<5k
Tech used
MOSS was manually vetted by our editorial team and was first featured on September 4th 2024.
Aitoolnet Featured banner
Related Searches

MOSS 대체품

더보기 대체품
  1. ChatGLM-6B는 62억 개의 변수(현재는 중국어 질의 응답 및 대화에 최적화되어 있음)를 갖춘 개방형 CN&EN 모델입니다.

  2. Baichuan-7B로 자연어 처리(NLP) 기능을 강화하세요. Baichuan-7B는 언어 처리와 텍스트 생성에 탁월한 획기적인 모델입니다. 이 모델의 양국어 기능, 다양한 응용 분야, 뛰어난 성능을 확인해 보세요. Baichuan-7B로 인간과 컴퓨터 간 의사 소통의 미래를 형성하세요.

  3. JetMoE-8B는 0.1백만 달러 미만의 비용1으로 훈련되었지만 수십억 달러 규모의 훈련 리소스를 확보한 Meta AI의 LLaMA2-7B보다 성능이 더 우수합니다. 일반적으로 생각보다 LLM 훈련을 훨씬 더 저렴하게 할 수 있습니다.

  4. GLM-130B: 개방형 2개 국어 사전 학습 모델(ICLR 2023)

  5. MiniCPM은 ModelBest Inc.와 TsinghuaNLP에서 개발한 End-Side LLM으로, 임베딩을 제외하고 24억 개의 파라미터만 있고(총 27억 개)