What is MOSS?
MOSS 是一个开源对话语言模型,支持中英文和各种各样的外挂件。moss-moon 系列模型拥有 160 亿参数,可以在 FP16 精度下于单个 A100/A800 GPU 或两张 3090 GPU 上运行。它也可以在 INT4/8 精度下于单个 3090 GPU 上运行。MOSS 基础语言模型在约 7000 亿中文-英文及代码词上进行预训练。并通过对话指导、外挂件强化学习、人类偏好训练进一步微调,具备多轮对话能力和调用各种外挂件能力。
More information on MOSS
Launched
2023
Pricing Model
Free
Starting Price
Global Rank
Country
Month Visit
<5k
Tech used
Related Searches
MOSS 替代方案
更多 替代方案-
借助白川 7B——一款在语言处理和文本生成方面表现优异的开创性模型,提升您的 NLP 能力。探索其双语能力、多种应用以及令人印象深刻的性能。利用白川 7B 构建人机交流的未来。
-
JetMoE-8B 的训练成本不足 0.1 百万美元1,但其性能却超过了拥有数十亿美元训练资源的 Meta AI 推出的 LLaMA2-7B。这表明 LLM 的训练成本可能远低于人们的普遍预期。
-
MiniCPM 由 ModelBest Inc. 和清华自然语言处理实验室联合开发,是一款端侧 LLM,不含词嵌入仅有 2.4B 参数(总计 2.7B)。