MOSS

10 comments
Présentation de MOSS : un modèle linguistique open source prenant en charge le chinois et l'anglais avec 16 milliards de paramètres. Exécutez-le sur un seul GPU pour des conversations fluides et une prise en charge des extensions.0
Visiter le site web

What is MOSS?

MOSS est un modèle linguistique conversationnel open-source qui prend en charge les langues chinoise et anglaise ainsi que divers plugins. Le modèle de la série moss-moon possède 16 milliards de paramètres et peut fonctionner sur un seul GPU A100/A800 ou deux GPU 3090 en précision FP16. Il peut également fonctionner sur un seul GPU 3090 en précision INT4/8. Le modèle de langage de base MOSS est pré-entraîné sur environ 700 milliards de mots de codes et de langues chinoises et anglaises. Il est ensuite affiné avec des instructions de dialogue, un apprentissage par renforcement des plugins et un entraînement aux préférences humaines pour posséder la capacité de conversations multi-tours et la capacité d'utiliser divers plugins.

More information on MOSS

Launched
2023
Pricing Model
Free
Starting Price
Global Rank
Country
Month Visit
<5k
Tech used
MOSS was manually vetted by our editorial team and was first featured on September 4th 2024.
Aitoolnet Featured banner
Related Searches

MOSS Alternatives

Plus Alternatives
  1. ChatGLM-6B est un modèle ouvert de CN&EN avec 6,2B de paramètres (optimisé pour le contrôle de la qualité chinois et le dialogue pour le moment).

  2. Développez vos capacités de PNL avec Baichuan-7B, un modèle révolutionnaire qui excelle dans le traitement du langage et la génération de texte. Découvrez ses capacités bilingues, ses applications polyvalentes et ses performances impressionnantes. Façonnez l'avenir de la communication homme-machine avec Baichuan-7B.

  3. JetMoE-8B a été formé avec un coût inférieur à 0,1 million de dollars, mais surpasse LLaMA2-7B de Meta AI, qui dispose de ressources de formation de plusieurs milliards de dollars. La formation de LLM peut être beaucoup moins chère que ce que l'on pensait généralement.

  4. GLM-130B : un modèle pré-entraîné bilingue ouvert (ICLR 2023)

  5. MiniCPM est un LLM de fin de séquence développé par ModelBest Inc. et TsinghuaNLP, avec seulement 2,4 milliards de paramètres hors embeddings (2,7 milliards au total).