MOSS

10 comments
Presentamos MOSS: un modelo de lenguaje de código abierto que admite chino e inglés con 16B de parámetros. Ejecútalo en una sola GPU para conversaciones fluidas y soporte de complementos.0
Visitar sitio web

What is MOSS?

MOSS es un modelo conversacional de lenguaje abierto compatible con los idiomas chino e inglés, así como varios complementos. El modelo de la serie moss-moon tiene 16 mil millones de parámetros y puede ejecutarse en una sola GPU A100/A800 o en dos GPU 3090 a precisión FP16. También puede ejecutarse en una sola GPU 3090 a precisión INT4/8. El modelo básico del lenguaje MOSS está preentrenado en aproximadamente 700 mil millones de palabras en chino-inglés y código. Se ajusta aún más con instrucciones de diálogo, aprendizaje por refuerzo de complementos y entrenamiento de preferencias humanas para poseer la capacidad de mantener conversaciones de múltiples turnos y la capacidad de usar varios complementos.

More information on MOSS

Launched
2023
Pricing Model
Free
Starting Price
Global Rank
Country
Month Visit
<5k
Tech used
MOSS was manually vetted by our editorial team and was first featured on September 4th 2024.
Aitoolnet Featured banner
Related Searches

MOSS Alternativas

Más Alternativas
  1. ChatGLM-6B es un modelo abierto CN&EN con 6.2B paras (optimizados para respuesta a preguntas y diálogos en chino por ahora).

  2. Mejora las capacidades de NLP con Baichuan-7B, un modelo innovador que destaca en el procesamiento del lenguaje y la generación de texto. Descubre sus capacidades bilingües, aplicaciones versátiles y rendimiento impresionante. Da forma al futuro de la comunicación hombre-computadora con Baichuan-7B.

  3. JetMoE-8B se entrenó con un costo de menos de $ 0,1 millones, pero supera a LLaMA2-7B de Meta AI, que cuenta con recursos de capacitación multimillonarios. La capacitación de LLM puede ser mucho más económica de lo que generalmente se cree.

  4. GLM-130B: un modelo preentrenado bilingüe abierto (ICLR 2023)

  5. MiniCPM es un LLM de fin lateral desarrollado por ModelBest Inc. y TsinghuaNLP, con solo 2.4B parámetros excluyendo incrustaciones (2.7B en total).