Las mejores Phi-3 Mini-128K-Instruct ONNX alternativas en 2025
-

ONNX Runtime: Ejecuta modelos de ML más rápido, en cualquier lugar. Acelera la inferencia y el entrenamiento en diversas plataformas. ¡Compatible con PyTorch, TensorFlow y muchos más!
-

Phi-2 es un modelo ideal para que los investigadores exploren diferentes áreas como interpretabilidad mecanicista, mejoras de seguridad y experimentos de ajuste fino.
-

Explore Local AI Playground, una aplicación gratuita para la experimentación con IA sin conexión. Sus características incluyen inferencia en CPU, gestión de modelos y mucho más.
-

MiniCPM3-4B es la tercera generación de la serie MiniCPM. El rendimiento general de MiniCPM3-4B supera a Phi-3.5-mini-Instruct y GPT-3.5-Turbo-0125, siendo comparable con muchos modelos recientes de 7B~9B.
-

Gemma 3 270M: IA compacta e hiper-eficiente para tareas especializadas. Afínela para un seguimiento preciso de instrucciones y una implementación de bajo costo directamente en el dispositivo.
-

Desarrolle aplicaciones de IA de alto rendimiento directamente en el dispositivo, sin la complicación de la compresión de modelos ni la implementación en el borde.
-

NetMind: Su plataforma de IA unificada. Construye, despliega y escala con modelos diversos, potentes GPUs y herramientas rentables.
-

Nexa AI facilita el despliegue de inteligencia artificial generativa privada y de alto rendimiento en cualquier dispositivo. Desarrolle más rápido con una velocidad, eficiencia y privacidad en el dispositivo inigualables.
-

MiniMax-M1: Modelo de IA de pesos abiertos, con un contexto de 1 millón de tokens y una profunda capacidad de razonamiento. Procesa eficientemente grandes volúmenes de datos para aplicaciones avanzadas de inteligencia artificial.
-

ggml es una biblioteca tensor para el aprendizaje automático que permite crear modelos grandes y de alto rendimiento en hardware básico.
-

¡Crea modelos de IA desde cero! MiniMind ofrece un entrenamiento rápido y asequible de LLM en una sola GPU. Aprende PyTorch y crea tu propia IA.
-

Nemotron-4 340B, una familia de modelos optimizados para NVIDIA NeMo y NVIDIA TensorRT-LLM, incluye modelos de instrucción y recompensa de vanguardia, y un conjunto de datos para entrenamiento de IA generativa.
-

Descubre EXAONE 3.5 de LG AI Research. Un conjunto de modelos generativos ajustados por instrucciones bilingües (inglés y coreano) con parámetros que van de 2.4 mil millones a 32 mil millones. Admite contextos largos de hasta 32 mil tokens, con un rendimiento de primer nivel en escenarios del mundo real.
-

Neural Magic ofrece servicio de inferencia de alto rendimiento para LLMs de código abierto. Reduzca costes, mejore la seguridad y escale con facilidad. Implemente en CPUs/GPUs en diversos entornos.
-

Gemma 3n lleva una potente IA multimodal al edge. Permite ejecutar IA para imágenes, audio, video y texto en dispositivos con memoria limitada.
-

Reka Flash 3: Modelo de razonamiento de IA de código abierto y baja latencia para aplicaciones rápidas y eficientes. Impulsa chatbots, IA en el dispositivo y Nexus.
-

Reduce los modelos de IA en un 87% y aumenta la velocidad 12 veces con CLIKA ACE. Automatice la compresión para una implementación de hardware más rápida y económica. ¡Conserve la precisión!
-

Mistral Small 3 (2501) establece un nuevo estándar en la categoría de Modelos de Lenguaje Extensos "pequeños" por debajo de 70B, ostentando 24B parámetros y alcanzando capacidades de vanguardia comparables a modelos más grandes.
-

Deja de luchar con la infraestructura de IA. Novita AI simplifica el despliegue y escalado de modelos de IA con más de 200 modelos, opciones personalizadas y una nube de GPU sin servidor. Ahorra tiempo y dinero.
-

KTransformers, un proyecto de código abierto del equipo KVCache.AI de Tsinghua y QuJing Tech, optimiza la inferencia de modelos de lenguaje grandes. Reduce los umbrales de hardware, ejecuta modelos de 671B parámetros en GPUs individuales de 24GB de VRAM, aumenta la velocidad de inferencia (hasta 286 tokens/s en pre-procesamiento, 14 tokens/s en generación) y es adecuado para uso personal, empresarial y académico.
-

Neuton Tiny ML: haga que los dispositivos Edge sean inteligentes. Cree automáticamente modelos extremadamente pequeños sin codificación e incrústelos en cualquier microcontrolador.
-

Amazon Nova es un conjunto de modelos base de última generación para aplicaciones de IA, que ofrece capacidades tanto de comprensión como de generación de contenido creativo.
-

Modular es una plataforma de IA diseñada para mejorar cualquier canal de IA, que ofrece una pila de software de IA para una eficiencia óptima en diversos hardware.
-

Acceda a modelos de IA optimizados y validados por Qualcomm
-

MiniCPM es un LLM de fin lateral desarrollado por ModelBest Inc. y TsinghuaNLP, con solo 2.4B parámetros excluyendo incrustaciones (2.7B en total).
-

Jamba 1.5 Open Model Family, lanzado por AI21, basado en la arquitectura SSM-Transformer, con capacidad de procesamiento de texto largo, alta velocidad y calidad, es el mejor entre productos similares en el mercado y adecuado para usuarios de nivel empresarial que trabajan con grandes datos y textos largos.
-

Gemma 3: la IA de código abierto de Google para aplicaciones potentes y multimodales. Cree soluciones multilingües fácilmente con modelos flexibles y seguros.
-

CogniSelect SDK: Desarrolla aplicaciones de IA que ejecutan LLM de forma privada en el navegador. Obtén un tiempo de ejecución sin coste, privacidad total de los datos y escalabilidad instantánea.
-

Synexa AI es una potente plataforma de IA que ofrece una interfaz API sencilla e intuitiva, y admite múltiples funciones de IA como la generación de imágenes, vídeos y voces. Su objetivo es ayudar a desarrolladores y empresas a integrar rápidamente capacidades de IA y mejorar la eficiencia del trabajo.
-

Ray es el motor de cómputo para IA. Impulsa las principales plataformas de IA del mundo, admite todas las cargas de trabajo de IA/ML, escala desde un portátil hasta miles de GPU y es nativo de Python. ¡Desbloquea el potencial de la IA con Ray!
