Meilleurs GGML alternatives en 2025
-

Explorez Local AI Playground, une application gratuite pour l'expérimentation hors ligne en IA. Ses fonctionnalités incluent l'inférence CPU, la gestion des modèles, et bien plus encore.
-

Gemma 3n déploie une IA multimodale puissante à la périphérie. Elle permet d'exécuter des applications d'IA pour l'image, l'audio, la vidéo et le texte sur des appareils à mémoire limitée.
-

GLM-4.5V : Dotez votre IA d'une vision avancée. Générez du code web à partir de captures d'écran, automatisez les interfaces utilisateur graphiques (IUG) et analysez documents et vidéos grâce à un raisonnement approfondi.
-

Gemma 3 270M : IA compacte et hyper-efficace pour les tâches spécialisées. Idéale pour un affinage précis des instructions et un déploiement économique embarqué.
-

Gemma 2 offre des performances de pointe, s'exécute à une vitesse incroyable sur différents matériels et s'intègre facilement à d'autres outils d'IA, intégrant des avancées de sécurité significatives.
-

Gemma 3 : l'IA open source de Google pour des applications multimodales performantes. Créez facilement des solutions multilingues grâce à des modèles flexibles et sûrs.
-

Libra : Exécutez des modèles 70B sur Apple Silicon ! Quantification à faible nombre de bits, contexte adaptatif et orchestration d'agents. Créez des applications d'IA conscientes des ressources.
-

Le projet LlamaEdge vous permet d'exécuter facilement des applications d'inférence LLM et de créer des services API compatibles avec OpenAI pour la série de LLM Llama2, le tout en local.
-

Améliorez les modèles linguistiques avec le LLM sur site de Giga. Une infrastructure puissante, une compatibilité API avec OpenAI et une garantie de confidentialité des données. Contactez-nous dès maintenant !
-

Transformer Lab : Une plateforme open-source pour construire, affiner et exécuter des LLM localement sans coder. Téléchargez des centaines de modèles, affinez-les sur différents matériels, discutez, évaluez, et bien plus encore.
-

Testez des modèles d'IA générative de pointe, fonctionnant entièrement hors ligne sur votre téléphone. Explorez l'IA locale, analysez des images, discutez et obtenez des informations sur les performances avec Google AI Edge Gallery.
-

MonsterGPT: Peaufinez et déployez des modèles d'IA sur mesure via le chat. Simplifiez les tâches complexes de LLM et d'IA. Accédez facilement à plus de 60 modèles open-source.
-

Pour accélérer l'inférence LLM et améliorer la perception des informations clés de LLM, compressez l'invite et KV-Cache, ce qui permet d'obtenir une compression jusqu'à 20x avec une perte de performance minimale.
-

EmbeddingGemma : Des embeddings textuels multilingues embarqués, conçus pour les applications d'IA privilégiant la confidentialité. Bénéficiez de performances et d'une efficacité de pointe, même hors ligne.
-

GoML se spécialise dans les solutions d'IA générative, collaborant avec des acteurs majeurs tels qu'AWS, Google, Microsoft et OpenAI.
-

CentML rationalise le déploiement des LLM, réduit les coûts jusqu'à 65 % et garantit des performances optimales. Idéal pour les entreprises et les startups. Essayez-le maintenant !
-

Boostez vos projets d'IA générative avec PeriFlow de FriendliAI. Moteur de service LLM le plus rapide, options de déploiement flexibles, approuvé par les leaders de l'industrie.
-

Genkit est un framework open-source destiné à la création d'applications full-stack propulsées par l'IA, conçu et exploité en production par Firebase de Google.
-

BAML aide les développeurs à créer des agents IA 10 fois plus fiables et à typage sécurisé. Obtenez des sorties structurées de n'importe quel LLM et rationalisez votre flux de travail de développement d'IA.
-

Un moteur d'inférence et de service à haut débit et économe en mémoire pour les LLM
-

BAGEL : IA multimodale open source de ByteDance-Seed. Comprend, génère et modifie les images et le texte. Puissante, flexible et comparable à GPT-4o. Créez des applications d'IA avancées.
-

LM Studio est une application de bureau intuitive, conçue pour faciliter l'expérimentation avec les Large Language Models (LLM) locaux et open-source. Cette application multiplateforme vous offre la possibilité de télécharger et d'exécuter n'importe quel modèle compatible ggml directement depuis Hugging Face. Elle intègre une interface utilisateur (UI) pour la configuration et l'inférence des modèles, se distinguant par sa simplicité d'accès et sa puissance. De plus, elle tire pleinement parti de votre GPU lorsque les conditions le permettent.
-

Shimmy : Serveur Rust zéro configuration pour LLM locaux. Compatibilité transparente avec l'API OpenAI, garantissant l'absence de modifications de code. Inférence GGUF/SafeTensors rapide et privée.
-

Ajustez et déployez des modèles ouverts de manière privée en utilisant l'apprentissage par renforcement pour atteindre des performances de pointe.
-

Moteur d'inférence C++ autonome et léger pour les modèles Gemma de Google.
-

Le nouveau paradigme du développement basé sur le MaaS, libérant l'IA avec notre service de modèle universel
-

Kolosal AI est une plateforme open-source permettant aux utilisateurs d'exécuter des grands modèles de langage (LLM) localement sur des appareils tels que les ordinateurs portables, les ordinateurs de bureau et même les Raspberry Pi, en privilégiant la vitesse, l'efficacité, la confidentialité et le respect de l'environnement.
-

ChatGLM-6B est un modèle ouvert de CN&EN avec 6,2B de paramètres (optimisé pour le contrôle de la qualité chinois et le dialogue pour le moment).
-

Fatigué des IA Génératives peu fiables ? Future AGI est votre plateforme de bout en bout pour l'évaluation, l'optimisation et la sécurité en temps réel. Développez une IA de confiance plus rapidement.
-

GLM-130B : un modèle pré-entraîné bilingue ouvert (ICLR 2023)
