LMQL
LLM-X| Launched | 2022-11 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | Cloudflare Analytics,Fastly,Google Fonts,GitHub Pages,Highlight.js,jQuery,Varnish |
| Tag | Text Analysis |
| Launched | 2024-02 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | Amazon AWS CloudFront,HTTP/3,Progressive Web App,Amazon AWS S3 |
| Tag | Inference Apis,Workflow Automation,Developer Tools |
| Global Rank | 2509184 |
| Country | United States |
| Month Visit | 8348 |
| Global Rank | 18230286 |
| Country | |
| Month Visit | 218 |
Estimated traffic data from Similarweb
LM Studio - LM Studio est une application de bureau intuitive, conçue pour faciliter l'expérimentation avec les Large Language Models (LLM) locaux et open-source. Cette application multiplateforme vous offre la possibilité de télécharger et d'exécuter n'importe quel modèle compatible ggml directement depuis Hugging Face. Elle intègre une interface utilisateur (UI) pour la configuration et l'inférence des modèles, se distinguant par sa simplicité d'accès et sa puissance. De plus, elle tire pleinement parti de votre GPU lorsque les conditions le permettent.
LLMLingua - Pour accélérer l'inférence LLM et améliorer la perception des informations clés de LLM, compressez l'invite et KV-Cache, ce qui permet d'obtenir une compression jusqu'à 20x avec une perte de performance minimale.
LazyLLM - LazyLLM : Le low-code pour les applications LLM multi-agents. Créez, itérez et déployez rapidement des solutions d'IA complexes, du prototype à la production. Concentrez-vous sur les algorithmes, et non sur l'ingénierie.
vLLM - Un moteur d'inférence et de service à haut débit et économe en mémoire pour les LLM