StreamingLLM
LazyLLM| Launched | 2024 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Workflow Automation,Developer Tools,Communication |
| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Low Code,Mlops |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | |
| Country | |
| Month Visit |
Estimated traffic data from Similarweb
vLLM - 大規模言語モデル向けの、スループットが高くメモリー効率に優れた推論およびサービングエンジン
EasyLLM - EasyLLMは、オープンソースおよびクローズドソースの大規模言語モデル(LLM)を扱うための有用なツールと方法を提供するオープンソースプロジェクトです。直ちに開始するか、ドキュメントを確認してください。
LLMLingua - LLMの推論を高速化し、LLMが重要な情報を認識できるように、プロンプトとKVキャッシュを圧縮します。これにより、パフォーマンスをほとんど低下させることなく、最大20倍の圧縮を実現します。
LMCache - LMCacheは、データの保存と検索を最適化することでLLMアプリケーションを高速化する、オープンソースのKnowledge Delivery Network(KDN)です。