StreamingLLM
Flowstack| Launched | 2024 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Workflow Automation,Developer Tools,Communication |
| Launched | 2023-05 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | Google Tag Manager,Webflow,Amazon AWS CloudFront,Cloudflare CDN,Google Fonts,jQuery,Gzip,OpenGraph |
| Tag | Data Analysis,Business Intelligence,Developer Tools |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | 10914910 |
| Country | United States |
| Month Visit | 1744 |
Estimated traffic data from Similarweb
vLLM - Un motor de inferencia y servicio de alto rendimiento y bajo consumo de memoria para LLM
EasyLLM - EasyLLM es un proyecto de código abierto que ofrece herramientas y métodos útiles para trabajar con modelos de lenguaje grande (LLM), tanto de código abierto como de código cerrado. Ponte en marcha de inmediato o echa un vistazo a la documentación.
LLMLingua - Para acelerar la inferencia de los LLM y mejorar la percepción de los LLM de información clave, comprime el indicador y KV-Cache, que logra una compresión de hasta 20 veces con una pérdida de rendimiento mínima.
LazyLLM - LazyLLM: Bajo código para aplicaciones LLM multiagente. Desarrolle, itere y despliegue soluciones de IA complejas con rapidez, desde el prototipo hasta la producción. Céntrese en los algoritmos, no en la ingeniería.
LMCache - LMCache es una red de entrega de conocimiento (KDN) de código abierto que acelera las aplicaciones LLM mediante la optimización del almacenamiento y la recuperación de datos.