StreamingLLM
EasyLLM| Launched | 2024 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Workflow Automation,Developer Tools,Communication |
| Launched | 2024 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Developer Tools,Chatbot Builder,Coding Assistants |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | |
| Country | |
| Month Visit |
Estimated traffic data from Similarweb
vLLM - Un motor de inferencia y servicio de alto rendimiento y bajo consumo de memoria para LLM
LLMLingua - Para acelerar la inferencia de los LLM y mejorar la percepción de los LLM de información clave, comprime el indicador y KV-Cache, que logra una compresión de hasta 20 veces con una pérdida de rendimiento mínima.
LazyLLM - LazyLLM: Bajo código para aplicaciones LLM multiagente. Desarrolle, itere y despliegue soluciones de IA complejas con rapidez, desde el prototipo hasta la producción. Céntrese en los algoritmos, no en la ingeniería.
LMCache - LMCache es una red de entrega de conocimiento (KDN) de código abierto que acelera las aplicaciones LLM mediante la optimización del almacenamiento y la recuperación de datos.