StreamingLLM
LazyLLM| Launched | 2024 |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Workflow Automation,Developer Tools,Communication |
| Launched | |
| Pricing Model | Free |
| Starting Price | |
| Tech used | |
| Tag | Low Code,Mlops |
| Global Rank | |
| Country | |
| Month Visit |
| Global Rank | |
| Country | |
| Month Visit |
Estimated traffic data from Similarweb
vLLM - 대규모 언어 모델에 대한 처리량이 높고 메모리 효율적인 추론 및 서비스 엔진
EasyLLM - EasyLLM은 오픈소스와 클로즈소스를 포함한 대규모 언어 모델(LLM)을 사용하는 데에 유용한 도구와 방법을 제공하는 오픈소스 프로젝트입니다. 즉시 시작하거나 설명서를 확인하세요.
LLMLingua - LLM의 추론 속도를 높이고 LLM이 주요 정보를 인식하도록 하기 위해, 최대 20배 압축률과 최소한의 성능 저하로 압축된 프롬프트 및 KV-캐시
LMCache - LMCache는 데이터 저장 및 검색을 최적화하여 LLM 애플리케이션의 속도를 높이는 오픈소스 지식 전달 네트워크(KDN)입니다.