Skip to main content
Manus에서 모든 스킬 실행
원클릭으로

awq-quantization

// Activation-aware weight quantization for 4-bit LLM compression with 3x speedup and minimal accuracy loss. Use when deploying large models (7B-70B) on limited GPU memory, when you need faster inference than GPTQ with better accuracy preservation, or for instruction-tuned and multimodal models. MLSys 2024 Best Paper Award winner.

$ git log --oneline --stat
stars:7,347
forks:565
updated:2025년 11월 25일 21:59
파일 탐색기
3 개 파일
SKILL.md
readonly