Skip to main content
Manusで任意のスキルを実行
ワンクリックで

evaluating-llms

// Evaluate LLM systems using automated metrics, LLM-as-judge, and benchmarks. Use when testing prompt quality, validating RAG pipelines, measuring safety (hallucinations, bias), or comparing models for production deployment.

$ git log --oneline --stat
stars:345
forks:52
updated:2025年12月9日 21:02
ファイルエクスプローラー
18 ファイル
SKILL.md
readonly