Skip to main content
在 Manus 中运行任何 Skill
一键导入
$pwd:

evaluating-llms

// Evaluate LLM systems using automated metrics, LLM-as-judge, and benchmarks. Use when testing prompt quality, validating RAG pipelines, measuring safety (hallucinations, bias), or comparing models for production deployment.

$ git log --oneline --stat
stars:345
forks:52
updated:2025年12月9日 21:02
文件资源管理器
18 个文件
SKILL.md
readonly