Skip to main content
تشغيل أي مهارة في Manus
بنقرة واحدة

llm-eval

// LLM output evaluation pipeline: audit evals, failure analysis, synthetic data, LLM-as-Judge, RAG eval, annotation design. Triggers on: llm eval, evaluate ai, eval pipeline, judge calibration, rag eval, ai quality, /llm-eval.

$ git log --oneline --stat
stars:0
forks:1
updated:١٨ أبريل ٢٠٢٦ في ١٧:٤٠
مستكشف الملفات
2 ملفات
SKILL.md
readonly