Skip to main content
تشغيل أي مهارة في Manus
بنقرة واحدة

promptfoo-evaluation

// Configures and runs LLM evaluation using Promptfoo framework. Use when setting up prompt testing, creating evaluation configs (promptfooconfig.yaml), writing Python custom assertions, implementing llm-rubric for LLM-as-judge, or managing few-shot examples in prompts. Triggers on keywords like "promptfoo", "eval", "LLM evaluation", "prompt testing", or "model comparison".

$ git log --oneline --stat
stars:884
forks:139
updated:٢ مارس ٢٠٢٦ في ١٢:٠١
مستكشف الملفات
4 ملفات
SKILL.md
readonly