Evaluation Runs
Evaluation Runs
Evaluation Runs
Run an Evaluation Test Case
agents.evaluation_runs.create(EvaluationRunCreateParams**kwargs) -> evaluation_run_uuidslistEvaluationRunCreateResponse
post/v2/gen-ai/evaluation_runs
Retrieve Results of an Evaluation Run
agents.evaluation_runs.list_results(strevaluation_run_uuid, EvaluationRunListResultsParams**kwargs) -> evaluation_runAPIEvaluationRunlinksAPILinksmetaAPIMetapromptslistEvaluationRunListResultsResponse
get/v2/gen-ai/evaluation_runs/{evaluation_run_uuid}/results
Retrieve Information About an Existing Evaluation Run
agents.evaluation_runs.retrieve(strevaluation_run_uuid) -> evaluation_runAPIEvaluationRunEvaluationRunRetrieveResponse
get/v2/gen-ai/evaluation_runs/{evaluation_run_uuid}
Retrieve Results of an Evaluation Run Prompt
agents.evaluation_runs.retrieve_results(intprompt_id, EvaluationRunRetrieveResultsParams**kwargs) -> promptAPIEvaluationPromptEvaluationRunRetrieveResultsResponse
get/v2/gen-ai/evaluation_runs/{evaluation_run_uuid}/results/{prompt_id}
API Evaluation Metric
APIEvaluationMetricclass
API Evaluation Metric Result
APIEvaluationMetricResultclass
API Evaluation Prompt
APIEvaluationPromptclass
API Evaluation Run
APIEvaluationRunclass