Options de notation automatisée dans les formulaires d'évaluation
Conditions préalables
- Genesys Cloud CX 3, Genesys Cloud CX 4, Genesys Cloud CX 2 WEM Add-on I, Genesys Cloud CX 1 WEM Add-on II or Genesys Cloud EX license + AI Tokens
- Administrateur qualité permissions
- Quality > Evaluation Form > Edit AI scoring
- Optionally, you set the Quality > Evaluation > View Sensitive Data permission and see the reasoning that AI uses to determine why the selected answer was chosen.
Genesys offers automated scoring capabilities for evaluation questions, enabling supervisors to spend more time coaching and less time on manual interaction reviews. These capabilities streamline quality management processes and help agents continuously improve. By transforming conversation data into actionable insights, both Genesys AI Scoring and Evaluation Assistance deliver measurable improvements in service quality and operational efficiency. Both solutions support voice and digital interaction types.
AI Scoring Overview
Genesys AI Scoring is an AI-driven capability that automates the evaluation of customer interactions. Rather than depending solely on manual assessments, it uses AI models trained against predefined quality criteria to score conversations at scale.
This results in faster, more consistent, and more objective evaluations, eliminating human bias and ensuring that a larger, more representative set of interactions is reviewed. In addition to automated scoring, AI Scoring provides detailed answer explanations that supervisors can use as targeted coaching feedback to enhance agent performance.
Evaluation Assistance Overview
Evaluation Assistance leverages topics to automate answers to specific evaluation form questions. Topics consist of phrases that represent business intents. For example, to detect interactions where a customer wants to cancel a service, you could create a topic named Cancellation and include phrases such as “close out my account” or “I want to cancel.”
These topics improve recognition of organization-specific language by tuning the underlying language models to look for the terms and phrases that matter most to your business.
When an evaluation assistance condition is added to a form question, speech and text analytics identify interactions that contain the associated topics. If a matching topic is found, the system automatically generates the answer to that question.
For more information, see: Understand programs, topics, and phrases, and Work with a topic.
- Créer un groupe de questions. Pour plus d'informations, voir Créer et publier un formulaire d'évaluation.
- Lorsque vous ajoutez une nouvelle question, vous pouvez définir une notation automatique pour chaque question.

Les options sont les suivantes :- No Automation
- Notation de l'IA
- Assistance à l'évaluation
- Sauvegardez la question et terminez la configuration du formulaire d'évaluation. Pour plus d'informations, voir Créer et publier un formulaire d'évaluation.
Vous pouvez activer la notation AI par question dans l'éditeur du formulaire d'évaluation pour que Genesys Cloud utilise l'IA pour pré-remplir la réponse dans une évaluation.
Créer des questions incitatives
L'invite est construite automatiquement à partir du texte du groupe de questions, de la question, des réponses et du texte d'aide. Si vous reformulez les questions peu claires et ajoutez du contexte à ces champs, vous pouvez améliorer l'efficacité de vos questions pour la notation par l'IA.
Exemple de question peu claire 1 : "Le client a-t-il été satisfait ?
- Question claire pour AI Scoring: "L'agent a-t-il résolu le problème du client à sa satisfaction à la fin de la conversation ?
- Texte d'aide: "Il s'agit de savoir si l'agent a répondu aux principales préoccupations du client et si le client a exprimé des commentaires positifs ou s'est montré satisfait à la fin de l'entretien.
Exemple de question peu claire 2 : "L'agent a-t-il accueilli le client correctement ?
- Question claire pour AI Scoring: "L'agent a-t-il accueilli le client sur un ton amical et a-t-il mentionné son nom au début de l'appel ?
- Texte d'aide: "Vérifiez si l'agent a salué le client de manière chaleureuse et polie et s'il a utilisé son nom surdans les 30 premières secondes de l'appel, ce qui donne un ton amical".
Filtres d'invite
Les questions configurées pour l'évaluation de l'IA utilisent un filtre d'invite, de sorte que Genesys Cloud ne fournit des réponses qu'aux questions pour lesquelles le niveau de confiance de la réponse du modèle d'IA est élevé.
- Limite de réponse: Vous ne pouvez pas enregistrer une configuration de notation AI pour les questions qui ont plus de trois options de réponse.
- N/A ou aucune preuve: Dans ce cas, le modèle d'IA ne dispose pas d'informations suffisantes pour répondre à une question. Genesys Cloud affiche le contexte lorsque le modèle d'IA ne peut pas fournir de réponse.

- Historical Accuracy: Genesys Cloud continually reviews stored data from AI-generated scoring answers to assess their reliability. Accuracy is measured by how frequently a human evaluator modifies an AI-provided answer. When accuracy reaches an acceptable threshold, Genesys Cloud automatically displays that AI-generated answer for future evaluations that include the same question. Historical accuracy is calculated using the most recent 25 submissions for each question. If accuracy within this rolling window drops below 75%, the question is flagged with a low-confidence warning and the AI-generated answer is hidden from evaluators. However, Genesys Cloud continues generating and storing AI answers in the background, allowing accuracy to be reassessed as new evaluations come in. Once the accuracy returns to at least 75%—based on the same 25-submission window—the low-confidence flag is removed, and the AI-generated answer becomes visible to evaluators again.
- Si vous modifiez et republiez un formulaire, Genesys Cloud réinitialise l'historique des questions avec la notation AI configurée.
- Genesys Cloud tracks l'historique d'une question particulière jusqu'à 30 jours. S'il n'y a pas d'activité pour la question après 30 jours, l'historique est supprimé.
- For more information about AI Scoring guidelines and best practices. see AI scoring best practices.
- For more information about how to create Agent Auto complete evaluation forms, see Agent auto complete form type.
Ajouter une condition d'assistance à l'évaluation à une question de formulaire
- Créez une question pour le formulaire d'évaluation.
- Cliquez sur Ajouter une condition d'aide à l'évaluation qui est associée à la réponse pour laquelle vous voulez qu'une réponse soit automatiquement générée.
- Dans la liste , sélectionnez si la conversation , sélectionnez si vous voulez que la conversation inclue ou exclue un ou plusieurs sujets.
- Dans la liste ces sujets, sélectionnez un ou plusieurs sujets.
- (Facultatif) Cliquez à nouveau sur l'option Add Evaluation Assistance Condition pour ajouter une autre condition à la même réponse.
- A topic cannot be used in more than one evaluation assistance condition.
- Lorsque vous supprimez une rubrique, la condition qui inclut la rubrique supprimée n'est plus valable.
- Une condition d'aide à l'évaluation ne peut être configurée que pour une seule réponse par question.
- When more than one topic is selected for a single Includes condition, only one of the topics must be found for the condition to be true.
- When more than one topic is selected for a single Excludes condition, only one of the topics must be found for the condition to be false. For the condition to be true, all topics must be absent from the interaction.
- When more than one condition is created for a single answer, all the conditions must be true for the answer to be automatically entered.

