Dès que les évaluateurs commencent à soumettre des évaluations, les administrateurs peuvent commencer à en analyser les données dans l’onglet Résultats de l’évaluation.
Pour en savoir plus sur l’analyse des évaluations, consultez notre webinaire Administrer les évaluations et exploiter vos résultats.
Avant de commencer
- L’analyse des questions à choix multiple et à sélection multiple n’est pas disponible dans l’onglet Résultats. Pour afficher les questions à choix multiples et les questions à sélection multiple, exportez les réponses de l’évaluation. Pour en savoir plus, consultez la rubrique Exportations de la phase d’évaluation.
- L’onglet Résultats n’est disponible que pour les phases d’évaluation basées sur l’organigramme et les projets. Les évaluations créées par des règles automatisées n’ont pas d’onglet Résultats et ne peuvent pas être analysées.
- Les attributs utilisateur sont figés au moment du lancement de la phase et sont ceux qui figurent dans les résultats d’évaluations. Par exemple, un employé qui a été déplacé dans un autre département au cours de la phase apparaîtra sous son département d’origine.
Cet article contient les sujets suivants :
Afficher les résultats d’évaluations
- Accédez à Administrateur > Évaluations > Évaluations des performances.
- Cliquez pour sélectionner la phase d’évaluation.
- Accédez à l’onglet Résultats.
- Cliquez sur Sélectionner des comparaisons pour choisir jusqu’à dix questions que vous souhaitez analyser.
Filtrer vos données
Utilisez la barre de filtre en haut de la page Résultats pour filtrer votre ensemble de données par attributs d’utilisateur ou par groupe d’évaluation (auto-évaluation, évaluation par des collègues, des supérieurs hiérarchiques, des subordonnés).
L’ajout de plusieurs attributs exige que les personnes évaluées remplissent les deux conditions recherchées, tandis que l’application de plusieurs valeurs à l’intérieur d’un seul attribut affiche les personnes qui remplissent l’une ou l’autre des conditions. Par exemple, en filtrant pour Genre = Femme et Département = Ingénierie + Produit, vous obtiendrez les réponses de toutes les femmes des départements Ingénierie et Produit.
Grouper vos données
Ajustez la présentation de vos informations en sélectionnant Grouper par et en choisissant l’une des options suivantes :
- Individuel
- Directeur
- Genre
- Département
- Groupe d’évaluation
- Attribut personnalisé
The Grouper par filtre groupes the review data by personne évaluée. In an example where we Grouper par Directeur and filtre for examen ascendant.
Exemple :Chez Degree, Inc. Stephen supervise Ami, qui supervise Adnan, qui ne supervise personne.
Un administrateur souhaite regrouper les résultats par directeur afin de visualiser les analyses d’une phase ne comportant que des feedbacks ascendants.
Pour cette phase d’évaluation, l’administrateur verra un regroupement pour Stephen qui supervise Ami parce qu’Ami a eu des réponses ascendantes dans son évaluation (de la part d’Adnan). Cependant, il n’y aura pas de regroupement pour Ami car son subordonné direct, Adnan, n’a reçu aucune évaluation ascendante (Adnan n’a pas de subordonné direct).
Lattice affiche par défaut les huit premières options pour tout regroupement. Pour ajouter d’autres résultats à la visualisation, cliquez sur le bouton + situé sous le graphique et cochez les cases correspondant aux ajouts souhaités.
Explorer les résultats
Les résultats peuvent être visualisés à l’aide d’un diagramme à barres, d’un diagramme à neuf cases, d’une heatmap ou d’une vue par répartition.
Diagramme à barres
Le diagramme à barres présente les résultats d’un groupe d’employés pour plusieurs questions. Elle est utile pour comparer plus de deux questions.
Les couleurs des barres correspondent aux icônes situées sous le graphique. Survolez une barre pour voir la notation moyenne pour ce groupe ou cet individu.
Score réel ou score normalisé
Le diagramme à barres permet d’afficher le score réel ou le score normalisé.
- Score réel : la réponse moyenne réelle à chaque question. Par exemple, si vous avez une question de notation sur une échelle de trois et une autre question sur une échelle de cinq, vous pourrez voir une évaluation moyenne sur trois ou cinq lorsque vous survolez la barre.
- Score normalisé : le score obtenu si toutes les questions étaient placées sur la même échelle, exprimée en pourcentage de 100. Ceci est utile si vous cherchez à comparer les réponses à des questions de notation avec des échelles de réponse différentes.
Neuf cases
La vue en neuf cases compare les résultats de deux questions différentes au sein d’un groupe en les plaçant sur un axe x et un axe y. Chaque point de données dans la vue indique où se situe la moyenne de la valeur du groupe pour chaque question. Survolez chaque point pour voir les scores moyens du groupe.
Heatmap
La vue Heatmap compare différents groupes les uns par rapport aux autres sur plusieurs questions. C’est celle qui fournit le plus grand nombre de données dans une seule vue. Vous pouvez appliquer des filtres pour découper vos données encore plus finement et comparer des groupes d’employés spécifiques.
Répartition
La vue Répartition permet d’évaluer l’efficacité des questions que vous posez dans vos évaluations en montrant combien d’employés ont reçu chaque note possible pour un maximum de quatre comparaisons sélectionnées.
Appliquez des filtres pour obtenir des informations plus précises sur les performances de groupes d’employés spécifiques.
Compte réel ou normalisé
La vue Répartition permet d’afficher le compte réel ou normalisé pour les questions sélectionnées
- Nombre réel : le nombre de fois qu’une notation a été choisie
- Compte normalisé : un pourcentage du nombre de fois qu’une notation a été choisie
A remarque on question merging behavior in analyse de l’évaluation
Dans le cas où une phase d’évaluation comporte plusieurs modèles avec la même question sous-jacente, Lattice consolidera ces questions dans l’analyse d’évaluation selon le comportement suivant :
- Pour les questions régulières et les questions d’objectifs : si des questions utilisent le même texte (insensible à la casse) dans des modèles différents, elles seront regroupées dans les calculs de résultats et considérées comme une seule et même question. Les questions dont le texte est différent sont naturellement traitées comme des questions différentes entre modèles.
-
Pour les questions liées aux compétences : lorsqu’une question d’évaluation provenant de modèles différents fait référence à la même compétence pour diverses personnes évaluées (ces dernières sont assignées à différents suivis partageant une compétence), ces questions de compétence sont regroupées dans l’analyse de la phase. Cela se produit même si les modèles ont des questions avec des échelles de notation ou un texte différents.
- Remarque : si les configurations des questions sont différentes entre ces modèles, il peut en résulter des divergences ou des résultats inattendus dans les analyses. Identifiant du nom
- Exemple : si deux modèles ont des questions faisant référence à la même compétence, mais utilisent des échelles de notation différentes (par exemple, 1-5 contre 1-10), les résultats des réponses des deux ensembles de questions seront regroupés au lieu d’être affichés en tant que questions distinctes. Si une échelle de notation de base est affichée dans l’UX, il s’agira de celle du modèle qui a été créé en premier. Cela peut se traduire par des mesures comme « score moyen de 5,5 sur 5 », lorsque le modèle utilisant l’échelle de notation sur cinq a été créé en premier.