Lattice fournit des rapports détaillés sur les phases d’évaluation que les directeurs peuvent consulter s’ils portent sur leurs équipes ou leurs départements. Dès que les évaluateurs soumettent leurs réponses, vous pouvez consulter les analyses relatives à ces réponses.
Sommaire
- Avant de commencer
- Accéder aux résultats d’évaluations
- Grouper et filtrer les résultats
- Diagramme à barres
- Vue en neuf cases
- Vue de la heatmap
- Vue Répartition
Avant de commencer
- Les données d’évaluation seront différentes en fonction de la visibilité. Les directeurs de directeurs peuvent consulter les données d’évaluation de leurs subordonnés directs et indirects, tandis que les directeurs ne peuvent consulter que les données de leur équipe directe.
- Les analyses des résultats d’évaluation ne s’appliquent qu’aux notations, aux compétences, aux questions sur les objectifs et aux scores pondérés.
- Les questions à choix multiples et à sélection multiple ne sont pas incluses dans les analyses. Les super administrateurs peuvent visualiser les notes des ressentis pour les questions ouvertes.
- Les attributs de l’utilisateur dans les résultats d’évaluation sont gelés au moment du lancement d’une phase d’évaluation. Par exemple, un employé qui a été muté dans un autre département au cours de la phase d’évaluation apparaîtra dans son département d’origine.
Accéder aux résultats d’évaluations
- Rendez-vous sur la page Rapports dans le panneau de navigation de découverte.
- Accédez à la section Évaluations.
- Find the phase d'évaluation and sélectionner Voir la progression.
- Accédez à l’onglet Résultats.
Grouper et filtrer les résultats
Sélectionner une comparaison
Pour afficher les résultats, la première étape consiste à choisir les questions de comparaison. Vous pouvez sélectionner jusqu’à 10 questions.
- Sélectionnez uniquement deux questions de comparaison pour afficher les données dans la vue à neuf cases.
- Sélectionnez jusqu’à quatre questions de comparaison pour afficher les données dans la vue de répartition.
Filtrer vos données
Ensuite, filtrez et regroupez vos résultats en fonction de l’un des champs par défaut, y compris le mandat, le directeur, le département et le groupe d’évaluation.
Remarque : seuls les administrateurs peuvent filtrer par attributs personnalisés.
Les directeurs peuvent filtrer en fonction du département ou du directeur. Toutefois, il est recommandé de regrouper les résultats par individu lorsque cela est possible afin d’obtenir un ensemble de données plus pertinent.
Vous pouvez accumuler des filtres pour différents champs afin d’obtenir uniquement les données spécifiques que vous souhaitez. Par exemple, si vous utilisez un filtre mandat = 0-3 mois et un filtre département = Ingénierie, les réponses affichées correspondront aux nouveaux employés du département d’ingénierie.
Explorer and analyze résultats
Vous pouvez examiner vos résultats à l’aide d’un diagramme à barres, d’une vue à neuf cases ou d’une heatmap.
Diagramme à barres
Idéal pour comparer les données de plus de deux questions
La vue avec diagramme à barres vous permet de voir les résultats d’un groupe de répondants pour l’ensemble des questions. Chaque groupe est représenté par une barre de couleur différente. Survolez chaque barre pour connaître la note moyenne d’un groupe pour la question.
Remarque : vous pouvez exporter la vue tabulaire du graphique à barres sous forme de fichier CSV en cliquant sur Exporter CSV en haut du tableau.
Modifier plus groupes to the dataset
Certains groupes peuvent inclure un grand nombre d’options individuelles. Lattice affiche par défaut les huit premières options. Pour ajouter d’autres groupes :
- Cliquez sur le symbole +.
- Sélectionnez d’autres groupes à inclure dans l’ensemble de données.
Score réel ou score normalisé
Lors de l’affichage du graphique à barres, vous pouvez afficher le score réel ou le score normalisé.
-
Score réel : le score réel correspond à la moyenne des réponses à chaque question de notation.
- Par exemple, si vous avez une question de notation sur une échelle de 3 et une autre sur une échelle de 5, vous verrez la note moyenne de chaque question sur l’échelle choisie lorsque vous survolez le graphique.
-
Score normalisé : le score normalisé vous permet de visualiser toutes les questions sur la même échelle en convertissant les notes en pourcentage de 100. Cela permet une comparaison plus juste entre des questions ayant des échelles de notation différentes.
- Par exemple, une note de 3 sur 3 indiquera 100 % et une note de 3 sur 5 indiquera 60 %.
Vue en neuf cases
Idéale pour comparer deux questions différentes
La vue en neuf cases permet de comparer les réponses de groupes spécifiques à deux questions différentes. Par exemple, vous pouvez déterminer le score moyen de l’équipe de chaque directeur sur la base des deux comparaisons que vous avez sélectionnées en les réponses par directeur, puis en survolant chaque point pour voir la moyenne exacte de chaque équipe.
Vue de la heatmap
Idéale pour comparer différents groupes de répondants entre eux pour plus d’une question
L’affichage sous forme de heatmap vous permet d’identifier les domaines d’amélioration pour chaque groupe à l’aide d’un code couleur. Le score le plus bas (ou le delta négatif le plus significatif) affichera le rouge le plus vif, et le score le plus élevé (ou le delta positif le plus significatif) affichera le vert le plus vif.
- Score réel : il s’agit de la réponse moyenne réelle à chaque question pour chaque groupe.
- Delta : il s’agit de la différence de score pour chaque groupe par rapport à la moyenne de l’équipe.
À partir de là, vous pouvez continuer à appliquer des filtres pour découper vos données encore plus finement afin de trouver le domaine spécifique qui est à améliorer. Par exemple, si vous constatez qu’un département obtient un score moyen inférieur à celui des autres départements de votre organisation, vous pouvez continuer à trier davantage les données en les regroupant par directeur pour voir si une équipe spécifique rencontre des difficultés.
Il n’est pas possible d’ajouter un filtre sur le champ que vous êtes en train de comparer. Ainsi, si vous effectuez un regroupement par département, vous ne pouvez pas appliquer un filtre Département = Ingénierie, car cela supprimerait la fonction de comparaison.
Remarque : vous pouvez exporter la heatmap au format CSV en cliquant sur Exporter CSV dans la vue.
Vue Répartition
Cette vue est idéale pour comprendre la répartition des questions de notation pré et post-calibrées.
Le graphique de répartition est un histogramme qui indique la fréquence d’apparition d’une valeur différente dans votre ensemble de données, ce qui vous permet de voir une courbe en cloche de vos questions. C’est un excellent moyen de vérifier si la notation est trop indulgente ou trop sévère en déterminant s’il y a trop de 1 ou de 5 dans la répartition. Notez que si vous n’avez pas saisi de notation post-calibrée pour un employé, même si elle est identique à la notation précalibrée, elle n’apparaîtra pas dans la section des notations post-calibrées.
Utilisez des filtres pour trier encore davantage les données. Par exemple, ci-dessous, nous avons filtré par le département Réussite client pour afficher sa courbe en cloche avant et après le calibrage. Remarquez qu’il n’y a pas de courbe en cloche avant le calibrage et que nous avons été indulgents en matière de notation. Nous pouvons voir que le calibrage a fonctionné en comparant les scores post-calibration pour la notation du comportement.
Compte réel ou normalisé
Lorsque vous regardez vos comptes, vous avez la possibilité de décider de la manière dont ils seront affichés et vous pouvez choisir entre le compte réel et le compte normalisé.
- Nombre réel : le nombre de fois où chaque score a été soumis.
- Compte normalisé : le pourcentage de chaque score soumis sur la base de toutes les soumissions.
A remarque on question merging behavior in analyse de l’évaluation
Dans le cas où une phase d’évaluation comporte plusieurs modèles avec la même question sous-jacente, Lattice consolidera ces questions dans l’analyse d’évaluation selon le comportement suivant :
- Pour les questions régulières et les questions d’objectifs : si des questions utilisent le même texte (insensible à la casse) dans des modèles différents, elles seront regroupées dans les calculs de résultats et considérées comme une seule et même question. Les questions dont le texte est différent sont naturellement traitées comme des questions différentes entre modèles.
-
Pour les questions liées aux compétences : lorsqu’une question d’évaluation provenant de modèles différents fait référence à la même compétence pour diverses personnes évaluées (ces dernières sont assignées à différents suivis partageant une compétence), ces questions de compétence sont regroupées dans l’analyse de la phase. Cela se produit même si les modèles ont des questions avec des échelles de notation ou un texte différents.
- Remarque : si les configurations des questions sont différentes entre ces modèles, il peut en résulter des divergences ou des résultats inattendus dans les analyses. Identifiant du nom
- Exemple : si deux modèles ont des questions faisant référence à la même compétence, mais utilisent des échelles de notation différentes (par exemple, 1-5 contre 1-10), les résultats des réponses des deux ensembles de questions seront regroupés au lieu d’être affichés en tant que questions distinctes. Si une échelle de notation de base est affichée dans l’UX, il s’agira de celle du modèle qui a été créé en premier. Cela peut se traduire par des mesures comme « score moyen de 5,5 sur 5 », lorsque le modèle utilisant l’échelle de notation sur cinq a été créé en premier.