Question

Pour un site Web de commerce électronique, comment mesurez-vous si une modification apportée à votre site améliore réellement la convivialité? Quel type de mesures devriez-vous collecter et comment mettriez-vous en place un cadre pour intégrer ces tests au développement?

Était-ce utile?

La solution

Le test multivarié et la création de rapports constituent un excellent moyen de mesurer ce genre de choses.

Il vous permet de tester quelle combinaison d'éléments de page présente le taux de conversion le plus élevé, améliorant ainsi en permanence la conception et la convivialité de votre site.

L'Optimiseur Web Google prend en charge cette fonctionnalité.

Autres conseils

Méthodes similaires que vous avez utilisées pour identifier les problèmes d’utilisabilité pour commencer: les tests d’utilisabilité. En règle générale, vous identifiez vos cas d'utilisation, puis vous réalisez une étude en laboratoire sur la manière dont les utilisateurs atteignent certains objectifs. Les tests de laboratoire sont généralement bons avec 8 à 10 personnes.

Pour mieux comprendre nos utilisateurs, nous avons opté pour une collecte de données anonyme (vous pouvez avoir besoin de l'autorisation de l'utilisateur, clarifier vos règles de confidentialité, etc.). Il s'agit simplement d'évaluer les boutons / menus de navigation que les utilisateurs cliquent les utilisateurs suppriment quelque chose (c.-à-d. changement de quantité - davantage d'utilisateurs saisissent-ils 0 et mettent-ils à jour la quantité ou frappent-ils X)? C’est un peu plus complexe à installer; vous devez développer une infrastructure pour stocker ces données (qui ne sont en fait que des compteurs, c.-à-d. "Temps cliqué x: 138838383, Temps entré 0: 390393") et autoriser la création de points de données en fonction des besoins pour les intégrer à la conception.

Pour pousser la mesure d'une amélioration d'une interface utilisateur à la conception ou à la mise en œuvre, une analyse heuristique simple peut être utilisée:

  • Le nombre d'actions nécessaires pour réaliser un scénario est-il inférieur? (Si oui, alors ça s'est amélioré). Mesure: nombre d’étapes réduites / ajoutées.

  • La modification réduit-elle le nombre de types de périphériques d'entrée à utiliser (même si le nombre d'étapes est identique)? Je veux dire par là que si vous prenez quelque chose qui repose à la fois sur la souris et le clavier et que vous modifiez le texte de manière à ce qu'il s'appuie uniquement sur la souris ou uniquement sur le clavier, vous avez amélioré facilité d'utilisation. Mesure: modification du nombre de périphériques utilisés.

  • La modification rend-elle les différentes parties du site Web cohérentes? Par exemple. Si une partie du site de commerce électronique perd les modifications apportées alors que vous n'êtes pas connecté, une autre partie ne perd pas, cela est incompatible. Le changer pour qu'ils aient le même comportement améliore la convivialité (de préférence au plus tolérant aux pannes, s'il vous plaît!). Mesure: Créez un graphique (en fait, un organigramme) illustrant la manière dont une action particulière peut être effectuée. L’amélioration consiste à réduire le nombre d’arêtes du graphique.

  • Et cetera ... trouvez des astuces générales pour l'interface utilisateur, déterminez des mesures telles que ci-dessus, et vous pouvez vous approcher d'une amélioration de l'utilisabilité.

Une fois que vous avez ces approximations conceptuelles d'amélioration de l'utilisateur, puis que vous collectez des données à plus long terme, vous pouvez voir s'il existe une capacité prédictive d'amélioration de la convivialité au niveau de la conception de la réaction de l'utilisateur final (comme: Au cours des 10 derniers projets , nous avons constaté une moyenne de 1% de scénarios plus rapides pour chaque action supprimée, avec une fourchette de 0,25% et un écart type de 0,32%).

Le premier moyen peut être totalement subjectif ou partiellement quantifié: plaintes d'utilisateurs et retours positifs. Le problème, c’est que vous pouvez avoir de forts biais en ce qui concerne le filtrage de ces retours, de sorte que vous feriez mieux de faire le plus quantitatif possible. Il peut être utile de disposer d'un système de ticket permettant de classer chaque rapport des utilisateurs et de collecter des statistiques sur chaque version de l'interface. Obtenez juste vos statistiques.

La deuxième méthode consiste à mesurer la différence entre un questionnaire rempli par les utilisateurs finaux à propos de l’interface. Les réponses à chaque question doivent constituer un ensemble de valeurs discrètes. Ensuite, vous pouvez rassembler des statistiques pour chaque version de l'interface.

Ce dernier moyen peut être beaucoup plus difficile à configurer (concevoir un questionnaire et éventuellement son environnement contrôlé ainsi que les instructions pour interpréter les résultats est un art à part entière), mais le premier facilite de manière désagréable la confusion avec le logiciel. des mesures. Par exemple, vous devez prendre en compte le fait que le nombre de tickets que vous obtenez pour chaque version dépend de son heure d'utilisation et que tous les intervalles de temps ne sont pas égaux (par exemple, toute une catégorie de problèmes critiques ne peut être découverte avant la troisième ou quatrième semaine d'utilisation, sinon les utilisateurs risquent de ne pas classer les tickets les premiers jours d'utilisation, même s'ils rencontrent des problèmes, etc.).

Torial a volé ma réponse. Bien que s'il existe une mesure du temps qu'il faut pour accomplir une tâche donnée. Si le temps est réduit et que la tâche est toujours terminée, c'est une bonne chose.

En outre, s’il existe un moyen d’enregistrer le nombre d’annulations, cela fonctionnerait également.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top