Transcript IHM-REHAB

INTERACTION HOMME-MACHINE
EVALUATION DES IHM
Présentée par:
Mme: REHAB MOUFIDA
Promotion: 2011/2012
Introduction
Introduction
 Problème de l’industrie du logiciel
 84% d’échecs (temps, fonctionnalités, budgets):
 Manque d’intervention des utilisateurs, spécification incomplète,
changements par les utilisateurs.
 63% d’excès de budgets :
 Demande fréquente de changements par les utilisateurs , taches trop grandes,
manque de compréhension des propres requis des utilisateurs, mauvaise
communication entre les utilisateurs et les concepteurs
 Maintenance : 33% debugging, 67% changement par l’utilisateur.
Introduction
•
•
•
•
Quatre phases :
Découverte :
– qui est l’utilisateur ?
Invention :
– qu’est-ce qui est possible ?
Conception :
– qu’est-ce qu’on fait ?
Evaluation :
– est-ce que ça marche ?
Introduction
Modèles de conception :
 Souvent centrés systèmes
L’utilisateur n’intervient qu’en amont et en aval de la conception (analyse
et évaluation)
Modèle en cascade
Modèle en V
Modèle en Spiral
Historique de l’évalution des IHM

Années 1960 :


Années 70 :


PARC Xerox avec en particulier les recherches autour de Smalltalk
Début des années 80


Université de Standford, études sur les partitions d'écran,
multifenêtrage
Apparition du Star (terminal bureautique de Xerox) et du Lisa
(micro bureautique d'Apple). Les idées sont là. Pas la technologie
Milieu des années 80

Apparition des microprocesseurs 32 bits
look and feel ou WIMP (Windows, Icons, Menus, Pointer)
Historique de l’évalution des IHM

1984


1989



Lancement du Macintosh (68000) : succès fondé sur la
qualité de l'interface et la convivialité
PC et compatibles Windows et Presentation Manager
CUA (Common User Access, guide)
Parallèlement dans le monde UNIX sur stations de travail :
X-Window, Motif, Open Look, NextStep. "convivialité" ,
"intuitivité", cohérence, contrôle à l'utilisateur
années 1990

interfaces multimodales, hypermédia, web (réseau)
Ergonomie
Définition
Vise à adapter les postes de travail aux caractéristiques
physiologiques et psychologiques de la personne
Ergonomie logicielle
Définition
Vise à adapter les logiciels à l’utilisateur pour diminuer les
erreurs, le temps d'apprentissage rendre le logiciel le plus
facilement utilisable.
Évaluer, quoi ?
Fiabilité et qualité technique
Utilisabilité :
Capacité à permettre à l'utilisateur d'atteindre facilement ses objectifs
Qualité de l’interface (ergonomie)
Utilité:
Adéquation aux objectifs de haut niveau du client
Le logiciel satisfait-il les spécifications
Usages:
Utilisation réelle du logiciel
Le logiciel est-il utilisé comme prévu ?
Évaluer, quand ?
En cours de conception
conception itérative de maquettes/prototypes
conception centrée utilisateur
En cours de réalisation
méthodes classiques de contrôle qualité
En cours de diffusion
satisfaction des utilisateurs
incidents critiques
Avant un achat
comparaison de logiciels
évaluation sommative
Les méthodes
de conception et d’évaluation
Les méthodes d’évaluation
Expérimentations contrôlées
Quasi-expérience
Etude d’utilisabilité
Expériences contrôlées
Discipline : psychologie expérimentale/médecine
But :
tester une hypothèse ou étudier des corrélations
produire une connaissance scientifique
Étapes:
 Spécifier l'hypothèse : qu'est-ce qu'on étudie ?
 Spécifier les variables indépendantes : qu'est-ce qui varie ?
 Opérationnaliser le comportement comment étudier ces variations ?
 Spécifier les variables dépendantes qu'est-ce qu'on mesure ?
 Spécifier les procédures répartition des groupes, rôle de l'expérimentateur etc.
 Identifier les tests statistiques appropriés y a-t-il une différence ?
Expériences contrôlées-Quelques problemes
Réalisées en labo:
permettent un plus grand contrôle des variables
ne peuvent pas être généralisées à des situations réelles
Quasi-Expériences
But : Cf. expérimentation contrôlée mais en situation réelle
Problème : on ne contrôle pas tous les facteurs
Solution :
Faire varier
 le dispositif expérimental
les méthodes expériences , études de cas, interviews
recouper les informations
Etudes d’utilisabilité
l’utilisabilité
Utilisabilité : norme ISO 9241
Degré selon lequel un produit peut être utilisé, par des
utilisateurs identifiés, pour atteindre des buts définis avec
efficacité, efficience et satisfaction, dans un contexte
d’utilisation spécifié
l’utilisabilité et l’utilité
l’utilisabilité et l’utilité
Méthodes d’évaluation
de l’utilisabilité
Évaluer l’utilisabilité d’un système
Critères de l’utilisabilité:
efficacité: atteinte du résultat prévu
efficience: consommation d’un minimum de ressources
satisfaction de l’utilisateur: confort et évaluation subjective
facilité d’apprentissage
facilité d’appropriation: prise en main du logiciel
facilité d’utilisation
fiabilité: pas ou peu d’erreurs d’utilisation
Techniques d’évaluation de l’utilisabilité
Évaluation analytique:
scénario d’utilisation, jugements d’experts
utilisation de référents
évaluations heuristiques
critères d’évaluation ergonomique
Techniques d’évaluation de l’utilisabilité
Évaluation expérimentale:
observation et recueil de données
entretiens, questionnaires
Jugements d’experts
Caractéristiques:
nécessité d’avoir plusieurs experts en début de projet pour
évaluer des produits existants
utiles pour éliminer les grosses erreurs
nécessité de disposer de scénarios d’utilisation du système et
d’une description des futurs utilisateurs
Jugements d’experts
Mais...
les experts ne peuvent pas remplacer complètement les
utilisateurs
les experts ont souvent des domaines privilégiés qui constituent
des biais d’évaluation
Inspections cognitives (cognitive walkthroughs)
But:
évaluer le système en se mettant à la place de l’utilisateur
Moyen:
spécification d'une série de tâches et des séquences d'actions pour les réaliser
évaluation en imaginant ce que ferait l'utilisateur
comprend-il les messages, le comportement du système ?
interprétation et prise en compte des résultats
Entretiens critiques
But:
identifier des exemples spécifiques de problèmes rencontrés par les utilisateurs
Procédure:
interviewer l'utilisateur dans son environnement de travail
lui demander de se souvenir d'un problème particulier vécu dans un passé
récent
lui demander de décrire chaque incident en détail
lui demander ce qui est habituel et ce qui ne l'est pas dans l'incident
Observations
But:
identifier les gros problèmes du logiciel (prototype / système final)
Procédure
en laboratoire ou sur le terrain
choisir au moins 2 utilisateurs qui agiront indépendamment
définir une mission spécifique (résoudre un problème, suivre un scénario)
décider de ce que l'on veut mesurer
demander aux utilisateurs d'effectuer la tâche (méthode intrusive)
observation directe simple avec explication à haute voix
à deux pour observer leurs interactions (interrogations, explications)
enregistrer les interactions, puis les analyser
papier, audio, vidéo, trace informatique
Observations-Analyses de protocoles(1)
Traces papier:
coût de traitement acceptable
ne donnent qu’un point de vue
Observations-Analyses de protocoles(2)
Enregistrements vidéo (ou audio):
Découvrir les activités de l’utilisateur à travers un enregistrement vidéos
Inconvénients:
très long et coûteux à dépouiller
Observations-Analyses de protocoles(3)
Traces informatiques:
mémorisation de (toutes) les actions de l’utilisateur
permet de rejouer la session
objectif : dépouillement automatiquement
l’analyse doit être prévue avant
Questionnaires
But:
résumer économiquement l’avis de nombreux utilisateurs
Suppositions:
Les utilisateurs répondent honnêtement
Les questions concernent le phénomène auquel on s'intéresse
Procédure:
déterminer le public (représentatif) destinataire du questionnaire
comment diffuser/récupérer
comment analyser les résultats (automatiquement/manuellement)
Types de questions:
informations générales
questions ouvertes, dirigées, QCM
échelle, classements
Évaluation des utilisateurs
Connaissances et expérience de l'utilisateur:
Ne se réduit pas à expert ou novice :
Donc, divers niveaux d'interface, adaptables selon les utilisateurs sont
à prendre en compte :
 Niveau d'éducation (capacité à abstraction, niveau de lecture)
 Habitude à frappe clavier
 Expérience en informatique
 Expérience sur la tâche
 Expérience en systèmes automatisés
 Utilisation d'autres systèmes ....
Évaluer l’utilité d’un système
Adéquation aux objectifs de haut niveau du client:
le logiciel satisfait-il les spécifications ?
l’utilisateur peut-il accomplir sa tâche à partir des fonctionnalités du
système ?
Critères d’évaluation
ergonomique
Critères d’évaluation ergonomique
10 heuristiques
Nielsen
Performance du couple ordinateur-utilisateur
 Meinadier
5 critères centraux d’évaluation
Shneiderman
7 règles d’or
 Coutaz
8 critères
 Ravdenet Johnson
critères ergonomiques
Bastien et Scapin (INRIA)
Critères d’évaluation –Meinadier(1/2)
Performance du couple ordinateur-utilisateur [Meinadier, 91]
Bonne IHM
1.facilité d’apprentissage
2.facilité, efficacité et sécurité d’utilisation
3.plaisir d’utilisation
4.acceptabilité du logiciel
5.satisfaction des utilisateurs
6.productivité satisfaisante du couple personne-machine
7.rentabilité pour l’entreprise
Critères d’évaluation –Meinadier(2/2)
Performance du couple ordinateur-utilisateur [Meinadier, 91]
Mauvaise IHM
1.niveau individuel
confusion
frustration
panique
stress
ennui
Critères d’évaluation –Meinadier(2/2)
Performance du couple ordinateur-utilisateur [Meinadier, 91]
Mauvaise IHM
2.Niveau entreprise / social
rejet, erreurs graves (centrale nucléaire)
mauvaise ou sous-utilisation, baisse des performances
régression vers des tâches d’exécution
coûts : modification des tâches, réécriture du système,
détournement…
Critères d’évaluation -Shneiderman
5 critères centraux d’évaluation [Shneiderman, 92]
1.temps d’apprentissage
2.vitesse d’exécution des tâches par le couple homme/machine
3.taux d’erreurs et facilité de leur récupération
4.rétention de l’apprentissage dans le temps
5.satisfaction subjective des utilisateurs
Critères d’évaluation -INRIA
8 critères ergonomiques pour évaluer une interface utilisateur
[Bastien & Scapin, 93]:
1.guidage
2.charge de travail
3.contrôle explicite
4.adaptabilité
5.gestion des erreurs
6.homogénéité/cohérence
7.signifiance des codes et dénominations
8.compatibilité
Critères d’évaluation -Coutaz
7 règles d’or [Coutaz, 90]:
1. lutter pour la cohérence
2. lutter pour la concision
3. réduire la charge cognitive
4. mettre le contrôle entre les mains de l’utilisateur
5. souplesse d’utilisation
6. structurer le dialogue
7. prédire les erreurs
Qu'est-ce que l'évaluation heuristique ?
C'est une technique d'analyse réalisée à partir de guides
d'évaluation appelés guides heuristiques, il s'agit de
passer en revue toute l’interface à l'aide d'une grille
d'analyse et de vérifier si les guides spécifiés sont
présents ou non.
Qu'est-ce que l'évaluation heuristique ?




Nous dirons que cette méthode fait gagner du temps
(et donc de l'argent !)
Elle permet d'évaluer rapidement le bon
fonctionnement d'une interface (à condition bien
entendu de disposer des bons guides)
Les premières listes de guides utilisées (en 96-97)
étaient plutôt longues et mal adaptées aux besoins des
utilisateurs
La principale evaluation heuristiques est celle de
J.Nielsen avec sa liste de 10 guides heuristiques qu'il
utilise depuis presque une dizaine d'années.
Qu'est-ce que l'évaluation heuristique ?
Quand ?




Elle est appliquer souvent, dès que le test se révèle
impossible de par l'insuffisance de la matière
accessible.
Notamment dans les premiers stades de conception.
Mais l'analyse peut être réalisée également à partir de
maquette papier, ou maquette écran (type acrobat)
Lorsque le produit à évaluer est suffisamment évolué,
on peut aussi vérifier la validité de l'interface (à l'aide
des guides) en interview avec l'utilisateur
.
Qu'est-ce que l'évaluation heuristique ?

Comment ?



L'E.H. est généralement réalisée par une équipe de
2 ou 3 experts qui passent en revue l'ensemble de
l'interface au moyen d'une liste de principes
appelés "heuristiques ».
Chaque expert évalue de son côté l'interface avec
les guides qui lui sont fournis
Ensuite chacun confronte son point de vue avec
celui de son collègue
Critères d’évaluation -Nielsen
10 heuristiques [Nielsen, 93]:
1. proposer des dialogues simples, naturels et minimum
2. parler le langage de l’utilisateur
3. minimiser la charge de mémoire de l’utilisateur
4. être cohérent (sans contradiction), respecter les standards
5. refléter le monde réel
6. fournir un retour à l’utilisateur
7. permettre une personnalisation par les utilisateurs expérimentés
8. prévenir les erreurs
9. aider l’utilisateur à reconnaître, diagnostiquer et réparer les erreurs
10. rendre accessible aide et documentation
Quelques exemples
Guidage-feedback immédiat
À faire:
changer l’apparence d’un objet
sablier pour les attentes courtes
indicateur de progression pour les tâches plus longues (>5s)
À ne pas faire:
Contrôle explicite-contrôle utilisateur
À faire:
laisser l'initiative à l'utilisateur
laisser l'utilisateur:
 basculer d'une activité à une autre
arrêter/interrompre une activité
À ne pas faire:
enregistrement automatique sans information
Compatibilité -adaptation aux utilisateurs
À faire:
À prendre en compte:
âge
niveau «technologique»
handicaps
fréquence d’utilisation
Rédaction d’une évaluation ergonomique
1. Tester
2. Observer les utilisateurs
3. Croiser les sources (guidelines, critères ergonomiques)
4. Faire des arbitrages
5. Être diplomate (attention aux formulations)
6. Être constructif (proposer des solutions)
7. Être pédagogue (justifier les remarques et solutions)
Merci pour votre
Attention !