CRAW2013 : mobilité et accessibilité

Après le la conférence de Jean-Pierre Villain sur HTML5 et ARIA, voici la deuxième partie de mon compte-rendu de la Conférence Romande sur l’Accessibilité du Web 2013, cette fois sur les aspects de mobilité.

Il n’a échappé à personne que nous vivons désormais dans un monde mobile. Depuis la sortie de l’iPhone en 2007, notre usage de l’Internet a complètement changé, si bien qu’on le consomme aujourd’hui davantage sur mobiles et/ou tablettes, que sur nos traditionnels ordinateurs de bureau. Il n’est donc pas surprenant que plusieurs des présentations de cette journée soient portées sur le web mobile. Car si le web a évolué, l’accessibilité a – et doit – évoluer avec.

Démonstration d’usages mobiles

La première présentation sur le sujet consistait en une démonstration de la révolution permise par le mobile pour les personnes handicapées, et particulièrement pour les non-voyants.

Ainsi, Daniele Corciulo (lien externe), non-voyant, explique tout ce que l’iPhone lui permet de faire.
Il commence par une démonstration des possibilités de navigation basiques une fois les options d’accessibilité activées.

  • Pour déverrouiller le téléphone, le configuration classique demande de faire glisser un slider sur le côté. Mais en tant que non-voyant, c’est une opération délicate. En activant les options d’accessibilité, il suffit de faire un double tap.
  • De manière générale, le double tap permet de valider une action. Ainsi, pour naviguer parmi les applications, il suffit de glisser le doit sur la droite ou la gauche (on passe alors à l’application suivante ou précédente). Une fois sur l’application désirée, un double tap permet de la lancer.

Il s’agit des manipulations de base, mais avec ces quelques adaptations ergonomiques natives, le téléphone est totalement utilisable par un non-voyant !

Après cette première présentation, il passe à la démonstration de quelques applications.

Il commence par Blindsquare (lien externe) qui est une application dédiée aux non-voyants et combinant Foursquare (lien externe) et Open Street Map (lien externe). À partir de sa position géographique, l’application liste tous les lieux alentours (commerces, monuments, transports…). En sélectionnant un lieu, l’application donne l’itinéraire à emprunter pour s’y rendre.

Une autre application donnée en exemple est celle des CFF (équivalent Suisse de notre SNCF) qui lui permet à tout moment de consulter les horaires de trains, les arrêts mais aussi le quai de départ des trains.

Une autre application qui a changé sa vie quotidienne : l’application du journal 20 Minutes. Avant, pour lire le journal, il devait attendre que la version audio soit téléchargeable, il devait la télécharger et une fois fait, il lui fallait encore le matériel pour l’écouter. Aujourd’hui, il lui suffit de lancer l’application et toutes les informations lui sont directement accessibles. Il peut ainsi écouter le journal dans le train, à l’instar d’un voyant lisant son journal sur la route de travail.

Malgré ces quelques très bons exemples, Daniele émet quand même un bémol. Car si l’iPhone est totalement utilisable nativement par un non-voyant, ce n’est pas nécessairement le cas de toutes les applications.
En effet, l’accessibilité d’une application dépend de la qualité du développement. Si les développeurs ne respectent pas les normes définies par Apple pour créer leur application, cette dernière peut être au final totalement inaccessible…

Il donne en exemple – de ce qu’il ne faut pas faire – l’application TicketCorner. Cette application permettant de réserver des places de spectacles ou d’évènements sportifs est en effet inutilisable pour un non-voyant : la liste des évènements n’est absolument pas restituée par VoiceOver.

Pour ne pas finir sur une mauvaise note, Daniele donne encore de bons exemples : il envoie ainsi un tweet en direct (lien externe) depuis l’application Twitter ou encore effectue un transfert d’argent avec l’application PostFinance.

Après cet ensemble de démonstrations toujours impressionnantes, un auditeur pose la question de l’accessibilité d’Android par rapport à iOS. Et ça tombe bien, la présentation suivante compare justement les 2 systèmes. 🙂

Évaluation de l’accessibilité des téléphones tactiles à l’aide de tests utilisateurs

Directement après la démonstration de Daniele Corciulo, Arnaud Béguin (lien externe) présente les résultats d’une étude comparative sur l’accessibilité de l’iPhone 4S et du Nexus (sous Android 4.0), réalisée à la fin de l’été 2012.
L’étude s’est déroulée sous forme de tests utilisateurs impliquant 10 utilisateurs non-voyants. Chacun de ces utilisateurs devait effectuer des tâches prédéfinies, sur iPhone et sur Android. L’objectif était d’évaluer l’usage des fonctions primaires du téléphone :

  • Interactions gestuelles
  • Retours d’information
  • Entrée de texte
  • Navigation dans une liste
  • Appel téléphonique

L’analyse des tests s’est portée sur l’observation de réussite ou non des tâches ainsi que sur les retours du ressenti des utilisateurs. Et sans trop de surprise, l’iPhone se détache clairement d’Android.

L’une des principales raisons est que l’iPhone a été pensé dès le départ pour être utilisable par des personnes non-voyantes. Au contraire d’Android qui ne disposait pas d’options d’accessibilité dans ces premières versions.
Et même si Google a beaucoup amélioré cet aspect au fil des versions, le fait qu’Android soit hautement personnalisable ajoute une difficulté à l’obtention, en bout de chaîne, d’une interface accessible. Ainsi, Arnaud explique que des téléphones sous Android peuvent être totalement inaccessible quand le constructeur personnalise trop – et surtout mal ? – l’interface.

Au delà de la différence de maturité de chacune des plateformes sur le point de l’accessibilité, certains points constatés pendant les tests mettent tout de même des différences cruciales en lumière.

Déjà pour la navigation dans les menus :

  • Sur iPhone : il faut glisser à droite ou à gauche comme on l’a vu lors de la présentation de Daniele. À chaque glissement, l’intitulé de l’item sur lequel on se trouve est restitué et il faut effectuer un double tap pour l’ouvrir.
  • Sur Android : on navigue à l’aide de 2 doigts avec un mouvement de haut en bas. Et déjà un premier problème apparaît : avec un mouvement haut/bas, il arrive que les utilisateurs déroulent le panneau de paramètres du téléphone (la barre d’état en haut du téléphone qui se déroule), ce qui les interromps dans leur navigation. De la même manière, avec un mouvement bas/haut, les utilisateurs retournent à l’accueil ou à l’étape précédente, puisque la plupart des téléphones sous Android ont des boutons pour ces fonctions en dessous de l’écran.

Autant dire que l’avantage au profit du modèle de la marque à la pomme est déjà flagrant.
Mais ce n’est pas fini, un autre point noir d’Android se situe dans la saisie et la validation d’information :

  • Sur iPhone : la saisie d’information se fait assez intuitivement, en fonction de la position de son doigts sur l’écran, on prend le focus sur une option. On navigue ensuite dans les options de gauche à droite et inversement. Chaque option est vocalisée, permettant à l’utilisateur de savoir sur laquelle il se trouve. Un double tap permet de valider l’option et elle est, le cas échéant, vocalisée avec une intonation différente, indiquant bien que l’action a été effectuée. À noter que cette logique s’applique à la navigation dans les menus mais aussi à la saisie d’informations avec le clavier.
  • Sur Android : c’est une autre paire de manche. À commencer par le parcours du clavier ! La navigation se fait en parcourant l’écran avec le doigt. Les options parcourues sont restituées. Mais dès lors que l’utilisateur lève le doigt, l’option sur laquelle il se trouvait est saisi, sans retour d’information vocal. Si pour la moindre raison son doigt perd le contact avec l’écran, il active une option indésirée… Lorsqu’il s’agit de saisir du texte, les manipulations a effectuer se révèlent être un parcours du combattant.

Arnaud a donné bien d’autres détails, mais ces 2 aspects étaient ce qu’il y avait de plus marquants et ils permettent de se faire une idée assez claire de la différence de niveau.

Après, Android ne cumule pas que des mauvais points. Dans les points positifs, une gestion du clavier numérique assez intelligente : peu importe où le doigt est posé sur l’écran, c’est systématiquement le 5 qui se trouve dessous. Le reste du clavier numérique est donc positionné autour du 5, à l’instar d’un clavier numérique physique. Pour taper 2, il suffit de glisser le doigt au dessus. Pour 9, il faut glisser le doigt dans la diagonale bas/droite. Même s’il y a quelques problèmes, lorsque le doigt est posé sur un bord de l’écran notamment, c’est un système assez intelligent qui permet une saisie rapide.

En attendant la présentation détaillée, vous avez déjà un aperçu des retours de l’étude. 🙂 Au final, la comparaison est donc difficilement équitable et l’iPhone se détache clairement si on s’arrête à l’accessibilité des 2 plateformes.

Il serait intéressant d’avoir une étude équivalente avec Firefox OS quand ce dernier sera disponible chez nous. L’étude a en effet montré que l’un des avantages de l’iPhone était son environnement fermé. Est-ce qu’un environnement à l’opposé, entièrement à base de HTML, a une chance de concurrencer l’iPhone et de proposer un environnement modèle d’accessibilité ? Je l’espère.

Conclusion

Voilà pour cette deuxième partie orientée mobilité et qui clôture la matinée de conférences. 🙂
Sorti des aspects techniques, ces démonstrations et retours d’expériences ont toujours ce goût de réveil à l’eau froide. À titre personnel, j’adore. Ce sont des moments où on se trouve confronté à la réalité « du terrain » et à l’expérience réelle des utilisateurs. C’est toujours très enrichissant et ça permet de se rendre compte de la complexité à laquelle certains font face pour réaliser des tâches qui nous paraissent simples.

Mais au delà de cet aspect, c’est incroyable de se rendre compte que sans autre matériel que son téléphone, un non-voyant peut se déplacer de manière totalement indépendante. Si le web était déjà une révolution en termes d’accès à l’information pour les personnes en situation de handicap, le web mobile est une révolution pour l’accès au monde physique !

À bientôt pour la suite de ce compte-rendu. 😀