Accès par Retour Tactilo-oral Aux Documents Numériques (ART-ADN)
CONTEXTE GÉNÉRAL ET DESCRIPTION DU PROJET
Un rapport produit en 2000 par l'Agefiph (Fonds pour l'Insertion Professionnelle des Personnes Handicapées) mentionne qu'en France, au-delà des corrections dues au vieillissement, environ 10 % de la population connaît des difficultés visuelles à des degrés divers. Selon une estimation établie sur le croisement d'informations issues des services de santé, des organismes spécialisés (scolaires et professionnels), des CDES ou des COTOREP et du ministère des Finances, sur 750 000 naissances annuelles environ 100 000 personnes ont ou auront un problème de vision. Aujourd'hui, les aveugles représentent environ 1 Français sur 1 000. On estime à environ 77000 leur nombre en France, dont 15 000 ont appris le Braille ; et 7000 seulement le pratiqueraient.
L'enjeu principal du projet pluridisciplinaire ART-ADN est le développement d'applications qui améliorent l'accès au Web par les non-voyants et en particulier par cette majorité qui ne pratique pas le Braille. Dans une démarche design for all nous pensons que ce projet produira de plus des résultats utiles et utilisables dès que l'accès aux documents numériques est considéré dans des situations où l'utilisation de la vue est rendue difficile, voire impossible (déficience visuelle due au vieillissement, vue occupée, taille réduite voire nulle de l'écran ).
La décennie écoulée a vu un fort développement des technologies informatiques favorisant un accès non visuel aux supports numériques : la synthèse vocale et la plage Braille sont les principaux dispositifs utilisés par les non-voyants pour accéder à l'informatique et par là même à Internet. Ces deux interfaces tactile et vocale sont généralement utilisées en sortie d'un lecteur d'écran, peu efficaces sur le Web. Une alternative est l'utilisation des navigateurs "parlants" permettant une lecture simplifiée des informations disponibles sur la page Web. On peut citer Braille-Surf ou plus récemment MozBraille de BrailleNet, et HomePage Reader d'IBM. Mais quel que soit le choix du navigateur, le non-voyant n'aura jamais une vision globale de la page en deux dimensions. Il ne la perçoit que par des fragments ordonnés dans une seule dimension (temporelle), fragments qu'il doit manipuler mentalement pour reconstituer l'information. Dans le cas particulier d'une navigation sur tablette tactile, cette approche rend inévitable une énumération orale préalable et quasi-exhaustive des éléments d'interfaces positionnés sur l'écran afin de pouvoir les repérer, les comprendre et les actionner. L'absence de naturel et de souplesse de cette interaction, qui ne favorise pas un apprentissage efficace, pèse fortement sur l'utilité et l'utilisabilité pour certains usagers de tout un pan de nouvelles technologies. Notre constat est qu'il est impératif de permettre une appréhension non visuelle du support numérique qui soit à la fois globale et naturellement interactive. Nous proposons dans ce projet de mettre en place des solutions innovantes pour permettre la transposition dans un monde non visuel de ce « premier regard », jeté par les usagers traditionnels, qui est source d'une « primo-représentation » à la fois précoce et globale de l'interface parcourue.
Les partenaires de ce projet STIC/SHS, soutenus par le pôle MODESCO, sont le laboratoire PALM (Michèle Molina Professeur des universités - spécialiste de la modalité tactile et du handicap), ainsi que équipes d'électronique (Jean-Marc Routoure professeur des universités) et d'informatique (Fabrice Maurel, Maître de conférence - Gaël Dias, professeur des universités - Pierre Beust, Maître de conférence) du laboratoire GREYC capables de produire des prototypes matériels et logiciels adaptés aux solutions imaginées. L'évaluation du système pourra être mise en place grâce à la collaboration d'une association bas-normande impliquée dans le soutien aux personnes déficientes visuelles (CECITIX).
OBJECTIFS POURSUIVIS
Un non voyant ne pourra « pointer » directement une partie de l'écran comme un voyant le ferait avec les yeux ; et cela dès le premier regard sur la page (appelé « first glance », avant même l'accès à son contenu articulable (rendu généralement aux aveugles par une lecture ou une description produite par la combinaison d'une synthèse de parole et d'un retour braille ; et dans le cas des dispositifs nomades, la limitation est plus dure puisque l'ajout d'un terminal braille s'avère peu pratique). De plus il a été montré que l'impact cognitif de ce « first glance » joue un rôle prépondérant dans l'efficacité de la compréhension et la mémorisation des informations et donc sur la mise en place de stratégies de haut niveau de lecture (lecture en diagonale, recherche rapide d'information, refus de lecture d'un texte trop long...). Nous nous proposons à travers ce projets d'évaluer une stratégie différente pour donner un accès tactile palliant cette difficulté lors de la navigation web des non-voyants : il s'agira de donner au non voyant une représentation tactile de la structure visuelle des interfaces présentés sur une tablette numérique. Cela grâce à des actionneurs placés sur la main active : les informations, en terme de pixels et de structure logique du document, seront fournies par la tablette au contact de la main puis traduites par les actionneurs sous la forme de vibrations localisées, à fréquences et amplitudes variables.
Autrement dit, notre ambition est de remplacer la capacité d'exploration visuelle d'un individu, qui s'appuie sur la vibration lumineuse de l'écran, par une capacité d'exploration manuelle, qui s'appuie sur la vibration tactile des actionneurs.
Cette idée vient à contre-courant des tentatives actuelles de produire des technologies « intelligentes » en construisant des applications complexes dans lesquelles la mise en place du couplage entre l'homme/machine est pensée en amont par les concepteurs. Nous pensons que le rôle de notre système sera de traduire le plus fidèlement possible les informations d'une modalité vers une (ou plusieurs) autres en préservant à la fois une efficacité informationnelle et cognitive. L'utilisateur aura alors à sa charge l'interprétation active des éléments perçus et pourra prendre des décisions et avoir des initiatives qui faciliteront la découverte, l'apprentissage voire le contournement des usages prévues initialement.
***