Temesis Pôle d'expertise au service des professionnels du Web

L'accompagnement qualité Web et accessibilité.

Accueil > Ressources > Articles > Le métier > Gérer la qualité de l’information sur un site Internet : la fiabilité de l’information, partie 1

Le métier

Gérer la qualité de l’information sur un site Internet : la fiabilité de l’information, partie 1

Auteur(s) : Elie Sloïm, Vincent Bénard

Publié le : 29 novembre 2007

Résumé :

Qu’est-ce que la qualité de l’information sur un site web et comment la mettre en oeuvre ? Ce premier article d’une (longue ?) série examine l’un des aspects importants de la qualité de l’information, à savoir sa fiabilité.

 Introduction - généralités sur la notion de qualité appliquée à l’information

La qualité de l’information produite par votre site à ses utilisateurs est une composante essentielle de l’expérience qu’ils vivront en surfant sur vos pages. Aussi devez vous vous assurer que cette qualité sera présente et bien réelle. Toutefois, constatons que cette question est peu traitée actuellement sur le net. Pour tenter de défricher ce très vaste sujet, essayons tout d’abord de définir ce que recouvre la qualité de l’information sur un site internet.

Nb. Ces problématiques peuvent également se rencontrer sur des sites intranet. Pour garder cet article dans des limites raisonnables, nous n’aborderons pas les quelques spécificités qui leurs sont liées.

On peut distinguer trois axes essentiels pour définir la notion de qualité appliquée à des informations sur un site :

1) La fiabilité de l’information :

Est-elle exacte ? Cette exactitude est-elle pérenne dans le temps, comment lutter contre le risque d’obsolescence ? La sécurité des informations est-elle garantie ? Y a-t-il correspondance entre la fiabilité perçue et la fiabilité réelle de l’information ?

2) Le coût de production de l’information :

Si l’information coûte plus cher à produire que les retombées positives qu’elle engendre, il y a évidemment non-qualité. Dans un web commercial, mais aussi associatif ou administratif, là où les ressources sont comptées, cette notion est essentielle, et hélas trop souvent oubliée par les décideurs.

3) Et enfin, bien sûr, l’efficacité de l’information :

L’information émise va-t-elle engendrer chez le lecteur les comportements souhaités par l’éditeur ?

En déclinant rapidement ce troisième axe, on arrive sur les notions d’information "pertinente", "permettant au visiteur de résoudre un problème, de prendre une décision", "attractive", "incitant au clic", "crédible, inspirant confiance", "exploitable, utilisable", etc.

Ces trois éléments de la qualité sont fortement interdépendants : les dispositifs mis en place pour assurer la fiabilité de l’information vont évidemment influer sur son coût, mais aussi sur son efficacité si la fiabilité perçue est bonne, etc.

Ce premier article (d’une série consacrée à l’ensemble des thèmes ci-dessus) va s’intéresser tout particulièrement au premier de ces points, la fiabilité de l’information, et à quelques éléments de méthode qui peuvent être mis en oeuvre pour l’assurer. Il ne prétend pas être exhaustif, ni énoncer des vérités intangibles, cet article cherche plutôt à défricher des pistes de progrès dans un domaine jusqu’ici peu couvert sur le web francophone.

 La fiabilité de l’information : Quels sont les typologies de non-qualité rencontrées ?

Nous identifions pour l’instant trois principaux types de non-qualité en matière de fiabilité de l’information sur internet :

1- L’information inexacte lors de sa publication (que ce soit par erreur ou par volonté délibérée de mensonge - dans ce dernier cas, cet article ne sera d’aucun secours)

2- L’information exacte lors de sa publication mais frappée d’obsolescence par la suite.

3- L’information désynchronisée, présente à plusieurs endroits du site avec des contenus différents : elle est donc fausse ou incomplète au moins une fois.

Nous verrons que les différents moyens envisageables pour lutter contre ces trois problèmes sont plus ou moins complexes à mettre en oeuvre, ce qui influe donc sur les coûts de production des données.

 Eléments de méthode pour limiter les risques d’inexactitude à la création de l’information : (cf. §2.1)

Vous devez étudier le processus de création afférent à chaque information pour identifier les fragilités et les circonvenir.

Quels type d’information gérez vous - L’information est-elle textuelle et produite à travers une longue procédure de saisie manuelle ? Ou est-elle issue de bases de données internes à votre entreprise (exemple : catalogue de produits informatisé) ? Dans ce second cas, cette base de données "métier" fait-elle déjà l’objet de procédures de qualité en matière de création ou de maintenance des informations qui y sont contenues ?

Dans le cas d’informations textuelles, l’un des moyens de limiter les risques de publication erronée est d’introduire une ou plusieurs validations de l’information produite, et de définir clairement la chaîne de responsabilité dans la production de l’information : qui doit produire quoi, vérifier quoi ?

Workflows - Des outils de production informatique adaptés peuvent vous aider à mettre en oeuvre ce processus de production sécurisé. Ainsi, si vous disposez d’une solution de gestion de processus (workflow), vous pouvez créer des processus de création adaptés à chaque type d’information, impliquant le bon nombre et le bon niveau d’acteurs en fonction des natures et des niveaux de risques rencontrés. Ainsi, sur des informations anodines, un seul niveau de validation doit suffire. En revanche, dans des rubriques à forte criticité (physique, politique, etc., peut être que les processus de validation doivent être renforcés. Mais attention, imposer des niveaux de validation disproportionnés par rapport à l’objet des informations émises peut entraîner une démotivation de vos producteurs d’information ou une déresponsabilisation des valideurs. Et d’une façon générale, n’oubliez pas que toute sur-qualité peut être assimilée à une non-qualité du fait des coûts engendrés.

L’indexation à votre secours - Une indexation efficace de votre information pourra vous aider à manager sa qualité (cf. article sur Veblog "organiser l’information des sites volumineux"), en y incluant des métadonnées dédiées à cet aspect :

Pour ce faire, il convient que la base de données gérant les informations de votre site soit correctement configurée. Un bon système de web content Management (WCM), généralement bâti autour de la technologie XML et de ses dérivés, pourra vous aider dans cette tâche. (Inutile de préciser que cela est plus difficile à mettre en oeuvre avec un site géré sous forme de pages statiques)

Un certain nombre de méta-données pourront être rattachées à une rubrique fonctionnelle du site et non à une page : responsable de la rubrique, qui est habilité à valider les informations de la rubrique, à en proposer, etc.

Pour le cas ou des pages sont produites à partir d’une base de données "métier", c’est au niveau de celle ci que les procédures de vérification du cycle de production de l’information devront être faites. Les cas de figure sont très variables (la base est elle remplie manuellement ? Est-elle alimentée automatiquement à partir de systèmes de mesure ? etc.) aussi ne seront-ils pas évoqués ici, mais les principes de base énoncés ci avant (nomenclature unique, processus de vérification définis, etc.) restent valides.

 Prévenir l’obsolescence de l’information (cf.§2.2)

Quelles informations sont concernées - Certaines informations sont "intemporelles", comme un discours de ministre, ou une interview : si l’information est clairement identifiée comme telle, elle ne nécessite pas de mise à jour particulière : après tout, un discours est un discours, et il doit le plus souvent être maintenu sur un site tel qu’il a été prononcé. En revanche, selon que ce discours corresponde ou non à la politique actuelle de la structure émettrice, sa place dans le site (sections actives, ou archives, ou poubelle) pourra être différente.

De même les articles de journaux peuvent ils être laissés tel quels, si leur datation est absolument rigoureuse. Mais ils doivent clairement être identifiés comme des articles.

En revanche, des pages à vocation explicative, des caractéristiques de produit, des interprétations juridiques ou des pages d’aide à la création de sites web efficaces doivent parfois voir leur contenu ajusté parce que devenu inexact avec le temps.

Or ce point est souvent négligé par de nombreux sites. La mise en place d’un suivi de l’information ("monitoring") peut se révéler nécessaire (si le risque associé est élevé, comme toujours).

Gérer la validité de l’information dans le temps - Pour ce faire, la notion de durée de vie de l’information, ou de "certificat de validité", est importante. Pour toute information, définir une date de création et une période de validité (renouvelable ou pas) est absolument indispensable. Il n’y a à notre connaissance aucune exception à cette règle.

Tout bon outil de WCM devrait vous aider à gérer ces variables. Hélas, force est de constater que cette notion est souvent absente de l’argumentaire commercial des vendeurs de tels systèmes, ce qui peut laisser croire que ce point précis n’est que rarement inclus dans les possibilités offertes par les produits du marché. (A vérifier, tout de même...)

Ainsi, les méta-données suivantes pourront elles être rattachées aux informations :

A ce stade, et pour prévenir les accusations d’usine à gaz, précisons que la plupart de ces méta-données peuvent être renseignées de façon "automatique" : elles peuvent être créées une fois par un administrateur pour chaque rubrique et rattachée à chaque page sans saisie supplémentaire.

 Eviter les informations désynchronisées (cf. §2.3)

L’une des contrariétés les plus difficiles à circonvenir sur un site volumineux, dans lequel de multiples départements interviennent, est d’éviter que plusieurs informations contradictoires sur un même sujet ne soient publiées. Or cela arrive fréquemment, notamment sur de gros sites administratifs ou associatifs, mais aussi parfois sur des sites privés.

Lorsque un domaine est géré par une unité fonctionnelle, et que la séparation est claire, le risque de désynchronisation est faible. Mais lorsque dans une organisation les frontières de compétence entre services sont floues, alors le pire est à craindre.

Deux cas de figure se présentent : celui ou les informations du site sont textuelles et saisies manuellement, et celui ou les informations contenues dans une page proviennent de bases de données métier. Commençons par celui ci.

Gérer rigoureusement des sources uniques - Le seul moyen d’éviter que deux données en provenance du système d’information de l’entreprise ne soient désynchronisées, consiste à adopter une politique rigoureuse de source unique : lorsqu’une donnée doit être publiée en divers endroits du site, elle doit provenir d’une seule base. Cela paraît évident, mais lorsque l’entreprise ou l’administration concernée possède des dizaines de bases développées pour leurs besoins propres par chaque département, cela peut vite s’avérer problématique.

Par exemple, le département R. et D. peut avoir une base de donnée des productions de l’entreprise comportant des données de nature technique différentes de celle du service marketing, exprimées en termes commerciaux. Si des données relatives aux produits de l’entreprise sont différentes dans l’espace "catalogue" et dans l’espace "Recherche et Développement" d’un site, et que l’internaute le remarque, cela peut faire désordre.

Une fonction importante : l’administration des données - Ici intervient une fonction importante de l’organisation des sites web (cf. article sur Veblog, "les fonctions nécessaires pour animer un site internet moderne") , l’administration des données (AD). La ou les personnes en charge de cette administration doivent être en mesure de :

Certaines structures mettent en place des démarches de mise en oeuvre d’infocentres destinés à agréger les données de l’entreprise au sein d’une architecture d’échange et de consultation unifiée. Lorsque de tels projets sont mis en oeuvre, l’aspect de la diffusion des données sur Internet doit y être intégré dès l’amont.

De plus en plus de sites internet seront articulés autour des données internes de l’entreprise à l’avenir, aussi la fonction d’administration des données sera-t-elle un rouage essentiel d’une politique tournée vers la fiabilité de l’information.

 Informations désynchronisées à saisie manuelle : casse tête sans bonne solution ?

Le problème - Imaginons un site comportant une section dédiée à l’aménagement des rivières et une autre aux inondations. Il peut être tout à fait logique d’avoir deux sections dans ce cas précis, les deux sujets étant suffisamment éloignés. Pourtant, il est clair que deux sujets comme cela ont une forte "zone de recouvrement". Si les deux services qui gèrent chaque rubrique ne se concertent pas ou mal, on peut retrouver des textes contenant des éléments désynchronisés, y compris sur des sujets pour lesquels le niveau de risque lié à l’inexactitude de l’information est élevé.

Ebauche de solutions insatisfaisantes - Bien sûr, l’équipe éditoriale en charge du site peut effectuer un contrôle de qualité et avertir les deux services du problème, pour que ceux ci s’entendent sur la bonne version des faits. Mais lorsqu’un site comporte plusieurs milliers de pages, un contrôle effectué a posteriori par des non spécialistes des sujets traités risque d’être assez peu efficace.

Malheureusement, dans les nombreux cas où vous ne pouvez pas unifier les rubriques concernées, le seul garde fou identifié à ce problème se situe dans la capacité des différents département de la structure à communiquer entre eux et à gérer ensemble des projets communs, dont certaines rubriques du site internet. Cette capacité dépend du fonctionnement global de l’entreprise et non de celui du site internet.

Quelques pistes plus ou moins réalisables - Toutefois, le responsable opérationnel du site pourra essayer, préventivement, d’identifier les différentes sections du site présentant des recouvrements potentiels, identifier le niveau de risque lié à la non qualité de l’information dans chacune des zones, et, s’il n’a pas le pouvoir d’améliorer le fonctionnement inter-services si celui ci est mauvais, au moins doit-il avoir celui de ne pas publier certains types d’informations lorsqu’il identifie un risque trop élevé non réductible.

Malheureusement, publier telle ou telle information sur un site relève parfois plus de l’enjeu de pouvoir que de la démarche rationnelle : force est de constater que dans le web administratif notamment, de nombreuses rubriques sont mises en ligne sans que les risques de non qualité identifiés n’aient été circonvenus.

 Conclusion - comment éviter l’échec, l’usine à gaz, ou le fiasco auprès des producteurs d’information ?

Je sens poindre chez quelques sceptiques l’accusation de montage d’usine à gaz pour fiabiliser l’information d’un site internet : workflows, indexation avec de très nombreuses variables, monitoring avancé de l’information, administration des données... Tout ceci peut coûter très cher.

L’utilisabilité, élément clé de la qualité - Une première piste pour éviter l’usine à gaz : testez l’utilisabilité de vos outils de gestion de la production de votre site web et de ses données. Les workflows sont ils simples d’usage, de paramétrage ? L’interface de saisie ou de validation est elle intuitive et fiable ? les champs d’indexation à remplissage automatisable sont ils effectivement automatisés ? l’administrateur de données a t il des outils de catalogage simples à sa disposition ? La prolongation de la durée de vie d’une information est elle facile à faire ? Le système prévient il les erreurs ? rend il les erreurs facilement repérables, aide-t-il à leur correction ? (cf. article, "les caractéristiques d’un système utilisable")

En cas de mauvaises manipulations à répétition, la qualité de votre information sera régulièrement altérée, tant dans sa dimension "fiabilité" que dans sa dimension "coût de production". Aussi l’utilisabilité de la chaîne de production de votre site internet est-elle un élément essentiel de la politique de gestion de la qualité des informations que vous mettrez en place. Vous devrez sans doute réaliser des tests d’utilisabilité sur cette chaine de production.

L’équilibre entre recherche de la fiabilité et opérationnalité - Cette question nécessite un traitement approfondi. Afin de maintenir cet écrit déjà fort long dans des limites raisonnables, elle sera évoquée dans une deuxième partie, suite logique de celle ci.

Temesis - SAS au capital de 1000€ - 91 avenue de la République - 75011 Paris - France - +33 (0)1 70 95 70 70