Temesis Pôle d'expertise au service des professionnels du Web

L'accompagnement qualité Web et accessibilité.

Accueil > Ressources > Articles > Technologies > Technologies et prestataires, 3ème partie : la maîtrise de l’information

Technologies

Technologies et prestataires, 3ème partie : la maîtrise de l’information

Auteur(s) : David Mollière, Elie Sloïm

Publié le : 29 novembre 2007

Résumé :

Après les erreurs stratégiques et les risques technologiques liés aux choix d’un e-prestataire, quelles solutions mettre en place pour faire face à une apparente abondance d’information et à la difficulté d’évaluer l’information prospective ?

 Introduction

Nous continuons notre exploration des risques potentiels qui accompagnent nécessairement les choix technologiques. Dans les deux premiers articles de cette série, nous avons commencé par identifier les nombreux risques stratégiques et technologiques potentiels. Il est certes intéressant de connaître ces risques mais il est plus intéressant encore de comprendre à quoi ils sont dus. Comme toujours dans l’optique maîtrise de la qualité, c’est bien la connaissance des causes qui nous permettra de mieux maîtriser les effets.

Dans le cas qui nous concerne, c’est à dire la prise de décision stratégique ou technologique dans le domaine des services en ligne, c’est la recherche et la qualification de l’information qui va nous permettre d’affiner le processus décisionnel et de mettre en place un système permettant une prise de décision argumentée.

Mais avant d’aborder le processus de prise de décision en tant que tel, nous allons nous intéresser à deux difficultés liées à la nature de l’information technologique : l’apparente abondance d’information d’une part, la faiblesse de signaux et les distorsions auxquels ils sont soumis d’autre part. L’analyse de ces difficultés nous permettra d’identifier un certain nombre de risques, pour lesquels nous proposerons des solutions opérationnelles.

 Première difficulté : L’illusion de l’abondance d’information

Si le fait d’enfoncer une porte ouverte devenait un sport olympique, le fait d’affirmer que "trop d’information tue l’information" permettrait à coup sur d’obtenir une médaille d’or. Sur Internet, c’est encore plus vrai, mais comme votre temps et précieux, nous nous abstiendrons de développer, et nous limiterons à affirmer que c’est évidemment l’un des principaux obstacles à la maîtrise de l’information.

En revanche, il faut absolument combattre une idée reçue qui consiste à dire que toute information est disponible gratuitement sur Internet. C’est faux, car toutes les informations ne sont pas disponibles sur Internet. Et pour celles qui existent, le coût de recherche n’est pas négligeable que ce soit en temps passé et/ou en compétences nécessaires. Témoin le nombre croissant de prestataires spécialisés dans le domaine de la veille et de la prospective. Cette illusion se manifeste sous la forme de l’utilisation d’Internet comme un supermarché de l’information. Il faut avouer qu’il est séduisant pour toute personne découvrant internet de conclure qu’il est possible de trouver "gratuitement" une information en quelques secondes. Le premier risque de cette illusion est de se lancer dans la recherche d’une information qui n’existe pas (ou pas sur internet), ce qui aboutit à un échec et résulte en une perte de temps. Le second risque est de s’engager dans une démarche de recherche d’une information que l’on n’a pas les moyens humains, techniques ou financiers de trouver ni d’interpréter. C’est très vite le cas lorsque l’information ne se situe pas dans le web "visible"( [1]), ou que cette information est complexe donc souvent répartie sur plusieurs sources (y compris, rappelons le, des sources autres qu’Internet...). Cela peut conduire au final à des erreurs stratégiques de très grande ampleur.

Solution : définir une stratégie de recherche et les moyens associés

Il est tentant de croire qu’avec internet l’information est facile à trouver, et pour un coût négligeable. Nous venons de voir qu’il n’en est rien. Le potentiel informationnel d’internet est élevé, et c’est d’autant plus vrai concernant l’information technologique. Néanmoins l’exigence de professionnalisme est proportionnelle à la croissance exponentielle de la quantité d’information sur internet : il faut trouver, trier, recouper car les données recueillies sont brutes et ne sont pas à proprement parler des informations (2).

En réponse au premier risque, il sera indispensable de définir une stratégie de recherche et de l’intégrer à part entière comme l’une des phases du processus décisionnel : délimitation du champ de recherche, objectifs précis, utilisation de moyens classiques à des fins de complément ou de recoupement. En réponse au second risque, on évaluera en fonction des objectifs de la veille technologique les moyens à mettre en oeuvre : matériels, logiciels, humains (compétences spécifiques). Une fois ces éléments déterminés, il conviendra d’arbitrer entre la mise en place d’une cellule interne et l’appel à un prestataire spécialisé.

 Deuxième difficulté : des signaux faibles brouillés par des interférences

Il existe toute une famille d’information éparse et difficilement vérifiable : ce sont les signaux faibles qui composent l’information prospective, autrement dit les éléments relatifs à l’avenir, à ce qui va se passer. On peut les décomposer en trois grandes catégories : les informations techniques, celles qui concernent l’adoption des techniques par les concepteurs et les administrateurs, et celles qui concernent les utilisateurs et leur comportement.

Si on peut dégager des tendances d’un point de vue technologique, il est beaucoup plus difficile de prédire le comportement des utilisateurs même sur la base d’études très poussées sur le sujet. Leur comportement est à juste titre considéré comme très versatile et imprévisible, et sur ce point l’histoire récente nous le prouve (le développement imprévu du peer-to-peer ou du SMS en est un exemple édifiant). Pour ce qui concerne les concepteurs et les administrateurs (lorsqu’ils sont distincts), il ne faut surtout pas oublier que dans un contexte comme celui des services en ligne, nous sommes encore dans une phase de test, d’essais et d’erreurs fréquentes. En la matière, le déficit d’information menace aussi bien les dirigeants de Yahoo que vous dans le cadre de la gestion de votre site. On en revient ici à la part nécessaire d’intuition évoquée plus haut, il faut sur ce dernier point "sentir" le marché (c’est à dire extrapoler à partir de ces signaux faibles).

Il est d’autant plus difficile de s’adonner à cet exercice alors qu’un certain nombre d’informations vont interférer avec nos prises de décisions. Il s’agit en premier lieu de signaux forts qui viennent brouiller l’information, voire la faire disparaître, et en second lieu des informations volontairement inexactes destinées à induire la concurrence en erreur ( [2]). Autre tendance, la diffusion de l’information est de plus en plus fréquemment liée à un souci de valorisation de celle-ci par une approche marketing, ce qui constitue un élément générateur de "bruit". Le vaporware (4) est un bel exemple de ce bruit de fond qui cache les vraies innovations. D’une manière générale, il devient de plus en plus difficile de différencier l’info de l’intox, y compris dans un domaine à dimension aussi technique que celui des services en ligne. C’est d’autant plus préjudiciable que nombreux sont les utilisateurs peu expérimentés qui ignorent les quelques règles de base de l’évaluation de la qualité de l’information (5).

Solution : évaluer la qualité de l’information

L’information n’est pas une notion floue, il est possible de définir un certain nombre de critères de qualité, en dehors du contexte ou de la forme sous laquelle elle est présentée. Ces critères de qualité du contenu et des informations que contient un site sont exactement les mêmes pour un site Internet, que pour un livre ou un discours.

A chaque information correspond un certain nombre d’attributs. C’est ainsi que les grilles d’évaluation de la qualité des sites Internet mentionnent dans ce domaine la présence de la date, de l’auteur, des sources, des éléments qui viennent étayer et recouper l’information, du type d’information aussi, c’est à dire l’analyse d’une information en fonction des objectifs poursuivis par celui qui décide la délivrer, avec la présence sous jacente des problèmes de conflit d’intérêt. Toutes ces données sont vitales pour analyser de manière fiable une information, surtout d’ordre stratégique (catégorie dans laquelle entre le choix technologique).

Sur Internet, les grands risques se rencontrent dans plusieurs cas :

  1. les attributs de l’information ne sont pas indiqués : l’information peut être juste, mais il est impossible de le vérifier
  1. Les attributs de l’information sont présents, mais l’information est altérée
  1. L’info est fausse, et les attributs ne sont pas indiqués

Dans tous les cas, les utilisateurs ont la possibilité, mais pas toujours la formation pour posséder ce regard critique vis-à vis de l’information. Le phénomène de la rumeur en est une belle illustration. Très complexe, il est étudié de manière scientifique et a notamment donné lieu à une application économique dont vous avez probablement entendu parler, à savoir le marketing viral. Dans tous les cas, du point de vue professionnel et opérationnel, il est essentiel de mettre au point un mode de validation de l’information technologique obtenue sur Internet, et il est vital de connaître les critères de qualité du contenu.

 Conclusion

Nous avons, au travers des deux premières parties dressé un bilan des erreurs stratégiques les plus fréquentes et des risques technologiques existants. Une fois établies les données du problème, nous avons abordé dans cet article les facteurs qui expliquent les erreurs commises en matière de choix technologique : information coûteuse et difficile voire dans certains cas impossible à trouver, absence d’évaluation méthodique de la qualité des informations, difficulté d’interprétation des signaux faibles et interférences. A l’énumération de ces facteurs, on comprend mieux pourquoi il est difficile d’appuyer le choix d’une technologie ou d’une autre sur des informations fiables, pertinentes et disponibles au moment voulu.

Tout serait pour le mieux dans le meilleur des mondes si la maîtrise des choix technologiques s’arrêtait là. Il n’en est rien, nous verrons dans la 4ème partie de ce dossier que la qualité des processus décisionnels est tout aussi importante que la qualité de l’information obtenue. Nous verrons également pourquoi un système de management de la qualité est un élément déterminant pour aboutir à des décisions argumentées.

Notes :

[1]Sur les notions de web visible/invisible lire le White Paper de Brightplanet </p>

<p class='spip'><span class=[2]Voir au sujet de la guerre informationelle l’excellent site infoguerre : </p></div>
				
				
		<a href=

Temesis - SAS au capital de 1000€ - 91 avenue de la République - 75011 Paris - France - +33 (0)1 70 95 70 70