Temesis Pôle d'expertise au service des professionnels du Web

L'accompagnement qualité Web et accessibilité.

Accueil > Ressources > Articles > Technologies > Services en ligne : Retour historique, Bilan et perspectives d’évolutions

Technologies

Services en ligne : Retour historique, Bilan et perspectives d’évolutions

Auteur(s) : David Mollière

Publié le : 29 novembre 2007

Résumé :

Depuis leur création, les services en ligne ont successivement suscité espoir, enthousiasme puis déception que ce soit auprès des investisseurs, des entreprises et des utilisateurs. Le bilan est aujourd’hui pour le moins mitigé et les indicateurs de progrès sont au moins aussi nombreux que ceux qui viennent les contredire. Une prise de recul s’impose afin d’éclaircir les éléments susceptibles de nous permettre d’anticiper les évolutions à venir.

 Introduction

Le moins que l’on puisse dire est que beaucoup d’encre a coulé, beaucoup de discussions ont eu lieu sur les technologies de l’information ces dernières années. Nous sommes passé du techno-enthousiasme à la techno-déception, de l’euphorie des investisseurs à la méfiance généralisée, ce en quelques mois seulement. Les autoroutes de l’information semblent bien cahoteuses pour ne pas dire chaotiques, et celles-ci déroutent aussi bien les décideurs, que les spécialistes et les utilisateurs. Seuls quelques atypiques se situant aux intersections de plusieurs disciplines sont à même d’élaborer des scénarios probables, sans pour autant pouvoir prétendre détenir les clés du futur en la matière.

Les premiers cherchent à avoir un recul suffisant pour prendre les décisions stratégiques qui s’imposent dans un domaine ou l’innovation est souvent difficile à distinguer de la simple nouveauté marketing ( [1]). Les seconds sont condamnés à la formation à perpétuité tant les nouvelles versions (ou/et nouvelles technologies) se succèdent rapidement. Enfin, les troisièmes cherchent à s’approprier ces nouveaux outils, excluant ceux qui sont trop complexes et trop lourds au profit de ceux qui répondent à leurs besoins, au premier rang desquels figure la facilité d’utilisation. Au milieu de ce maelström, les quatrièmes essaient d’y voir clair et de faire le pont entre les fonctions et les besoins, entre la technologie et l’organisation, entre l’outil et l’utilisateur... liste non exhaustive des arbitrages délicats qu’il importe de prendre en compte pour une assimilation réussie de la technologie par les individus et les organisations.

Nous nous classons de toute évidence dans cette quatrième catégorie, et nous allons ici essayer de comprendre pourquoi le bilan des services en lignes est pour le moins en demi-teinte. Nous commencerons par identifier les facteurs historiques de réussite et d’échec des TIC, en tordant le cou au passage à plusieurs idées reçues. Puis nous ferons un bilan de la situation actuelle, en mettant en évidence l’illusion d’une approche purement techno-centriste. Pour finir nous essaierons de démontrer en quoi certaines technologies naissantes pourraient jouer un rôle catalyseur dans la diffusion des services en ligne auprès des entreprises et des utilisateurs/clients, et quel rôle la qualité des services en ligne devrait avoir dans ce processus.

 Un peu d’histoire : facteurs explicatifs des réussites et échecs des TIC

Un besoin réel existant avant l’apparition des techniques

Pour commencer, tordons le cou à une idée reçue largement répandue : bien avant internet, nous étions entrés dans la "société de l’information". En 1970 aux Etats-Unis, 50% de la main d’oeuvre américaine travaillait à la production, au traitement et à la diffusion de l’information (2). La mutation de nos systèmes productifs s’est donc effectuée plus progressivement qu’il n’y paraît : celle-ci n’est pas une conséquence de l’informatisation mais la réponse à un besoin préexistant, celui de produire, traiter, stocker, transmettre les informations. Au fil du temps, la performance des processus de traitement de l’information est devenu un facteur clé de compétitivité. C’est bien en réponse à ce besoin nous avons développé des outils, des machines pour la traiter plus vite, la stocker en plus grande quantité, tout cela pour des coûts de plus en plus faibles (3).

L’illusion de la productivité par les TIC

Pour continuer à tordre le cou aux idées reçues, malgré l’introduction des TIC dans le système économique, la productivité du travail n’a cessé de diminuer depuis le début des années 70. L’impact de l’informatisation sur la croissance américaine n’a compté que pour 0,2% par an dans le taux de croissance annuel de l’économie américaine de 1970 à 1992. En juillet 1987, Robert Solow écrira dans le New York Times : "Des ordinateurs, on en voit partout sauf dans les statistiques de productivité de la comptabilité nationale". Plusieurs facteurs expliquent cet état de fait : l’implantation des TIC dépend largement de l’offre des prestataires qu’ils soient fabricants de matériels, de logiciels, fournisseurs d’infrastructures ou de services de conseil. De ce point de vue plusieurs freins expliquent le faible impact de l’informatisation sur la croissance : les rentes de monopole des opérateurs de télécommunication, la surenchère technologique des fabricants d’équipement, la conception des logiciels conduisant à la difficulté d’interopérabilité, la résistance des employés à l’informatisation par crainte de perdre leur emploi, et les gestionnaires négligeant d’accompagner celle-ci d’une réorganisation des postes. Avec la baisse des coûts, le passage de l’informatique centralisée aux architectures clients-serveur et grâce à l’amélioration phénoménale des capacités des micro-ordinateurs, mais aussi avec la déréglementation des télécommunications, les technologies de l’information se sont par la suite largement diffusées dans les années 80-90.

Internet ou l’effet réseau

Depuis 1993, qui coïncide aux Etats Unis avec l’introduction généralisée d’internet, la donne a changé. Pourquoi un phénomène si soudain ? Il peut s’expliquer par ce que les économistes appellent "l’effet club" : plus il y a d’abonnés à un réseau, plus ce réseau devient intéressant pour ceux qui n’y sont pas. Une fois une certaine masse critique atteinte, le processus de diffusion croit de façon exponentielle. C’est ce que l’on appelle la Loi de Metcalfe : "La valeur du réseau croît avec le carré du nombre de ses utilisateurs". Dans le cas d’internet, trois facteurs ont permis d’atteindre cette masse critique : la création du world wide web (www) en 1989, et celle du navigateur Mosaïc en 1993, et enfin la décision des fournisseurs de services en ligne de donner accès à internet à leurs abonnés. Economiquement, cela se traduit dans les chiffres : L’OCDE a estimé à 1% l’impact des TIC sur la croissance américaine en 1995, c’est à dire une part 5 fois supérieure à celle constatée avant l’émergence d’internet. En 1999, celle-ci était de 1,6%. La suite, vous la connaissez : 50 premiers millions d’utilisateurs en 5 ans alors que la radio avait mis 38 ans, la télévision 13 ans et l’ordinateur personnel, 9 ans...

Malgré le fait que les TIC répondent à un besoin réel et bénéficient de la puissance de l’effet réseau, nous allons voir au travers du bilan de la situation actuelle que les choses ne sont pas aussi mécaniques.

 Les services en ligne en 2002 : un bilan décevant

La situation actuelle vis-à-vis des services en ligne peut sembler paradoxale. D’un côté le nombre de mails échangés en 2002 est estimé à 1000 milliards, le chiffre d’affaires du BtoC au niveau mondial va augmenter de 39% et celui du BtoB de 88% par rapport à l’année dernière ( [2]), le taux d’équipement des ménages et des entreprises progressent... De l’autre le commerce électronique représente une part négligeable du commerce mondial (moins de 1%) : le web est utilisé principalement pour rechercher de l’information, nous rappelant par là même que le commerce repose sur la confiance. En la matière, peu importe que le taux de fraude effectif soit faible (5), il reste encore du chemin à faire pour gagner cette confiance. Pour mieux comprendre les causes de ce bilan décevant, nous allons nous pencher sur les espoirs placés dans les nouvelles technologies et les éléments qui auraient dus être pris en compte dans l’évaluation de leur potentiel de diffusion.

L’illusion technologique

Plus que dans tout autre domaine, les innovations en matière de technologies de l’information se succèdent à un rythme qui a de quoi donner le vertige... La puissance des ordinateurs double tous les 18 mois alors que le prix est divisé dans le même temps par deux, la valeur d’un réseau croît avec le carré du nombre de ses utilisateurs Pas étonnant dans ce contexte que les partisans des nouvelles technologies promettent monts et merveilles, qu’il s’agisse de bénéfices en terme de productivité pour le salarié, de baisse des prix et de mode de vie pour le consommateur, de simplification et célérité dans ses démarche auprès des administrations pour le citoyen... la liste pourrait être longue, tant les promesses technologiques sont alléchantes sur le papier. Seulement voilà, la réalité est moins évidente, la confiance du consommateur dure à gagner, les résistances des salariés dures à surmonter. Les investisseurs, cherchant de nouvelles mines d’or, ont foncé tête baissée alléchés par la promesse de gains stratosphériques dans des temps records pour ensuite tomber dans la sévère désillusion que l’on connaît.

La réalité du facteur humain

Il est étonnant avec le recul que nous avons maintenant concernant l’histoire des techniques, que nous n’ayons pas pris en compte le décalage existant entre la vitesse d’évolution technologique et celle de nos sociétés. D’après Victor Scardigli, l’insertion sociale d’une nouvelle technologie s’effectue en trois étapes : la conception, les débuts de la diffusion, l’impact social de la technique.

Le premier temps est celui des concepteurs, de la recherche et du développement : il s’accompagne de fantasmes technicistes prédisant des applications aux conséquences sociales considérables. Le second temps est celui des débuts de la diffusion : c’est celui de l’observation des premiers usages, de retour d’information vers les concepteurs qui tentent d’intégrer les leçons de ces expérimentations. Le troisième temps est celui de l’impact de la technologie sur la société : l’innovation largement diffusée finit par changer la société.

Où en est-on aujourd’hui ? Si le phénomène internet concerne tout le monde, il est appréhendé par les individus à des degrés divers. Observez autour de vous : si pour une minorité de pionniers les TIC sont une réalité quotidienne, pour certains réfractaires c’est un phénomène lointain qui n’a aucune substance. Entre les deux, la vaste majorité des personnes (appelons les les "suiveurs") utilisent les fonctionnalités de base de leur traitement de texte, de leur navigateur et éprouvent souvent des difficultés à exploiter voire à appréhender le potentiel des outils mis à leur disposition. La plupart, bien qu’utilisateurs parfois quotidien, sont dépourvus d’une formation de base qui leur permettrait de comprendre la logique et la culture d’internet. Si l’on s’intéresse à l’entreprise, on peut penser qu’à la lumière de cette constatation l’évolution des organisations et des modes de management va se heurter (ou plutôt, se heurte...) à une résistance significative des réfractaires et à une difficulté d’appropriation par les "suiveurs". Paradoxalement, le rôle des pionniers s’est souvent avéré contre-productif, dans le sens où leur croyance parfois aveugle en la technologie à causé des échecs qui rendent plus difficiles aujourd’hui l’acceptation des nouvelles idées.

Dans ce contexte le relatif "échec" des technologies nous conduirait à dire que nous ne sommes qu’au début de la diffusion des services en ligne. Nous allons explorer maintenant l’hypothèse selon laquelle la naissance de réseaux de services en ligne applicatifs pourrait faciliter la sortie du tunnel dans lequel nous sommes actuellement.

 Naissance des réseaux de services en ligne applicatifs : la sortie du tunnel ?

Internet + Applications : du site web au service en ligne

1995 : Sortie de Windows 95. L’intégration du navigateur Internet Explorer au système d’exploitation le plus vendu du monde soulevait des débats houleux. Non seulement Microsoft abusait de sa position selon la concurrence, mais surtout il rendait indissociable son navigateur de son système d’exploitation (pour ceux qui ne le saurait pas encore, vous pouvez accéder à internet à partir de l’explorateur Windows).

2002 : On parle de plus en plus d’ "exécutable Internet", en français "internet applicatif"... Ce modèle d’architecture instituerait un réseau constitué d’un ensemble de services distribués, lesquels se comporteront tour à tour comme des clients ou des serveurs dans une logique de réseau "peer to peer". Aujourd’hui les solutions existantes nécessitent le déploiement de logiciels propriétaires et l’utilisation d’adaptateurs spécifiques pour permettre l’intégration des applications. Demain les Web Services s’appuieront sur une technologie permettant à des applications de dialoguer via Internet, et ceci indépendamment des plates-formes et des langages sur lesquelles elles reposent. Ils sont développés pour répondre à deux problématiques principales : l’interopérabilité entre services applicatifs d’une part, et leur distribution aux utilisateurs finaux d’autre part.

Web services : plus grande complexité = risque de défaillance = exigence de maîtrise

Les Web Services sont conçus pour faciliter les échanges de données, mais aussi l’accès aux applications au sein des entreprises mais surtout entre les entreprises. Leur déploiement permet de rendre accessible, via le réseau Internet, une application quelle qu’elle soit. Comme le souligne le JDNet dans son dossier cela implique trois chantiers :

Les trois chantiers évoqués plus haut (publication, référencement, accès distant) nous renvoient naturellement à la maîtrise du contenu, à la maîtrise technique ou encore à la visibilité. Si le passage aux web services comporte des avantages indéniables en terme d’interopérabilité interne ou externe, ils supposeront aussi une complexité plus grande, donc des risques plus importants.

Pour avoir une idée de l’étendue de l’impact du passage aux Web Services, examinons le rôle des applications bureautiques et des progiciels actuels dans l’activité des entreprises. Et là une seule question : que serait l’activité d’une entreprise si elle devait se passer de ses applications informatiques, de messagerie électronique ou d’accès à internet ? Cette seule question nous rappelle le degré de dépendance aux outils de traitement de l’information qui est devenu la règle dans l’activité économique moderne. Serait-il faux dans ce contexte de dire que la performance d’une entreprise dépend en grande partie de la qualité de son système d’information ?

On peut envisager la qualité des futurs services en ligne sous deux angles :

 Conclusion

Je ne prendrai pas beaucoup de risque en disant que la reconfiguration de la chaîne de valeur des organisations autour des TIC va se poursuivre. Il est en effet désormais banal de dire que la valeur produite est de moins en moins liée à transformation d’intrants de matière en biens physiques et de plus en plus liée à la transformation de données brutes en informations exploitables puis en connaissances ayant une valeur pour le client ( [3]). Toutefois, il serait bon qu’il devienne banal de dire que la diffusion des TIC doit passer par une formation des acteurs (à l’école comme dans l’entreprise), par une action forte de l’Etat en matière de certification web, par une évolution des organisations et des modes de management.

Outre ces points incontournables, l’histoire des technologies nous permet d’identifier les facteurs clés de succès pour les technologies du futur :

L’évolution vers un internet applicatif, de part l’apparition des web services, semble répondre potentiellement à ces trois points. L’intégration des applications au réseau des réseau lui conférera une place radicalement différente de celui qu’il occupe actuellement (à savoir celle d’outil de recherche d’information). Cette évolution préfigure également d’un niveau de complexité très supérieur. Qui dit plus grande complexité dit risque de défaillance, dit non-qualité, suppose des actions structurées pour se prémunir des risques et maîtriser la qualité. Nul doute que les chantiers de la publication, du référencement, et de l’accès distant vont constituer des défis nouveaux en terme de visibilité, de perception, de technique ou encore de maîtrise du contenu (7).

Notes :

[1]Voir à ce sujet </p>

<p class='spip'><span class=[2]Source Gartner Group, Novembre 2001 </p>

<p class='spip'><span class=[3]Témoins le formidable espoir placé dans les outils du KM et du CRM... nous aborderons d’ailleurs dans deux articles à venir l’intérêt opérationnel d’intégrer une démarche qualité des services en ligne au déploiement de ces solutions. </p></div>
				
				
		<a href=

Temesis - SAS au capital de 1000€ - 91 avenue de la République - 75011 Paris - France - +33 (0)1 70 95 70 70