L’histoire de l’informatique : une esquisse

Si l’on devait faire une esquisse de l’histoire de l’informatique des vingt dernières années, à la fois sur le plan de son utilisation par les particuliers et de celle des entreprises (les deux s’imbriquant depuis très longtemps), nous remonterions à la fin des années 1990 pour démarrer cette étude. Commençons par l’informatique d’entreprise, sujet qui nous a occupé pendant environ 12 ans à partir de 1999. Cette époque est plus connue sous le nom de « bulle internet ». C’est la première accélération qu’a connu ce marché en terme de capitalisations boursières avec des hausses du prix des actions qui ont fait croire à un nombre important de boursicoteurs qu’ils avaient décroché le Graal en terme de plus-values.

Dans la société qui m’employait, les stocks options étaient l’argument ultime dans le recrutement des jeunes diplômés, un miroir aux alouettes, il faut le préciser. Nous étions dans le secteur dit de la « Business Intelligence » (BI) ou Aide à la décision en français et il consistait en la vente de logiciels permettant aux directeurs de l’ensemble des départements d’une entreprise (Marketing, Finance, RH,…) de piloter les ventes, établir et consolider des budgets… En somme ces outils pouvaient devenir une fonction clé du système d’information, promesse de rentabilité, dans le monde incertain de la concurrence, discours ciselé de nos commerciaux, traduit en acte par nos soins lors de démonstrations effectuées dans un « Datawarehouse Shop », terme que je trouve assez comique avec le recul car il évoque un bazar technologique où l’on vend du rêve. On verra que cela n’était qu’un exemple du marketing employé dans la plupart des secteurs de l’industrie du numérique jusqu’à maintenant (numérique étant un terme qui remplace le mot informatique trop connoté barbus azimutés sur leurs machines). D’ailleurs Datawarehouse est le point clé car il était censé représenter l’entrepôt de données, élément central du système sur lequel s’appuient différents logiciels qui manipulent les informations pour les restituer sous forme de tableaux insérés dans de belles présentations d’entreprise (il faut bien se faire remarquer par son supérieur, pardon son n+1).

Pour ceux qui suivent l’actualité des produits technologiques, cela leur évoquera les promesses actuelles du Big Data. Le Datawarehouse est l’ancêtre, toujours actif, du Big Data. Certains diront que ce n’est qu’un habillage qui permet de vendre un concept qui n’est pas révolutionnaire en soi. C’est vrai mais il démontre en fait l’augmentation vertigineuse des capacités à la fois de stockage et de calcul, servis des réseaux de plus en plus performants en terme d’échanges de données. Il y a vingt ans, nous en étions encore aux balbutiements de ces infrastructures mais les principes étaient posés. D’ailleurs, on parlait déjà de Datamining, qui était la fonction la plus complexe à mettre en place car elle nécessitait des outils rompus aux calculs statistiques et mathématiques. On voit ce que cela donne aujourd’hui dans les principes de ciblage comportemental par exemple qui se fondent sur les immenses gisements de données issus de l’activité des internautes sur les plates-formes populaires, les réseaux sociaux. A l’époque, dans les phases d’avant vente (terme désignant une action technico commerciale), nous avions un exemple choc tiré de l’activité du distributeur américain Walmart : les informaticiens de cette entreprise s’étaient aperçus en analysant finement les données issus des tickets de caisse et du comportement des clients que les achats de bière et couches pour bébé étaient corrélées. Walmart avait donc revu ses rayons et rapproché le rayon alcool et le rayon layettes et ainsi augmenté son chiffre d’affaires. L’argumentation était imparable : « en choisissant un des outils présentés au Datawarehouse Shop suite à une étude menée par nos soins et ensuite une implémentation (réalisée par nous évidemment), vous verrez votre business s’épanouir comme celui de Walmart ».

Je ne rentrerai pas dans les détails techniques permettant de concevoir une architecture autour d’une base de données (le Datawarehouse), les outils de reporting, d’analyse, etc… Il faut juste noter que suivant la taille du client, la mise en œuvre pouvait s’avérer complexe voire être un échec qui se traduisait parfois par des menaces de procès. Mais à l’époque peu importait, les SSII (Sociétés de Services et d’Ingénierie Informatique) croissaient à grande vitesse, portées par le marché, recrutant à tour de bras. L’optimisme était général et ressemblait à ce que nous vivions il y a encore 2 mois avant le confinement (malgré d’évidents problèmes). A partir de 2000 et l’éclatement de la bulle, l’activité autour de la BI n’a pas ralenti mais les espoirs de fortune rapide se sont envolés. Reste que ce marché, avec en parallèle l’émergence de la CRM (Customer Relationship Management) ou Gestion de la Relation Client (GRC) arriva peu à peu à maturité aussi bien chez les intégrateurs (les SSII) que les clients. Les projets sont devenus plus complexes à gérer (surtout dans les grosses entités) car multiplier les briques avec un SI décisionnel, Un CRM, le relier à ce que l’on appelle le Legacy (en gros le système socle de l’entreprise, logiciels de vente, comptabilité, ressources humaines,…), multiplier les flux de données entre ces briques (car on découvre de nouveaux besoins) ont contribué à construire parfois des usines à gaz. Le secteur technologique a beaucoup appris, on a ainsi développé les premières interfaces web pour les logiciels d’entreprise de façon à la fois à simplifier l’accès des salariés aux outils et optimiser l’exploitation du SI en limitant les interfaces clientes à gérer (je reviendrai sur les évolutions des architectures client/serveur). Ce sont les prémisses de ce que l’on va appeler à la fin des années 2000 (la notion a été inventé en 2001), le SaaS, le Software as a Service (et ses déclinaisons actuelles IaaS, PaaS, FaaS, fruits des évolutions technologiques récentes).

Il n’y avait pas que les secteur de la BI et de la CRM qui fonctionnaient à plein régime, Internet, qui aiguisait déjà les appétits, voyait des sociétés encore confidentielles comme Google émerger (il n’y avait pas le nombre d’internautes que nous avons aujourd’hui). Celui-ci était né depuis un an (1998) et faisait ce que l’on appelle le buzz car les internautes s’étaient aperçus que son moteur de recherche était bien plus efficace qu’un Alta Vista par exemple. C’est l’idée de son algorithme révolutionnaire qui est comme chacun sait à l’origine de son succès et de sa domination quasi sans partage dans ce domaine aujourd’hui. Les navigateurs permettant d’accéder à la toile étaient encore rudimentaires, il existait déjà des messageries comme Caramail qui fédéraient les usagers français. Les réseaux sociaux n’existaient pas mais il y avait déjà des outils permettant des échanges online comme IRC ou Caramail (encore lui) avec son chat (Hotmail et MSN Messenger de Microsoft en est un autre exemple), ou encore les forums de discussion. Ces rappels visent à montrer que les principes qui gouvernent le Web aujourd’hui existaient déjà (et remontaient bien évidemment au début du World Wide Web). C’est l’intuition d’un Mark Zuckerberg ou d’un Jack Dorsey sur l’amélioration et l’industrialisation des échanges au travers d’un portail équivalent à un trombinoscope ou un service de micro blogging en temps réel qui a consacré la forme actuelle des réseaux sociaux. Il ne faut pas oublier l’augmentation continue de la population mondiale connectée à Internet. Si l’on regarde les chiffres de croissance de Facebook notamment, on note qu’ils progressent parallèlement à l’adoption massive du Net. Bien sûr il y a aussi la mode, la prise en main de l’outil et ses promesses réalisées, il faut bien le dire, en terme de contacts sociaux facilités. Ce qui démontre, à l’instar de l’invention de l’I phone et presque du smartphone (il y a je crois des querelles quant à l’origine de celui-ci), que c’est la facilité d’utilisation, les fonctionnalités pratiques (à l’origine du terme killer application) et le contexte social (l’imitation particulièrement) qui sont à l’origine de l’adoption massive de certains produits. On peut fabriquer du sens par un discours marketing pour pousser à l’achat ou à l’utilisation mais si le consommateur n’y trouve pas son intérêt, le produit est voué à mourir. On se référera au site Killed by Google qui illustre ces tentatives pour promouvoir des outils finalement abandonnés.

En terme d’architecture technique, les principes ont été posés depuis fort longtemps et nous assistons depuis les 20 dernières années à des adaptations entraînées par l’utilisation de nouvelles interfaces comme le smartphone à partir de 2007 et l’augmentation de la puissance des PC, Mac et des logiciels qui tournent dessus. Le principal problème avec la création des réseaux permettant de faire communiquer deux ou plusieurs appareils entre eux est la centralisation ou la décentralisation. Il y a 40 ans, notamment dans l’informatique d’entreprise, nous étions sur des machines passives qui se connectaient à l’ordinateur central (en général ce que l’on appelle un mainframe) et tous les processus étaient exécutés sur celui-ci. Dans les années 80 et à partir des années 90 avec l’émergence et la généralisation du client / serveur (fruit de la création de protocoles réseaux dont TCP/IP qui va servir le WWW et les ordinateurs personnels), les calculs sont exécutés à la fois sur la machine cliente et sur le serveur (celui – ci héberge les bases de données). La révolution Internet va remettre au goût du jour une forme de terminal passif (du moins pendant quelques temps), le navigateur. On peut voir le WWW comme un immense méta ordinateur sur lequel l’internaute va puiser des informations sans obligation d’installer des logiciels si ce n’est le navigateur et les processus s’exécutent côté serveur. Bien sûr la complexification, la demande d’interactions plus importantes que les liens hypertextes ou les pages HTML simples qui constituaient le web jusqu’au début des années 2000 va entraîner le déport de calculs sur la machine cliente. Ces allers retours entre centralisation et décentralisation sont conditionnés aussi par la taille des tuyaux. Au début des années 2000, nous communiquions via le RTC (Réseau Téléphonique Commuté et le célèbre bruit que faisait le modem quand il se connectait), avec des débits de données faibles puis l’ADSL s’est généralisé pour aboutir à l’utilisation de la fibre qui permet d’échanger des masses importantes de données. Cela a un impact très important sur les architectures car des volumes très importants d’informations échangés entraîne la possibilité de créer des centres de données (Data centre) qui répartissent la charge des requêtes et le stockage en autorisant ainsi à la fois la centralisation (le Cloud Computing promet une gestion efficace du SI en regroupant plusieurs entreprises au même « endroit ») et la décentralisation (la gestion se fait toujours à partir de clients, l’exemple de la montée en puissance du télétravail l’illustre).

A suivre …

Laisser un commentaire