Une nouvelle technique a toujours besoin de deux tentatives pour s’imposer : une première pour interpeller les esprits et une seconde pour se perfectionner. A cette étape, le marché est finalement prêt à la recevoir grâce à la tendance provoquée par la première. Corollaire : la seconde tentative est toujours moins ambitieuse que la première. Pour s’imposer définitivement, la nouvelle technique est obligée de revoir ses ambitions à la baisse et d’éliminer les facteurs de blocages, serait-ce au détriment de son potentiel… En informatique, toutes les innovations sont d’abord des notions intellectuelles illustrées par une technique embryonnaire initiale qui fait office de prototype de validation.
L’exemple de l’infocentre et de l’intranet
Prenons l’exemple de l’infocentre, inventé à la fin des années soixante-dix; même s’il a permis l’éclosion des L4G, ce format était bien trop prématuré vu l’état de l’art de la technique informatique. Il a fallu dix à quinze ans de plus et l’émergence du client-serveur pour passer de la notion de concept avancé à une réalité pratique exploitée sur les sites des utilisateurs, et ayant des prolongements tels que le DataWarehouse.
Pareil pour la programmation-objet, inventée il y a déjà plus de vingt ans (!), elle a commencé à être illustrée à grande échelle grâce au langage Smalltalk, mais ce dernier ne résista pas à la vague Java qui va finir de démocratiser ce concept et de le transformer enfin en réalité. Il est d’ailleurs amusant (et significatif) de constater que Java reprend de nombreuses techniques mises au point pour Smalltalk telles que le « ramasse-miettes » (le fameux « garbage collector« ) pour gérer les allocations mémoires.
Vu sous cet angle, on peut dire que l’Intranet n’est jamais que la deuxième vague nécessaire à la finition du client-serveur première version. Revu et corrigé par les standards d’Internet, il gagne au passage sa capacité à être généralisé (grâce à l’effacement du « mur du déploiement ») là où le client-serveur traditionnel était limité au niveau départemental. Rappelons le corollaire du principe des deux tentatives qui est au moins aussi important que le principe lui-même : la seconde est toujours moins ambitieuse que la première. C’est ainsi que l’infocentre s’est spécialisé dans l’accès aux bases de données alors qu’il visait initialement l’autonomie -complète ou quasiment- de l’utilisateur.
L’IA et le principe de transformation
On peut aussi appliquer ce principe, dans une certaine mesure, à l’essor actuel de l’IA. Après une première vague dans les années quatre-vingt où les “systèmes experts” devaient s’imposer à tous, l’IA est entrée dans une période de sommeil sur le plan médiatique, mais les chercheurs ont continué à travailler. Et aujourd’hui, les exploits du “machine learning” semblent bien signifier que la seconde vague de l’IA est engagée.
Un autre exemple avec les fameuses marketplaces qui devaient apporter au B to B ce que l’ecommerce avait fait au B to C. Beaucoup d’annonces et d’ambitions qui n’ont finalement débouché sur rien ou presque… comme souvent !
Aujourd’hui, la notion de marketplace B to B revient doucement au goût du jour, plus discrètement, plus modestement, mais sans doute plus sûrement. Encore une belle illustration du principe des deux vagues.
Entre la première et la seconde, il n’y a pas forcément le désert de l’échec. Souvent, la technologie survit à la première présentation et progresse inexorablement (principe de maturation déjà vu) et ses utilisateurs croissent au rythme de la bien connue courbe de Gauss.
Une courbe d’adoption en forme de cloche
Aucune technologie n’est immédiatement approuvée par l’ensemble de la population visée, elle doit d’abord suivre une courbe d’adoption en forme de cloche… Ainsi se succèdent les innovateurs (ou pionniers), les adopteurs précoces, la majorité précoce, la majorité tardive et les retardataires. Passer d’un groupe à l’autre requiert de cibler un nouveau marché. Prenons l’exemple de la micro-informatique. Elle a d’abord été acceptée par les électroniciens amateurs qui ont joué le rôle de pionniers dans la courbe d’adoption des premiers micro-ordinateurs. Les pionniers sont souvent soit des amateurs, soit des gens avec des besoins tellement spéciaux qu’ils sont prêts à tester n’importe quelle technologie qui peut les aider, même si elle n’est pas encore mature. L’armée américaine a de nombreuses fois rempli ce rôle dans le monde de la haute technologie, ayant par nature des besoins exigeants et beaucoup d’argent pour les satisfaire.
Le second type de population est celui des adopteurs précoces. Même s’ils ne sont pas si différents des pionniers, une transformation de la technologie est souvent nécessaire pour capter cette nouvelle cible. Toujours dans le cas de la micro-informatique, le passage des pionniers aux « adopteurs précoces » s’est fait en 1977 avec l’introduction de l’Apple//. Avant cette date, les micro-ordinateurs étaient livrés en kit à monter soi-même. Ils s’adressaient plutôt aux passionnés d’électronique. L’Apple// a donné le coup d’envoi de la micro-informatique moderne en étant la première machine grand public prête à l’emploi. On peut trouver un exemple comparable avec Linux qui a commencé à sortir de la confidentialité en séduisant de plus en plus d’informaticiens grâce aux différentes distributions (Slackware et Debian principalement) qui concentraient un noyau, des librairies et tout un ensemble pour fournir un système d’exploitation relativement facile à installer. Internet, quant à lui, aurait pu difficilement s’étendre au-delà des universités sans les noms de domaines.
Finalement, un concept intéressant se concrétisera toujours grâce à des vagues successives, en acceptant de rogner sur quelques ambitions en chemin, le tout en suivant une courbe d’adoption standard.
Principe suivant : la résilience.