Le mainframe “compatible” est apparu en 1964 avec l’IBM 360. C’est même à partir de là que l’informatique moderne a pris la forme que l’on connaît encore aujourd’hui : des ordinateurs qui se succèdent, mais qui sont capables de faire tourner la même logithèque génération après génération.
Aujourd’hui, les signaux se multiplient pour indiquer que le mainframe va finalement (enfin ?) disparaître. Cela faisait déjà un moment que sa domination n’était plus qu’un souvenir, mais ce dinosaure était tout de même encore largement présent dans les “systèmes hérités” des grandes organisations.
Avant de détailler pourquoi on peut désormais croire que le mainframe est arrivé au bout de sa route, on va revenir sur l’historique de ces machines qui ont joué une part importante de l’histoire de l’informatique moderne. Avec déjà plus de cinquante ans d’âge, on peut constater que, bien que l’on parle tout le temps d’innovations et de révolutions, notre secteur fait preuve d’une importante inertie technique, c’est le moins qu’on puisse dire.
De plus, la mort du mainframe a été annoncée de nombreuses fois (y compris par moi !) et, à chaque fois, de façon prématurée. On peut donc dire que la “bête” a la vie dure…
I predict that the last mainframe will be unplugged on March 15, 1996.
– Stewart Alsop, March 1991
It’s clear that corporate customers still like to have centrally controlled, very predictable, reliable computing systems – exactly the kind of systems that IBM specializes in.
– Stewart Alsop, February 2002
Le mainframe compatible, une percée fondamentale !
Revenons donc (rapidement) sur l’historique de ces systèmes. Tout d’abord, il faut reconnaître que l’avènement du mainframe compatible a représenté une avancée comparable à celle de l’ordinateur programmable au début des années cinquante. Ce dernier a permis de déboucher sur les logiciels, alors que le mainframe compatible a permis de capitaliser sur une logithèque réutilisable sans avoir besoin de tout réécrire à chaque fois qu’on changeait de génération d’ordinateur… Aujourd’hui, cela paraît incroyable, inconcevable que l’on ait pu supporter de telles contraintes, mais à l’époque c’était encore tout naturel.
Durant les années cinquante, les ordinateurs étaient quasiment tous construits en fonction des besoins des clients. Il n’y avait pas encore vraiment de production en série. C’est IBM qui a changé cela avec le pari de tout miser (car c’était un vrai pari, mettant en danger l’avenir de la compagnie en cas d’échec) sur une ligne d’ordinateurs compatibles permettant d’offrir une large gamme de puissances aux clients et cela a donné la fameuse ligne des systèmes 360 (annoncée en avril 1964). À partir de là, IBM est devenu le numéro un du secteur et l’est resté longtemps. On peut même dire sans exagération que c’est bien le 360 (puis le 370, son successeur, annoncé en juin 1970) qui a façonné toute l’industrie depuis le milieu des années soixante jusqu’au milieu des années soixante-dix.
Une concurrence inédite : les PCM (plug compatible mainframe)
Les concurrents habituels d’IBM (les Burroughs, UNIVAC, NCR, Control Data Corporation, RCA, General Electric et Honeywell qu’on avait surnommés “les sept nains”, IBM jouant le rôle de “Blanche-Neige” bien sûr !) n’ont pas su réagir et s’adapter au succès formidable du 360 et c’est une tout autre concurrence qui émergea : les constructeurs de mainframes compatibles avec le 360 (et le 370). Ce nouveau groupe était mené par Amdahl, mais il y avait aussi Comparex, Fujitsu et Hitachi. Ces constructeurs avançaient un argument simple et percutant : nous vous proposons des unités centrales totalement compatibles avec le 360 (pas besoin de la moindre réécriture de vos programmes !) pour moins cher et, quelquefois, plus de performances que celles de Big Blue… Un client IBM pouvait donc littéralement retirer le 360 ou le 370 vendredi, installer l’Amdahl 470 (un des tout premiers “PCM”), relier les mêmes connecteurs des périphériques aux interfaces de canaux et faire en sorte que le nouveau mainframe fonctionne avec le même logiciel dimanche soir.
Fragilisé par un procès “antitrust”, IBM fut obligée de s’accommoder de cette concurrence “parasitaire” (selon les termes des dirigeants de l’époque) et accepter de vendre ou louer les logiciels d’IBM (systèmes d’exploitation, base de données, etc.) aux clients qui en faisaient la demande pour les faire tourner sur des UC Amdahl ou Comparex.
Mais, pour les fabricants de PCM, la fête n’a duré que jusqu’au milieu des années 90. Quand IBM a lancé sa gamme des S/390 (en 1994) basée sur des processeurs CMOS, l’investissement nécessaire pour suivre cette évolution technique s’est avéré trop important. En conséquence, Comparex puis Hitachi ont progressivement quitté le marché alors qu’en 1997 Fujitsu prenait le contrôle de la société Amdahl Corporation.
Le crépuscule des mainframes
Pendant les années 70 et 80, DEC (Digital Equipment Corporation) était devenue le principal concurrent d’IBM en réussissant particulièrement bien dans le domaine des mini-ordinateurs.
Mais, alors que le marché informatique se réorganisait autour des PC et des serveurs, DEC cédait à l’hubris et sortait enfin son mainframe, le VAX 9000, en 1989. On peut dire que cette ultime tentative de concurrencer Big Blue sur son propre terrain marque le début de la fin pour l’ère des grosses unités centrales. DEC bascula ensuite dans la crise et fut finalement rachetée par Compaq en 1998 (elle-même fusionnée avec HP en 2002… Aujourd’hui, si on regarde sur le site d’HP, il ne reste pas grand-chose du glorieux passé de DEC… Sic transit gloria mundi !).
IBM continua à faire évoluer ses grosses machines, tant sur le plan matériel (la 5ème génération de S/390 atteignait les 1000 MIPS) que sur le plan logiciel (en décembre 1999, Linux était proposé sur S/390). La série Z est annoncée en octobre 2000 et les systèmes z9 en juillet 2005. Mais, au lieu d’être au centre de l’offre de Big Blue, les mainframes sont progressivement passés au second plan, ne concernant plus que les clients faisant évoluer leurs installations passées. A l’heure du cloud généralisé, ce sont les serveurs en rack qui ont la préférence de tous les acteurs. Mettre en réseau des dizaines de ces serveurs revient bien moins cher et est plus performant que n’importe quel mainframe, même ceux de la dernière génération, il suffit d’y mettre le nombre de serveurs nécessaires.
Le seul choix possible et raisonnable
Voilà, un résumé historique rapide, mais ça permet de replacer le contexte. Et justement, puisqu’on parle du contexte, avouons que ce dernier a beaucoup évolué lors de ces dernières décennies !
Nous sommes passés d’une situation où le mainframe était presque le seul choix possible et raisonnable (en gros, les années 60, 70 et 80 où la seule alternative était représentée par les mini-ordinateurs) à des époques où les solutions de remplacement se bousculaient au portillon : le client-serveur dans les années 90 et l’Intranet dans les années 2000. Aujourd’hui, plus personne n’oserait prétendre que la solution mainframe est la seule possible et raisonnable !
Oui, les temps ont bien changé…
C’est que nous sommes passés d’un temps où l’informatique était complètement centralisée et où tout rayonnait à partir du mainframe (mais où -et c’est important- les échanges avec le réseau étaient gérés par des machines dédiées, en particulier dans le cas de la norme SNA d’IBM) à une époque où le fonctionnement en réseau prédomine et où le mainframe a du mal à trouver sa place, car il a toujours été “faible” sur le plan de l’interface réseau justement…
Les signaux d’un abandon possible des mainframes
Voyons donc maintenant quels seraient ces éléments qui permettent de penser que la fin des mainframes est proche alors qu’IBM en est le dernier supporter…
Big Blue investit sur ces serveurs Power (logique) et a ouvert en grand son portefeuille pour acquérir Red Hat dont le contenu du catalogue logiciel n’a rien à voir avec les mainframes (même de loin !). IBM serait même en train de placer ses derniers “bijoux de famille” issus des années mainframe chez des éditeurs tiers (la société a revendu dernièrement plusieurs de ses développements logiciels pour mainframes à HCL et Rocket Software).
“Je pense que cela fait un moment que les mainframes ne sont plus stratégiques.”, observe Franck Dzubeck, le directeur de Communication Networks Architect, un cabinet de conseil américain. “Parce que les systèmes stratégiques sont censés résoudre les problématiques de la prochaine décennie. Avec les mainframes, on se contente juste de dire qu’on pourra les mettre à jour encore un trimestre, ou l’année prochaine.”
Pendant l’année 2016, des rumeurs ont même circulé sur la possible vente de l’activité mainframe aux Japonais Hitachi ou Fujitsu (cela ne s’est finalement pas concrétisé, mais cela peut encore se faire plus tard… après tout, IBM a déjà vendu ses PC et ses serveurs PC à Lenovo).
Les cas de migration se multiplient
Face à ce déclin et cette incertitude, les grands clients les plus avisés s’organisent… Ainsi, l’opérateur télécom suisse Swisscom a utilisé la plateforme d‘émulation de LzLabs (Software Defined Mainframe ou SDM) pour migrer rapidement toutes ses applications mainframes vers son cloud privé.
Aucune recompilation de codes n’a été nécessaire selon les organisateurs de ce projet qui va même pouvoir déboucher sur une commercialisation. En effet, Swisscom prévoit d’offrir du “SDM-as-a-service” à qui en aurait besoin et donc de commercialiser des mainframes virtuels dans son propre cloud. Markus Tschumper, le DSI de Swisscom est très content de cette opération : “Déplacer tous nos traitements mainframe sur la plateforme SDM dans notre cloud, nous a apporté de l’élasticité : nous ne mobilisons désormais plus que la puissance nécessaire au moment où nous en avons besoin. De plus, nous travaillons désormais avec une technologie plus ouverte, avec des outils qui n’étaient pas disponibles auparavant. Nous pouvons par exemple administrer des applications mainframes historiques avec des outils Open source. Outre l’aspect technique, cela signifie de manière très pragmatique que nous pouvons de nouveau embaucher des informaticiens sans leur demander des compétences que plus personne n’a.”
Mais la migration réussie de Swisscom n’est pas un cas isolé. Des grands opérateurs dans le domaine de la réservation aérienne comme Sabre ou Amadeus, qui étaient des grands clients des mainframes IBM, sont eux aussi en train de tourner leurs vestes…
Sabre a commencé en 2014 la migration de ses applications mainframes vers des serveurs Linux. Pour se faire, Sabre appuie son projet sur OpenShift, la plateforme d’infrastructure cloud de Red Hat. Le principal concurrent de Sabre, Amadeus, a fait de même (migrer depuis les mainframes) et déploie désormais ses nouvelles applications dans le cloud de Google.
Certains clients historiques connus comme la NASA (aux USA) ou la CNAF (en France) ont déjà éteint leur dernier mainframe depuis un certain temps (2012 pour la NASA, voir à https://www.lemondeinformatique.fr/actualites/lire-la-nasa-eteint-son-dernier-mainframe-ibm-47815.html, 2016 pour la CNAF, voir à https://www.lemagit.fr/etude/La-CNAF-va-enfin-eteindre-ses-mainframes-Bull-et-IBM).
La migration, une tendance lourde ?
On voit aussi fleurir les études établissant que les clients qui ont encore des mainframes voudraient s’en débarrasser… Un exemple avec une enquête de LzLabs réalisée en partenariat avec Microsoft qui s’est donc intéressée aux leaders de l’informatique parmi les plus grandes entreprises mondiales qui utilisent toujours des systèmes de type mainframe. Le constat est sans appel : 94 % des chefs d’entreprise consultés prévoient l’abandon du système. Ils sont aussi 84 % à penser qu’il est difficile de modifier les applications de leur système mainframe et 71 % affirment que le manque de flexibilité de leur plateforme mainframe limite la capacité d’innovation du service informatique.
Ceci dit, cela fait déjà quelques années qu’on peut lire ce genre d’études et ce n’est pas pour autant que cela est suivi d’effets immédiats : entre l’envie de migrer et le faire effectivement, il y a quelques étapes à franchir !
LzLabs est en pointe sur ce front et ça se comprend : toute leur offre est précisément positionnée sur la question de la migration (sans douleur sinon sans effort…) du mainframe vers des plateformes plus dans le vent (les serveurs Linux dans le cloud, pour ne pas les nommer). Dale Vecchio, l’un des dirigeants de LzLabs, voit sa société comme un concurrent direct de l’activité mainframes d’IBM. Voilà son argument :
“Je ne compte plus les discussions que j’ai pu avoir avec les clients d’IBM du temps où j’étais analyste chez Gartner et lors desquelles on m’expliquait combien les mainframes étaient compliqués à utiliser et à maintenir. On me citait toujours des problèmes de coûts, d’agilité et de pénurie de compétences. En clair, à moins d’être capables d’embaucher des jeunes compétents sur mainframe, ces machines allaient devenir un casse-tête insoluble en moins de dix ans.”
La question de la raréfaction des compétences (sur mainframes) revient souvent dans les discours des fournisseurs et dans les griefs des clients. C’est également l’avis de Didier Durand (lui aussi de LzLabs) : “Pendant longtemps, le principal déclencheur des projets de migration a été la perspective pour les petits et moyens clients de réaliser des économies sur les coûts de possession de leur(s) mainframe(s). Mais ce n’est pas la motivation principale des grands clients qui sont animés par le besoin de moderniser leur patrimoine applicatif et de rester dans la course face aux acteurs issus du Web et du Cloud. C’est devenu une de leur préoccupation majeure même s’ils s’inquiètent également de la raréfaction des compétences disponibles.”
L’extinction finale ? Peut-être pas encore pour tout de suite…
Il n’y aura sans doute pas de grand “clap de fin” pour les mainframes avec communiqués de presse ronflants permettant de célébrer l’arrêt du tout dernier de ces ordinateurs centraux qui coûtaient cher, mais faisaient le boulot. Le scénario le plus probable est une lente glissade vers l’oubli. Les organisations qui vont faire durer leurs mainframes ne vont pas s’en vanter et il y aura de plus en plus de logiciels pour masquer les anciennes interfaces (un peu à la façon de ce que propose LzLabs). Car il est clair que c’est désormais la raréfaction croissante (et logique !) des compétences qui interdit tout avenir (à moyen terme) à ces machines de notre passé. Une conclusion logique, mais avant qu’une génération de serveurs réussisse à égaler le parcours de ces mainframes (qui détiennent haut la main le record de longévité !), il va s’écouler du temps si même cela arrive jamais.
Pour plus d’informations, n’hésitez pas à nous contacter
J’ai fait toute ma carrière sur mainframe et l’imbécile qui prétend qu’ils sont trop cher à maintenir n’a qu’a regarder les coûts réels des serveurs PC et leur disponibilité et le personnel nécessaire à leur maintenance.
J’ai travaillé dans une entreprise qui supportait 60.000 utilisateurs avec 10 systems engineer et des programmes qui avaient 40 ans cherchez l’erreur de management.
Il est vrai qu’il sont réservés à de grandes entreprises mais la souplesse de leur maintenance et disponibilité est largement supérieur à tout serveur PC.
Combien connaissez-vous des mainframe piratés ??? Zos est plus solide que n’importe quel antivirus.
Bonjour M. FORTIER,
Je commence tout juste à m’intéresser à ce sujet, quel intérêt concret pour une grosse société ?
Si il existe un manque de compétence, un coût d’installation plus élevé (?) et l’utilisation de logiciel propriétaire…
Je précise que je suis vraiment un néophyte sur le sujet, de mon point de vu je ne comprends pas le gain sur un parc de serveur que l’on pourrait héberger à différents endroits…
Vous mentionnez l’aspect sécuritaire, dans quel mesure est ce vraiment plus performant ?
Merci de m’éclairer.
Bien cordialement.