Résoudre le dilemme numérique entre rapidité et qualité/sécurité grâce au mainframe

Par :
Elizabeth Maxwell

lun, 06/11/2017 - 13:01

L’économie numérique et son rythme effréné placent les équipes informatiques face à un paradoxe conséquent. D’une part, elles sont tenues d’accélérer le développement et de fournir de nouvelles solutions plus vite que jamais. D’autre part, elles doivent maintenir une sécurité irréprochable parfois difficilement conciliable avec des cycles de publication rapides. Une plus grande rapidité augmente le risque d’erreur, et comme en témoignent les exemples de cyberattaques qui ont fait récemment fait la une de l’actualité, ces erreurs représentent une menace d’une ampleur sans précédent. Cependant, les préoccupations en matière de sécurité ne sauraient constituer un obstacle au progrès. Si l’innovation connait un retard trop important, les entreprises courent le risque beaucoup plus grave de céder le pas à de nouveaux acteurs plus agiles et plus à même d’affronter les bouleversements numériques actuels. On comprend facilement pourquoi de nombreux responsables informatiques se sentent pris au piège. Mais n’existe-t-il pas un moyen de concilier rapidité et sécurité ?

Revenir aux origines

Au cœur de ce casse-tête se trouve le mainframe, pilier de l’informatique d’entreprise depuis des dizaines d’années. La sécurité fait partie intégrante de la culture mainframe, qui a la réputation de s’appuyer sur des sessions de travail poussées s’articulant autour d’une planification méticuleuse, d’une réflexion stratégique et de décisions sûres. À ce titre, le mainframe est un modèle parfait pour assurer une sécurité à toute épreuve. Cependant, la machine informatique ne peut pas aller plus vite que son rouage le plus lent. Si les entreprises veulent gagner en rapidité, les équipes mainframe doivent rompre avec la tradition et trouver un moyen de déployer leurs innovations plus rapidement.

Pour y parvenir sans sacrifier la qualité et la sécurité ancrées dans leur ADN, elles doivent décomposer les solutions complètes en une somme de sous-ensembles et porter leur attention sur le produit minimum viable (MVP). Par conséquent, plutôt que de travailler sur d’interminables projets pour fournir une solution complète à l’entreprise, elles doivent apporter des mises à jour et des améliorations mineures à des fonctions et fonctionnalités spécifiques de l’application principale. Cela n’est pas sans faire penser au fonctionnement du secteur industriel : les équipes de la chaîne de production se concentrent sur une infime partie du produit fini plutôt que d’essayer de le fabriquer entièrement par elles-mêmes. Ainsi les équipes mainframe pourront répondre aux besoins de l’entreprise beaucoup plus rapidement tout en maintenant la stabilité sur laquelle elles ont bâti leur réputation.

L’automatisation, ou l’art de reproduire sa création

La deuxième pièce du casse-tête est l’automatisation, qui est essentielle pour garantir la vitesse recherchée par l’entreprise. Mais cette automatisation ne saurait se faire au détriment de la sécurité. Les équipes mainframe doivent ici encore s’inspirer de l’exemple du secteur industriel et s’efforcer de créer un modèle similaire. Elles doivent chercher à mettre en œuvre l’automatisation la plus complète possible via la chaîne de production pour accélérer toutes les tâches reproductibles et routinières, telles que les contrôles qualité. Le processus central de création de nouveau code restera bien sûr manuel, mais tout ce qui suit pourra être automatisé afin d’établir et de maintenir un standard de qualité et de sécurité homogène.

La première étape de cette démarche consiste à introduire des tests unitaires automatisés pour accélérer le processus d’assurance-qualité. Pour que l’équipe informatique ne perde plus un temps précieux à rassembler les données de test, à définir les paramètres et à créer des environnements de test seulement temporaires, l’ensemble du processus est automatisé. Par ailleurs, il est possible d’élaborer des scénarios de test réutilisables dans le cadre de ce processus afin d’uniformiser les process de qualité et de sécurité en faisant en sorte que les nouvelles fonctionnalités soient soumises aux mêmes contrôles. Cependant, les entreprises doivent prendre en compte un autre facteur souvent négligé si elles veulent éviter de s’exposer à un défaut de conformité majeur.

Prévenir une catastrophe en matière de protection des données

Une étude révèle que 83 % des entreprises testent leurs applications mainframe à l’aide de données client réelles afin d’utiliser des scénarios aussi proches que possible de la réalité. Elles redoutent en effet que l’usage de données factices ne fausse les tests de leurs nouvelles fonctionnalités, ce qui ne leur permettra pas de se faire une représentation précise de la façon dont elles se comporteront une fois mises en action.

Cependant, la plupart d’entre elles ne demandent pas pour autant le consentement explicite de leurs clients pour utiliser leurs données de cette manière, ce qui pourrait les mettre en porte-à-faux avec le nouveau Règlement général sur la protection des données (RGPD) de l’Union européenne, qui entrera en vigueur en mai prochain. L’automatisation apporte également une solution à ce dilemme : en effet, elle offre un moyen d’extraire rapidement et facilement les données nécessaires pour chaque test, puis de les traiter à l’aide d’un moteur qui masque toute information pouvant être rattachée à un individu, tout en conservant la valeur correspondante aux fins des tests.

Tourner à plein régime grâce à des déploiements automatisés

Enfin, les équipes mainframe doivent automatiser le processus de déploiement de manière à optimiser la vitesse de livraison à l’entreprise. Du fait de la baisse continue du nombre de spécialistes mainframe, le temps qui s’écoule avant que des ressources soient disponibles pour transmettre les charges de travail est souvent beaucoup plus long que la durée de leur traitement. Éliminer la nécessité d’une mise en production manuelle des nouvelles mises à jour par un développeur peut donc contribuer grandement à accélérer le rouage du mainframe. Cependant, pour que la confiance soit maintenue, il est impératif que les équipes mainframe gardent une obligation de rendre des comptes en toute transparence. Les équipes mainframe doivent être en mesure de revenir en arrière après des modifications et de restaurer la version précédente d’une application si nécessaire. Sans cela, la vitesse risque d’être préjudiciable à la sécurité et à la stabilité, et d’ébranler ainsi l’ensemble du processus.

À terme, l’adoption d’une telle approche permettra au mainframe de servir d’exemple à l’ensemble du service informatique. La focalisation sur le produit minimum viable (MVP) et l’automatisation des tâches manuelles et reproductibles qui ont été essentielles à la stabilité, à la sécurité et à la fiabilité cultivées par les équipes mainframe ces cinquante dernières années démontreront qu’il est possible de concilier rapidité et sécurité, et d’ouvrir ainsi les portes de l’avenir numérique aux entreprises. 

A propos de l'auteur

Elizabeth Maxwell
Spécialiste certifiée de la protection des données et directrice technique EMEA de Compuware