Natick refait surface

Par:
fredericmazue

mar, 15/09/2020 - 17:45

Les centres de données (datacenters) posent des problèmes récurrents. Par exemple devoir être près des grands centres urbains, pour réduire les temps de transmission des données. Ou encore leur importante consommation en énergie, qui provoque de l'échauffement. Les systèmes de climatisation nécessaires ne sont alors que consommation énergétique supplémentaire, sans parler du bruit généré.

Pour résoudre ces problèmes, Microsoft à conçu le projet Natick. Il s'agit d'un projet de projet de centres de donnéess sous-marins, avec lequel Microsoft envisage de résoudre une partie des problèmes cités plus haut. Souvent les grands centres urbains sont près des côtes. Voilà pour la transmissions des données. Quant au refroidissement, une masse d'eau tout autour du centre de données, ça aide :-) Cerise sur le gâteau, avec un centre de données sous-marin, plus de bruit en surface.

Après une première phase d'expérimentation au large de la Californie, l'équipe du projet de Microsoft a déployé le centre de données Northern Isles, au large des îles Orcades en Écosse, à 117 pieds de profondeur, sur le fond marin au printemps 2018. Ce centre de données avait été assemblé et testé à Brest en France. Il consiste en un cylindre long de 12 mètres, pour 2,5 mètres de diamètre. A l'intérieur, 12 baies pouvant accueillant 864 serveurs.

Au cours des deux années suivantes, les membres de l'équipe ont testé et surveillé les performances et la fiabilité des serveurs du centre de données.

En juillet le centre de données a été remonté à la surface. Des échantillons de son atmosphère d'azote sec et des serveurs défaillants ont été envoyés à la firme pour analyse. 

Pour Microsoft, cette expérience est un succès. Redmond considère que son centre de données sous-marin est 8 fois plus fiable qu'un centre de données terrestre.

L'hypothèse de l'équipe est que l'atmosphère de l'azote – moins corrosif que l'oxygène – et l'absence d'activité humaine –  et donc personne pour heurter et bousculer les composants – sont les principales raisons de cette différence. Si l'analyse s'avère correcte, l'équipe pourrait être en mesure d'utiliser ces résultats dans des centres de données terrestres explique Microsoft dans un billet de blog