
Ce pourrait être une rue de la banlieue de Lille comme les autres – des briques rouges, des trottinettes en libre-service abandonnées au milieu du trottoir, des voix d’enfants provenant d’une crèche. Mais pourtant, sous le ciel ensoleillé de Roubaix en ce mercredi de mai, la rue Kellermann n’est pas une rue comme les autres. Ses façades de briques rouilles abritent l’un des neuf centres de données d’OVHcloud du nord de la France : « Roubaix 8 ». Derrière ses murs se trouve une partie des « 120 000 serveurs physiquement présents » du champion du cloud français, soit près de 20 à 25 % de l’activité du groupe dans le monde.
Une casquette fluo de protection sur la tête et des chaussures de sécurité aux pieds, il faut passer par un sas de sécurité qui vous pèse et vous photographie pour pouvoir entrer dans l’antre du premier hébergeur de cloud européen. C’est peut-être ici que le champion français de « l’informatique en nuage », au milliard d’euros de revenus, héberge les milliards de données provenant d’entités publiques et privées. Ces derniers mois, leur intérêt pour un « cloud européen et souverain », une carte brandie depuis des années par OVH, a été démultiplié après le revirement géopolitique américain.
À lire aussi : De la sidération à la négociation : comment le duo Trump-Musk a fait vaciller l’Europe en 13 jours
Tandis que nous passons par une dernière cabine de contrôle et que nous entrons dans le fameux bâtiment, nous repensons à cette promesse, sur le papier, alléchante : pouvoir voir et raconter ce qui se cache derrière nos multiples consommations numériques : streaming, réseaux sociaux, messageries, gaming et désormais outils d’IA comme ChatGPT, Gemini et Le Chat, dont l’alpha et l’oméga, la donnée, est peut-être stockée ici. Pour la première fois en ce qui nous concerne — mais pas pour 01net.com — nous allons voir la structure, le matériel, les infrastructures qui subordonnent nos mille et un usages du numérique : du tangible derrière l’intangible.
À lire aussi : Une révolution vieille de 20 ans sera-t-elle la clé d’un Net plus vert ?
Un bourdonnement assourdissant
Dès l’entrée, un bruit de ventilation se fait entendre. Au-dessus de nos têtes, des câbles oranges se frayent des chemins le long du plafond, haut de plusieurs mètres. Il faut encore longer un couloir qui jouxte des salles d’arrivée et de contrôle de l’électricité. Ces dernières sont isolées du cœur du data center, en raison du risque d’incendie. Pour les infrastructures les plus récentes d’OVH, toutes les énergies ont, elles, été mises à l’extérieur des bâtiments. « Une fois qu’on a pris la foudre, on est forcément plus sensible », explique Grégory Lebourg, directeur des programmes environnementaux, en référence à l’incendie de Strasbourg qui, en 2021, a fait partir en fumée un centre de données d’OVH.
Et si les causes de l’incendie n’ont toujours pas été publiquement dévoilées, l’instruction étant toujours en cours, la société a, depuis, mis en place un « plan hyper-résilience ». Elle a investi « 60 millions d’euros dans (ses) data centers pour que cela ne se reproduise plus jamais », détaille Solange Viegas Dos Reis, directrice juridique du groupe. Alors qu’en 2021, « plus aucune société ne souhaitait nous assurer », désormais, la donne a changé. D’autres clouders ont eux aussi subi des incidents. Et « les assurances se battent pour nous avoir », se réjouit-elle.
Mais ça y est. Nous franchissons les derniers pas avant d’atteindre le cœur du data center, dont l’accès est encore limité par un badge. Un bourdonnement assourdissant nous submerge, sous une lumière presque naturelle. Face à nous, aucune immense armoire réfrigérée ne monte jusqu’au plafond. À la place, se dresse une première longue allée de « baies » emboîtées dans des structures métalliques. L’ensemble sur trois niveaux nous dépasse d’un ou de deux mètres.
Dans cet entrepôt épuré où travaillent 86 salariés (sur les 2 800 que compte le groupe dans le monde), nous longeons les dizaines de lignes de baies, semblables à de longues allées d’une immense bibliothèque, séparées chacune d’un bon mètre et demi. Chaque baie est composée de plusieurs serveurs empilés les uns sur les autres, comme des livres – plutôt des plateaux – qui auraient été rangés horizontalement sur une étagère. Nous apprendrons un peu plus tard qu’il en existe différentes combinaisons de baies, désignées par des personnages de Mario comme Luigi, Wario, Toad. « Dans chaque mètre carré, il y a entre 25 à 60 serveurs », nous précise Antoine Renaut, manager régional des data centers.
Dans le royaume de la donnée et des serveurs, on trouve aussi de l’eau
Dans le bâtiment, la densité des serveurs donne à cette « bibliothèque » une allure étrange : de ses rayons sortent mille et un câbles jaunes, noirs, rouges, bleus, blancs, verts. L’impression d’avoir ouvert le capot d’une énorme machine qui ronronne bruyamment, alors qu’il n’y a aucun capot, est tenace. À côté des fils électriques et réseaux plutôt attendus, des tuyaux de cuivre viennent compléter le tableau, avec des arrivées et des sorties d’eau froide et chaude. Car oui, dans le royaume de la donnée et des serveurs, on trouve aussi de l’eau et de nombreux éléments qui renvoient plutôt à l’univers de la plomberie.
Il s’agit d’ailleurs d’une des particularités des data centres d’Ovhcloud, créé en 1999. « On est indépendant de la température extérieure », résume Grégory Lebourg, directeur des programmes environnementaux. Contrairement à ses concurrents, ici, point d’armoires réfrigérantes, point de climatisation, même l’été. À l’intérieur, il fait ce jour-là plus chaud qu’à l’extérieur, mais de quelques degrés seulement. La raison s’appelle le « watercooling », un système de refroidissement des serveurs par l’eau inventé par les Klaba, dont Octave, le fondateur d’OVHcloud, en 2003. Installé sur chaque serveur, le dispositif permet de retirer près de 70 % de la chaleur émise par le système. La technologie est protégée « par cent brevets », nous précise Grégory Lebourg.

Concrètement, on va faire circuler de l’eau dans un échangeur placé au-dessus du processeur, pour le refroidir. L’eau va venir capturer la chaleur émise – une chaleur qui sera ensuite rejetée dehors, et parfois réutilisée pour les besoins de l’entreprise. Grâce à ce dispositif, inutile d’isoler thermiquement le bâtiment. Pas besoin non plus d’installer un système de climatisation énergivore et coûteux : de quoi réaliser des économies substantielles, de répondre aux enjeux environnementaux, et de rester dans la course face aux hyperscalers américains (AWS, Azure et Google Cloud), reconnait le directeur des programmes environnementaux.
Chaque serveur provient lui aussi d’OVH : ils sont conçus et montés dans son usine de Croix, située à quelque six kilomètres du centre de données, et que nous avons aussi pu visiter : le site fournit les DC (« data centers ») d’Europe et d’Asie. Pour l’Amérique du Nord, une usine similaire existe au Canada. Là aussi, il faut imaginer un entrepôt dans lequel des lignes de trois opérateurs vont venir « clipser » sur des châssis en métal — fabriqués à quelques mètres de l’usine — des composants venus de l’étranger, dont certains valent parfois plus de 15 000 euros pièce (cartes mères, processeurs, câbles de connexion, fils électriques, arrivées d’eau et d’air… ).

Commence alors un véritable « assemblage de Lego » par lequel tous les nouveaux arrivants doivent passer, nous précise un des salariés. Lui-même a appris pendant une semaine à monter un serveur, lorsqu’il a rejoint le groupe. Design, logistique, montage, tests et recyclage se succèdent dans l’immense entrepôt, qui comprend aussi une partie robotisée utilisée pour les pics de production, souligne Frédéric Lockart, responsable d’atelier et de la boucle “Reverse” chez OVHcloud (recyclage). Concrètement, « un serveur y sort toutes les trois minutes ». Sa durée de vie pourra aller jusqu’à neuf ans, avec des cycles de trois ans. « Au cours de leur 2e et 3e vie, les serveurs fonctionnent toujours bien, mais avec moins de performance », ajoute le responsable. Comprenez : tous les clients n’ont pas besoin de la dernière génération de CPU/GPU pour stocker leurs données.
Une fois en fin de cycle, les composants du serveur sont démontés : chaque semaine, entre 500 et 600 serveurs sont dénudés. Ces derniers sont recyclés à 60 % : certaines pièces sont réutilisées, d’autres données ou revendues à des brokers. Une partie d’entre elles, inutilisables, finissent broyées.

Roubaix 8 dispose aussi de plusieurs salles SNC (SecNumCloud) ou « Critical +» derrière lesquelles le mystère reste entier – seuls quelques salariés habilités peuvent y pénétrer, empreintes digitales à l’appui. Ce plus haut label de cybersécurité, qui protège notamment les données qui y sont stockées des lois extraterritoriales américaines et chinoises, est désormais requis pour certaines data sensibles de l’État.
À lire aussi : Les données sensibles de l’État ne doivent pas être stockées sur des hébergements américains : le rappel à l’ordre de Bercy
« Les serveurs qui sont dans ces salles ne sortent pas. Ces dernières disposent aussi de leur propre système de refroidissement. On utilise des câbles réseaux spécifiques », nous explique-t-on. Pour obtenir ce label, il faut passer par un audit qui dure de 12 à 18 mois.
Mais pour Solange Viegas Dos Reis, directrice juridique du groupe, le label SNC est loin d’être le seul atout qui permet à OVHcloud d’être à l’abri d’une éventuelle pression (commerciale ou géopolitique) qui pourrait provenir de certains pays – comprenez : les Etats-Unis et la Chine. « Le fait de fabriquer nous même nos serveurs et d’avoir nos propres réseaux télécom nous permet de ne pas être dans la dépendance technologique » (d’entreprises ou de pays étrangers, NDLR), reconnaît la responsable juridique. Ajoutez à cela qu’OVHcloud appartient toujours à 80 % à la famille d’Octave Klaba, son fondateur, poursuit-elle.
Le groupe a-t-il vu, justement, davantage de clients taper à sa porte, depuis le revirement américain et la crainte de voir les trois sociétés américaines qui dominent le marché du cloud aujourd’hui (Amazon AWS, Microsoft Azure et Google Cloud) être instrumentalisées ? « Nous discutons avec beaucoup de monde. Nous hébergeons désormais l’IGN et le CNRS ». Et si, dans le passé, « nous avions peut-être un déficit d’image par rapport aux gros hyperscalers », aujourd’hui, « être chez OVH c’est bien, parce que nous sommes souverains », estime la directrice juridique. « La bonne nouvelle c’est que la souveraineté n’est désormais plus un sujet de DSI, mais de dirigeants d’entreprise », poursuit-elle. Reste qu’une fois que la décision de « changer pour un cloud provider européen est prise, il y a ensuite l’exécution », une étape qui peut prendre plusieurs mois, voire plusieurs années, et dont OVHcloud espère bien être l’heureux bénéficiaire.
Et s’il est déjà temps de partir, et que les portes se referment sur les locaux nordistes d’OVH, les serveurs, eux, continuent d’être assemblés, testés et désossés. Au même moment à quelques kilomètres de là, des passants traversent peut-être la rue Kellermann, loin de se douter que derrière ses façades, les baies de Roubaix 8 et ses milliers de câbles colorés, continuent inlassablement de ronronner.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.