découvrez un retour d'expérience détaillé sur une migration hors d'aws, une aventure de 18 mois pleine de challenges, enseignements et réussites.

Retour d’expérience : sortir d’AWS, une aventure à 18 mois

L’euphorie des débuts a laissé place à une froide réalité comptable. En 2026, le paysage technologique français ne jure plus uniquement par le tout-cloud, mais commence à observer un mouvement de reflux stratégique vers des infrastructures plus contrôlées. Pour de nombreuses entreprises, l’agilité promise par Amazon Web Services s’est heurtée à une complexité tarifaire croissante et à des interrogations persistantes sur la souveraineté. Ce récit retrace l’odyssée d’une fintech hexagonale qui, après des années de dépendance totale, a décidé de reprendre les rênes de son infrastructure. Entre les frais de sortie prohibitifs, les défis de l’interopérabilité et la nécessité de maintenir un service impeccable pour ses utilisateurs, ce voyage de dix-huit mois révèle les coulisses d’un divorce technologique aussi coûteux que libérateur. Il ne s’agit plus simplement de migrer des serveurs, mais de repenser entièrement la place de la donnée dans une économie numérique de plus en plus régulée.

Les motivations d’un divorce technologique avec le cloud public

Le point de rupture intervient souvent lors d’un comité de direction où les factures mensuelles dépassent les prévisions les plus pessimistes. Dans le cas d’HexaCloud, une entreprise spécialisée dans les solutions de paiement sécurisées, la croissance fulgurante de ses services d’intelligence artificielle a entraîné une explosion des coûts de stockage et de transfert. L’automatisation, qui permettait initialement de réduire le délai de mise sur le marché, est devenue un piège financier où chaque milliseconde de calcul se payait au prix fort. Les décideurs ont dû admettre que le modèle du paiement à l’usage, si séduisant lors de la phase de démarrage, perdait sa pertinence face à des charges de travail stables et prévisibles.

Au-delà de l’aspect financier, la question de la souveraineté des données est revenue au centre des débats. Malgré l’implantation de centres de données AWS sur le sol français, les craintes liées à l’extraterritorialité du droit américain, incarnées par le Cloud Act, restaient une préoccupation majeure pour les responsables juridiques. Pour une société traitant des informations bancaires sensibles, la garantie d’une isolation totale des environnements devenait un argument commercial indispensable. Cette volonté de s’affranchir des législations étrangères a pesé lourd dans la balance, poussant l’équipe technique à explorer des alternatives plus proches des exigences du RGPD et des recommandations de la Cour de Justice de l’Union européenne.

La fin de l’illusion du tout illimité et les frais de sortie

La première phase de cette aventure a consisté à réaliser un audit impitoyable des services consommés. L’équipe a découvert que la facilité avec laquelle les développeurs pouvaient instancier de nouvelles ressources avait créé un surplus d’instances orphelines et de bases de données sous-utilisées. Pour maîtriser ses dépenses cloud, il a fallu mettre en place des outils de surveillance extrêmement précis, capables d’identifier les gaspillages invisibles. C’est à ce moment que la notion d’Egress Fees, ces frais de transfert de données sortantes, est apparue comme le principal obstacle à la migration.

Les chiffres étaient vertigineux. Déplacer plusieurs pétaoctets de données historiques vers un cloud privé ou un fournisseur souverain représentait une dépense immédiate équivalente à six mois de facturation courante. Cette stratégie de verrouillage, ou Lock-in, obligeait l’entreprise à planifier son départ avec une minutie chirurgicale. Chaque octet devait être justifié, chaque transfert devait être optimisé pour ne pas vider la trésorerie avant même que le nouveau système ne soit opérationnel. Cette étape a nécessité une collaboration étroite entre les ingénieurs FinOps et les architectes réseau pour lisser les coûts sur plusieurs trimestres.

Orchestrer la transition vers une infrastructure hybride

Le choix s’est finalement porté sur une architecture hybride, combinant des serveurs physiques dédiés en colocation dans un data center français et une couche logicielle de cloud privé. L’objectif n’était pas de revenir à l’informatique d’il y a vingt ans, mais de construire une usine logicielle capable de piloter des ressources quel que soit leur emplacement. Cette approche permet de conserver la flexibilité du cloud public pour les pics de charge imprévisibles tout en ancrant les services critiques sur une infrastructure dont les coûts sont fixes et prévisibles.

La migration s’est déroulée par vagues successives, en commençant par les services les moins critiques. Cette méthode a permis de tester la robustesse des tunnels sécurisés et de s’assurer que la latence entre les anciens services restés sur AWS et les nouveaux services rapatriés n’impactait pas l’expérience utilisateur. La synchronisation des données en temps réel a constitué le défi majeur de cette période, exigeant une refonte profonde de certaines API pour les rendre compatibles avec un environnement multi-cloud. Chaque étape franchie renforçait la confiance des équipes techniques, prouvant qu’une migration vers d’autres horizons était non seulement possible, mais salutaire pour la pérennité du modèle économique.

Les défis techniques d’une migration à rebours

L’un des principaux écueils rencontrés fut la dépendance aux services propriétaires d’AWS, tels que Lambda ou DynamoDB. Ces outils, bien que performants, ne possèdent pas d’équivalents strictement identiques dans le monde de l’open source ou chez les fournisseurs alternatifs. Les ingénieurs ont dû réécrire des milliers de lignes de code pour encapsuler la logique métier dans des conteneurs Kubernetes, assurant ainsi une portabilité totale. Ce travail de ré-architecture, bien que fastidieux, a permis d’assainir le code source et de supprimer des dettes techniques accumulées au fil des ans.

La formation des équipes a également été un pilier central du succès. Passer d’une gestion par consoles graphiques simplifiées à l’administration fine de systèmes Linux et d’orchestrateurs complexes a demandé un effort de montée en compétence significatif. Les développeurs ont dû se réapproprier des concepts de réseau et de sécurité qu’ils avaient délégués au fournisseur de cloud. Cette réappropriation du savoir-faire technique a transformé la culture interne de l’entreprise, favorisant une approche plus responsable et plus consciente des ressources matérielles sous-jacentes.

Bilan après 18 mois de souveraineté retrouvée

Le recul de dix-huit mois permet aujourd’hui de dresser un bilan chiffré de cette aventure. Les économies réalisées sur les coûts d’infrastructure s’élèvent à près de 45 % par rapport à l’ancien modèle. Cette marge de manœuvre financière a été immédiatement réinvestie dans la recherche et le développement de nouveaux algorithmes de robotique et d’IA, secteurs où l’entreprise cherche à se démarquer en 2026. La disponibilité des services, autrefois dépendante des pannes mondiales du géant américain, est désormais gérée en interne avec un taux de disponibilité dépassant les 99,99 % grâce à une redondance géographique locale.

Au-delà des chiffres, c’est la flexibilité stratégique qui constitue le gain le plus précieux. L’entreprise n’est plus liée aux changements de politique tarifaire ou aux évolutions technologiques imposées par un tiers. Elle peut désormais choisir ses partenaires en fonction de ses besoins réels et non par contrainte technique. Cette autonomie a ouvert de nouvelles portes, notamment pour des contrats avec des administrations publiques et des acteurs de la santé, particulièrement sensibles à la localisation et à la protection des données personnelles.

  • Réduction drastique des frais fixes liés au stockage de masse.
  • Amélioration de la conformité réglementaire grâce à l’hébergement souverain.
  • Renforcement de l’expertise technique interne sur les technologies open source.
  • Optimisation des performances applicatives par un contrôle direct sur le matériel.
  • Sécurisation de la propriété intellectuelle en limitant les flux transatlantiques.

L’expérience d’HexaCloud montre que si le chemin vers la sortie est semé d’embûches, il offre une opportunité unique de reprendre le contrôle sur son destin numérique. La migration à rebours ne doit pas être perçue comme un retour en arrière, mais comme une évolution vers une informatique plus mature, où chaque choix d’infrastructure est pesé en fonction de sa valeur réelle et de son impact sociétal. Pour les entreprises qui hésitent encore, ce retour d’expérience souligne l’importance d’anticiper la réversibilité dès le premier jour de leur voyage vers le cloud.

Laisser un commentaire

Retour en haut