Pour les DSI sans Kubernetes : comment moderniser votre SI sans basculer dans la complexité ?

Dans un paysage informatique en transformation permanente, Kubernetes occupe aujourd’hui une place majeure dans les discussions sur la modernisation des systèmes d’information. Pour autant, toutes les organisations ne l’ont pas encore adopté — et, dans bien des cas, cette situation découle d’un choix stratégique, d’une trajectoire maîtrisée ou d’une planification progressive de la modernisation.

Certaines DSI privilégient une montée en maturité graduelle : amélioration de l’usine logicielle, optimisation de la virtualisation, expérimentation des conteneurs, adoption de PaaS ou mise en place d’orchestrateurs légers. L’enjeu est de construire un chemin adapté au SI, cohérent avec les capacités internes, les besoins métiers et les objectifs de moyen terme.

Moderniser son système d’information sans le surcomplexifier est une préoccupation majeure pour de nombreuses équipes techniques. Les attentes sont fortes : automatisation, résilience, portabilité, maîtrise des coûts et rapidité de mise en production. Mais la méthodologie compte autant que l’outillage. Une modernisation réussie n’est pas seulement une question de technologie : c’est une trajectoire progressive, structurée et alignée avec la réalité opérationnelle.

Cet article propose un éclairage sur les voies de modernisation possibles pour les organisations qui souhaitent évoluer vers des pratiques cloud-native — à leur rythme, selon leur contexte — tout en préservant la maîtrise d’un SI souvent hétérogène et ancien.

Moderniser étape par étape : la conteneurisation comme fondation

La conteneurisation constitue souvent le premier levier pour amorcer la transformation du SI. Elle permet de gagner en homogénéité, en portabilité et en reproductibilité sans bouleverser les architectures existantes, tout en préparant une éventuelle adoption de kubernetes. Docker, et plus largement l’écosystème des conteneurs, offre un cadre pratique pour isoler les services, standardiser les environnements et faciliter les pipelines CI/CD.

Les bénéfices immédiats :

  • Des environnements identiques du développement à la production.
  • Une réduction des écarts de configuration et des risques d’erreur.
  • Une simplification des déploiements et des mises à jour.
  • Une base technique prête pour des évolutions ultérieures.

Pour de nombreuses DSI, cette approche progressive apporte déjà un gain significatif, sans nécessiter la mise en place immédiate d’un orchestrateur complet.

Virtualisation optimisée : renforcer ce qui fonctionne déjà

La modernisation ne signifie pas systématiquement transformer toute l’infrastructure. Les environnements virtualisés actuels, qu’ils reposent sur Proxmox, VMware ou KVM, proposent des capacités avancées de haute disponibilité, de gestion des ressources et d’automatisation, pouvant coexister ou s’intégrer progressivement avec Kubernetes.

Les axes d’amélioration possibles :

  • Automatisation du provisioning via Terraform, Ansible ou similaires.
  • Normalisation des images, des configurations et des règles de sécurité.
  • Centralisation de la supervision et des métriques.
  • Rationalisation des machines virtuelles pour réduire la dette technique.

Pour certains environnements, renforcer la virtualisation existante constitue une étape logique, cohérente et durable de la trajectoire de modernisation.

Orchestrateurs légers : progresser sans transformer brutalement

Entre des environnements conteneurisés simples et les orchestrateurs avancés comme Kubernetes, il existe des solutions légères. Ces technologies permettent d’adopter des pratiques modernes – déploiement déclaratif, gestion simplifiée des services, montée en charge maîtrisée – tout en conservant une architecture compréhensible et compatible avec les compétences actuelles des équipes.

Pourquoi envisager cette étape intermédiaire ?

  • Installation rapide et maintenance réduite.
  • Exigences opérationnelles limitées.
  • Possibilité de commencer à automatiser et standardiser les services.
  • Idéal pour débuter sur des périmètres contrôlés ou non critiques.

Ces outils constituent un pont vers des pratiques cloud-native sans imposer une rupture immédiate.

Plateformes PaaS : moderniser en délégant une partie de la complexité

Les plateformes PaaS (Platform as a Service) permettent de moderniser les applications sans gérer directement l’infrastructure sous-jacente, souvent en s’appuyant sur Kubernetes en arrière-plan. Des solutions facilitent la gestion du cycle de vie applicatif, la scalabilité et la résilience.

Avantages clés :

  • Réduction de la charge opérationnelle.
  • Déploiements standardisés et rapides.
  • Accès aux services managés du cloud.
  • Amélioration du time-to-market.

Pour certaines organisations, le PaaS devient un accélérateur majeur de modernisation, notamment pour les applications web ou les services publics exposés.

Une approche progressive vers le cloud-native

Pour les DSI souhaitant évoluer vers un modèle cloud-native, l’essentiel est la maîtrise du rythme, notamment dans l’adoption de Kubernetes. Une transformation réussie repose sur une succession d’étapes cohérentes plutôt que sur un basculement massif.

Une trajectoire progressive peut inclure :

  • La modernisation de la CI/CD (intégration et distribution ou déploiement continus) avant toute refonte profonde.
  • La conteneurisation ciblée des applications candidates.
  • L’amélioration de l’observabilité, indispensable à toute montée en maturité.
  • La standardisation des environnements, qu’ils soient virtualisés ou conteneurisés.
  • L’introduction d’orchestrateurs ou de services managés, selon le besoin et le moment opportun.

Cette méthode permet de limiter les risques, de monter en compétences et de préparer sereinement les transitions futures.

Moderniser sans surcomplexifier : les bonnes pratiques pour les DSI

La modernisation du SI doit répondre à un objectif simple : apporter de la valeur au métier tout en garantissant la résilience opérationnelle. Pour éviter les projets surdimensionnés ou les ruptures techniques, plusieurs principes forts émergent.

1. Aligner la modernisation sur les besoins réels
Les choix technologiques doivent être dictés par la criticité, l’usage, la durée de vie et la valeur métier des applications.

2. Favoriser la simplicité opérationnelle
Les solutions adoptées doivent être maîtrisables par les équipes, sans dépendre de compétences rares ou difficiles à maintenir.

3. Automatiser avant de transformer
Une infrastructure automatisée réduit les risques et fluidifie toute évolution ultérieure.

4. Accompagner les équipes dans la montée en compétences
La modernisation technique n’a de sens que si les collaborateurs peuvent l’exploiter efficacement.

5. Élaborer une trajectoire plutôt qu’une rupture
L’objectif est la cohérence, pas la vitesse. Une trajectoire pensée, documentée et progressive produit des résultats plus durables.

Conclusion : construire une trajectoire adaptée à votre SI

Les DSI doivent suivre une démarche progressive, rationnelle, alignée avec leurs besoins opérationnels et leurs ressources. Moderniser un SI est un processus global qui peut s’appuyer sur de multiples leviers : conteneurisation, virtualisation avancée, automatisation, PaaS, orchestrateurs légers ou services managés.

L’essentiel est de définir ensemble une trajectoire réaliste, adaptée à votre contexte, et capable d’accompagner votre organisation vers des architectures plus modulaires, plus résilientes et plus agiles — au bon rythme, avec les bons outils, les bonnes compétences, un intégrateur expert et selon vos priorités.

Pourquoi les entreprises se tournent vers un Kubernetes souverain et maîtrisé

Dans le paysage numérique actuel, l’adoption de Kubernetes est un indicateur de modernité et d’agilité technologique. Pourtant, à mesure que l’orchestrateur s’installe au cœur des systèmes d’information critiques, la question de sa souveraineté et de sa maîtrise opérationnelle devient l’enjeu stratégique dominant pour les Directeurs des Systèmes d’Information (DSI). 

Les modèles de Cloud public, bien que performants, suscitent des préoccupations croissantes concernant l’application de lois extraterritoriales, la transparence des opérations et la difficulté d’obtenir un support humain et expert. Pour répondre à ces défis, les entreprises se tournent résolument vers un modèle Kubernetes Souverain et Maîtrisé, conçu pour garantir la protection des données, la conformité réglementaire et une résilience opérationnelle totale. 

Cet article décortique les raisons fondamentales de ce pivot stratégique et explore la valeur d’un modèle qui combine l’excellence technologique de Kubernetes avec une infogérance humaine et une souveraineté sans compromis. 

I. L’Impératif Souverain : Dépasser le Cadre Légal par la Maîtrise Totale 

La souveraineté numérique n’est plus un simple exercice de conformité (RGPD) ; c’est une stratégie de gestion des risques géopolitiques et juridiques qui touche directement l’infrastructure Kubernetes. 

1. Blindage Contre les Lois Extraterritoriales : Le Cœur de la Souveraineté 

La raison principale est d’assurer que l’infrastructure ne soit jamais soumise à des législations étrangères (comme le Cloud Act). Pour un DSI, cela se traduit par des exigences techniques claires : 

  • Sécurité du Plan de Contrôle : Le stockage des données critiques du cluster (secrets, configurations, politiques d’accès) doit être hébergé sur des datacenters localisés sur le territoire national, garantis contre toute réquisition légale externe. 
  • Maîtrise des Datacenters : L’opérateur doit disposer d’une maîtrise complète, voire de la pleine propriété, des infrastructures physiques. Cette transparence sur la localisation des serveurs et l’accès physique est la seule garantie contre la dépendance à des entités multi-nationales. 

2. Transparence Opérationnelle et Conformité Humaine 

La souveraineté s’étend aux opérations. Le DSI doit avoir l’assurance que son cluster est géré par des équipes partageant le même cadre légal et éthique. 

  • Équipes 100% Basées Localement : L’intégralité du support, de l’ingénierie et de l’infogérance doit être assurée par des experts localisés sur le territoire hôte. Cela garantit que les processus de sécurité, de patching et de gestion des incidents sont régis par les lois nationales. 
  • Transparence sur les Processus : L’opérateur souverain fournit une visibilité totale sur les procédures de sécurité, de sauvegarde et de mise à jour, facilitant les audits internes et externes. 

3. Indépendance Technologique et Anti-Vendor Lock-in 

Un modèle maîtrisé se prémunit contre l’enfermement propriétaire : 

  • Fondations Open Source : L’utilisation de distributions Kubernetes basées sur des standards ouverts est privilégiée. Cette indépendance technologique assure la portabilité des applications et des manifestes (YAML), garantissant que l’entreprise n’est pas « piégée » par des API propriétaires ou des surcouches complexes d’un fournisseur unique. 

II. Le Modèle Infogéré Clé-en-Main : Concentrez-vous sur le Métier 

Le plus grand avantage pour le DSI est de pouvoir déléguer l’immense complexité de l’opération de Kubernetes, tout en conservant une plateforme sécurisée et sur-mesure. 

1. La Fin du Fardeau Opérationnel 24/7 

Gérer un cluster Kubernetes en production est un travail à temps plein nécessitant des équipes SRE hautement qualifiées. Le modèle infogéré (ou managed) souverain prend en charge cette charge : 

  • Gestion du Plan de Contrôle (Control Plane) : L’opérateur assure la haute disponibilité des Master Nodes, la réplication d’etcd, et les mises à jour majeures et mineures. La mise à niveau des clusters est une opération critique et complexe, entièrement prise en charge. 
  • Sécurité Proactive et Infogérance 24/7 : La plateforme est surveillée en permanence. L’opérateur gère l’application des correctifs critiques (CVE), les mises en place de Network Policies fines, l’intégration des outils de sécurité comme les Admission Controllers et la gestion sécurisée du CNI. 

Déléguer cette infogérance permet aux équipes internes de se concentrer sur le développement d’applications, le CI/CD et l’innovation métier. 

2. Expertise Humaine vs. Interface Libre-Service 

Ce qui distingue ce modèle des grands fournisseurs de cloud, c’est l’accent mis sur l’expertise humaine de proximité. 

  • Accompagnement de Proximité et Partenariat : Le DSI accède directement à des experts spécialisés qui comprennent son écosystème IT et ses contraintes réglementaires. Le support va au-delà du dépannage basique ; il s’agit de conseil en architecture, en optimisation des ressources et en stratégie de migration. 
  • Résolution Rapide et Locale : En cas d’incident critique (P0), la communication avec des équipes locales, dans le même fuseau horaire et la même langue, assure une réactivité et une résolution de crise nettement supérieures à celles offertes par des supports globaux et délocalisés. 

III. Bâtir une Plateforme Résiliente : Performance et Pérennité 

Le modèle souverain et maîtrisé est, par nature, un choix de résilience et de performance optimisée. 

1. Performance Optimale par la Localisation 

L’hébergement en datacenters locaux permet de garantir une faible latence essentielle pour les applications critiques et les interactions avec les bases de données legacy situées sur le territoire. Le DSI s’assure ainsi que la qualité de service pour ses utilisateurs est maximisée, sans les goulots d’étranglement inhérents aux longues distances du Cloud global. 

2. Maîtrise des Coûts et Prévisibilité Budgétaire 

En utilisant des infrastructures dédiées ou des modèles d’abonnement basés sur les ressources réelles, le DSI évite la complexité tarifaire et les coûts imprévus d’exploitation qui caractérisent souvent les hyperscalers. Le modèle souverain offre une visibilité et une prévisibilité budgétaire cruciales pour la planification financière IT. 

Conclusion 

Le tournant des entreprises vers un Kubernetes souverain et maîtrisé est une réponse logique et stratégique aux vulnérabilités du numérique globalisé. 

Le DSI cherche à acquérir une solution qui cumule le meilleur des mondes : l’agilité et la scalabilité de Kubernetes, combinées à la sécurité juridique et opérationnelle d’une solution locale. Le modèle de Kubernetes Clé-en-main, Souverain et Infogéré 24/7 par des experts locaux représente cette combinaison unique. Il offre la tranquillité d’esprit nécessaire pour se concentrer sur la transformation numérique, en sachant que le fondement de l’infrastructure est parfaitement sécurisé, conforme et géré par une expertise humaine de proximité. 

Découvrez nos autres visions d’experts :

Kubernetes : Pourquoi la Complexité Opérationnelle Continue de Peser sur les Équipes IT

Introduction : Le Paradoxe Kubernetes – Standardisation et Souffrance Opérationnelle 

Kubernetes (K8s) s’est imposé en quelques années comme le standard de facto pour l’orchestration des conteneurs. Il est l’épine dorsale de la transformation numérique, permettant l’adoption d’architectures microservices et d’une culture DevOps. Sa promesse est simple : une portabilité, une scalabilité et une résilience inégalées pour les applications modernes. 

Pourtant, sous le capot de cette machinerie puissante se cache une complexité opérationnelle non négligeable. Pour de nombreuses Directions des Systèmes d’Information (DSI), si l’adoption de K8s est un succès stratégique, sa maintenance quotidienne et son exploitation génèrent une pression constante sur les équipes IT et DevOps. Cette friction opérationnelle, souvent sous-estimée lors de la phase de décision initiale, devient un facteur limitant la vélocité et la fiabilité. 

Ainsi, cet article, destiné aux décideurs informatiques, décortique les raisons de cette complexité persistante et explore les pistes d’une approche industrialisée pour garantir la stabilité et la disponibilité, transformant ainsi l’outil technique en un véritable levier de valeur métier. 

1. Les Trois Piliers de la Complexité Opérationnelle de K8s 

La lourdeur opérationnelle de Kubernetes ne provient pas d’un seul point, mais d’une convergence de facteurs qui exigent des compétences rares et une attention 24/7. 

1.1. L’Exigence des Mises à Jour (Upgrades) et le Rythme de l’Open Source 

Kubernetes est un projet Open Source extrêmement dynamique, avec des versions majeures publiées environ trois fois par an. 

  • Le Défi du Cycle de Vie (EOL) : Chaque version n’est supportée que pour une durée limitée (généralement 9 à 12 mois). Ne pas mettre à jour expose à des risques de sécurité et de compatibilité. 
  • La Montée de Version (Upgrade Path) : Une mise à jour de K8s n’est jamais triviale. Elle implique de coordonner la mise à jour du Control Plane (serveurs maîtres : etcd, kube-apiserver), des Worker Nodes (kubelet, kube-proxy), et de tous les addons critiques (systèmes de CNICSIIngress Controller). Une mauvaise séquence ou un composant obsolète peut entraîner un arrêt total du cluster. 
  • La Torsion des Compétences : La maîtrise des procédures d’upgrade, souvent réalisées en Blue/Green ou Canary Deployment au niveau de l’infrastructure elle-même, requiert une expertise pointue, distincte des compétences d’administration système classiques. 

1.2. Sécurité et Conformité : Une Surface d’Attaque Élargie 

L’environnement conteneurisé offre des avantages en matière d’isolation, mais il expose également une surface d’attaque plus vaste et complexe. 

  • Le Modèle de Sécurité à Plusieurs Niveaux : La sécurité de K8s doit être gérée à quatre niveaux (la « Security Onion ») : 
  1. Le Cluster (Control Plane) : Sécurisation de l’etcd (la base de données critique), gestion du Role-Based Access Control (RBAC), et sécurisation de l’API Server. 
  1. Les Nœuds (Worker Nodes) : Patching régulier du système d’exploitation hôte (OS), renforcement (hardening) via des standards comme le CIS Kubernetes Benchmark
  1. Les Conteneurs (Images) : Scan des images pour les vulnérabilités (CVEs) avant le déploiement. 
  1. Le Réseau (Network Policy) : Définition des règles de flux entre les Pods, une tâche complexe qui demande une compréhension fine du CNI utilisé. 
  • Les Politiques de Sécurité (Policies as Code) : L’application de politiques de sécurité (ex. : ne pas autoriser les conteneurs root, forcer la limite de ressources) requiert des outils externes, ajoutant une couche de complexité à l’administration. 

1.3. L’Observabilité et la Gestion des Incidents (Monitoring) 

Un cluster K8s est une machine distribuée par nature. L’identification et la résolution des problèmes (« troubleshooting ») sont particulièrement ardues. 

  • La Dispersion des Métriques : Il ne suffit pas de surveiller l’état des machines virtuelles (CPU, RAM). Il faut surveiller l’état du Control Plane, des Pods, des Deployments, des Volumes, du réseau, et la performance de l’application elle-même. Cela impose l’adoption et la maintenance de la Stack Prometheus/Grafana ou de solutions équivalentes. 
  • La Gestion des Logs (Logging) : La collecte centralisée des logs de tous les Pods est indispensable mais requiert des ressources importantes et une configuration méticuleuse. 
  • L’Alerte et la Réaction : Définir des seuils d’alerte pertinents pour un système auto-réparateur comme K8s est un art. Une alerte trop sensible peut générer du bruit ; une alerte manquée peut entraîner une panne critique. Le temps de réaction (MTTR) lors d’un incident majeur (ex. : saturation etcd, défaillance kube-scheduler) est un facteur de stress majeur pour les équipes On-Call

2. L’Impact Stratégique sur les Équipes et la Vélocité Métier 

La complexité opérationnelle de Kubernetes se traduit par des conséquences directes sur la performance des équipes IT et, in fine, sur la capacité de l’entreprise à innover. 

2.1. La Fuite du Talent et la Spécialisation Excessive 

Le marché du travail peine à fournir suffisamment d’ingénieurs maîtrisant la complexité de K8s, du réseau (CNI) au stockage (CSI), en passant par la sécurité (RBAC). 

  • La Rareté : Un ingénieur DevOps capable de maintenir un cluster en production est une ressource coûteuse et rare. 
  • La Détournement des Ressources : Les équipes de développeurs passent parfois un temps important à maintenir les plateformes, ou les outils de déploiements, en complément de leur mission principale de développement des applications. 

2.2. Le Risque de Fragmentation et le Coût Caché 

Face à la difficulté de gérer K8s, les DSI peuvent se retrouver avec un parc technologique fragmenté, entraînant des coûts imprévus. 

  • Fragmentation des Outils : Chaque équipe adopte ses propres outils, rendant la gouvernance, la sécurité et la conformité difficiles à standardiser. 
  • Coût Caché : Le coût total de possession (TCO) d’un cluster géré en interne est souvent sous-estimé car il inclut le salaire des experts, le temps de résolution des pannes, et le coût de l’indisponibilité. 

3. La Voie de l’Industrialisation : Une Réduction de Charge Opérationnelle 

Pour capitaliser pleinement sur les promesses de Kubernetes sans succomber à sa complexité opérationnelle, les organisations doivent évoluer vers un modèle d’Industrialisation de la Plateforme. Il ne s’agit plus de gérer soi-même la complexité, mais de consommer une plateforme K8s éprouvée, sécurisée et maintenue. 

3.1. Les Bénéfices d’une Plateforme K8SaaS : Fiabilité et Disponibilité 

Le principal atout d’une solution de Kubernetes managé réside dans le transfert de l’ensemble de la charge opérationnelle de l’infrastructure à un partenaire. 

  • Augmentation de la Fiabilité : Le partenaire K8SaaS garantit la stabilité du Control Plane, assure des mises à jour sans interruption et applique les patchs de sécurité dans les plus brefs délais, une mission critique pour la disponibilité. 
  • Garantie de Disponibilité (SLA) : Le service est adossé à un Accord de Niveau de Service (SLA) contractuel, protégeant l’entreprise contre les conséquences d’une panne d’infrastructure. 

3.2. L’Optimisation de la Maintenance par l’Accompagnement 

L’approche industrialisée permet de transformer une tâche réactive et stressante (la maintenance) en un processus proactif et encadré. 

  • Maintenance Proactive et Sécurité par Défaut : Les tâches lourdes et récurrentes (rotation des certificats, gestion des versions d’OS, hardening du cluster) sont automatisées et gérées par une expertise dédiée. La plateforme est livrée pré-sécurisée selon les meilleures pratiques. 
  • Conseil d’Expert Intégré : Le service managé apporte un accompagnement constant pour l’optimisation des ressources, la mise en place de politiques de sécurité et le troubleshooting avancé, réduisant drastiquement le temps de résolution pour les équipes internes. 

3.3. Focalisation sur la Valeur Métier et Réduction de Charge 

Le bénéfice le plus tangible pour la DSI est la libération des ressources internes et une meilleure concentration des efforts. 

  • Focalisation sur le Produit : Les développeurs sont libérés de la « plomberie » de l’infrastructure. Ils peuvent se concentrer sur l’amélioration des chaînes de déploiement (CI/CD), l’intégration de nouvelles fonctionnalités métier ou la performance applicative. 
  • Contrôle sans la Complexité : L’entreprise conserve le contrôle de la couche applicative (déploiement, ressources, scalabilité) tout en déléguant la complexité de l’infrastructure sous-jacente à un service expert et stable. 

Conclusion : L’Avenir de K8s est dans l’Accompagnement et la Consommation de Service 

Kubernetes est et restera la technologie clé de l’infrastructure moderne. Toutefois, pour de nombreuses organisations, le temps passé à gérer l’infrastructure K8s en interne est un investissement qui ne se justifie plus face à la complexité. 

Les DSI d’aujourd’hui recherchent l’efficacité opérationnelle et la fiabilité à l’échelle industrielle. C’est là qu’intervient le modèle Kubernetes managé. Il ne s’agit pas seulement d’externaliser des serveurs ; il s’agit d’intégrer l’expertise pointue et l’accompagnement continu d’un partenaire spécialisé. 

L’adoption d’un service managé Kubernetes représente un changement stratégique : 

  1. Garantir une plateforme toujours à jour et sécurisée, réduisant le risque de vulnérabilités et de conformité grâce à une expertise opérationnelle 24/7 intégrée. 
  1. Transférer le stress de la maintenance et l’ingénierie complexe à une équipe d’experts dont c’est le cœur de métier. 
  1. Bénéficier d’un support proactif et d’un conseil d’expert pour l’optimisation des coûts, la sécurité des conteneurs, et la mise en place de politiques de gouvernance avancées. 
  1. Libérer les talents DevOps pour qu’ils se concentrent sur l’amélioration des applications et l’innovation, générant directement de la valeur métier

En choisissant de consommer Kubernetes comme un service industrialisé, l’entreprise passe de la gestion de l’outil à l’exploitation de ses bénéfices, permettant aux équipes IT de retrouver la vélocité qu’elles recherchaient initialement avec la conteneurisation, tout en assurant une fiabilité maximale. 

Tell us a story


























    Les réponses aux rubriques « civilité », « nom », « prénom », « email professionnel », et « numéro de téléphone » sont obligatoires et nécessaires pour traiter vos demandes de contact et d’information. Les réponses aux autres rubriques sont facultatives.
    Les informations collectées sont traitées conformément à la Privacy policy
    .

    *Conformément à la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés telle que modifiée, et au Règlement (UE) 2016/679 du Parlement Européen et du Conseil du 27 avril 2016, vous pouvez exercer votre droit d’accès, de rectification, d’opposition, d’effacement et de portabilité en envoyant une demande écrite accompagnée d’un justificatif d’identité valide à dpo@groupe-cyllene.com ou DPO – CYLLENE – 93/99, rue Veuve Lacroix 92000 Nanterre.