100 Emplois pour Analystes De Données - France
Ingénieur Big Data
Publié il y a 18 jours
Emploi consulté
Description De L'emploi
Nous recherchons pour l'un de nos clients, un(e) Data Engineer afin de concevoir, construire, tester et maintenir les chaines de traitement de données.
A ce titre, vos principales missions seront les suivantes :
- Participer à la définition des solutions.
- Déployer, intégrer et administrer les chaines de traitement de données sous Linux.
- Automatiser la livraison, la supervision et l'accès aux datasets sur notre infrastructure privée.
- Réaliser la Documentation et contribuer à la rédaction du modèle de responsabilité partagée pour chaque technologie (« shared responsibility model »).
- Apporter son expertise technique pour la résolution des incidents N2 et N3.
- Automatiser et documenter l'exploitation des chaines de traitement de données.
- Proposer les évolutions techniques des pipelines.
- Garantir au quotidien la livraison, la disponibilité et l'intégrité des données.
- Réaliser la planification
- Faire des Astreintes sur le périmètre de l'équipe (Big data, Kubernetes et bases de données)
- Diplôme Bac +4 ou Bac +5 minimum en science des données, intelligence artificielle, mathématiques appliquées ou discipline équivalente.
- Expériences et expertises opérationnelles recherchées :
- Run et build de pipelines de données de production
- Gestion des incidents de production (plateforme, sécurité, retard de livraison de données, corruption de données, etc.)
- Capacité à apprendre
- Appétence pour les aspects fonctionnels et métiers de Monaco Telecom
- Capacité d'écoute et d'analyse du besoin des clients et des utilisateurs
- Sens de la priorité clients et des utilisateurs
- Autonomie
- Esprit d'analyse et sens de l'initiative
- Force de proposition
- Esprit d'équipe
- Niveau d'anglais technique
- Savoir prioriser son travail dans un environnement sous pression
- Toute expérience sur un poste similaire est un gros plus
- Maîtrise de :
- CI/CD/CD (Gitlab)
- Pyspark / spark
- SQL
- Linux
- Bases de données (RDBMS & NoSQL)
- Kafka
- Hive/Impala/PrestoDB/Trino/Nessie(gestion des données)
- Spark (développement, optimisation et opérations)
- Principes architecture big data & Hadoop
- Réseaux (savoir débugger des flux)
- Connaissances qui sont un gros plus :
- Kubernetes, pour le déploiement d'application Spark sur K8S
- Trino
- Infrastructure as code (Ansible, Terraform est un plus)
- Apache Icerberg ou autre framework de delta tables
- Hive Metastore
- S3
- MariaDB (Galera cluster) et PostGreSQL
- MongoDB
- OLLAMA
- MIG K0S
Villeneuve-Loubet, Provence-Alpes-Côte d'Azur, France 1 month ago
Développeur Fullstack NodeJS - NestJS / React (H/F) Alternant·e Développeur·se Full Stack H/F Ingénieur Full Stack Java/React ou Angular H/F #J-18808-LjbffrData Ingénieur Big Data
Publié il y a 2 jours
Emploi consulté
Description De L'emploi
STEP UP Bordeaux, Nouvelle-Aquitaine, France
STEP UP est une société d'ingénierie experte en pilotage de projets industriels et informatiques (+ 250 collaborateurs sur 11 agences en France), plaçant le potentiel humain comme 1er vecteur d'excellence et de performance en entreprise.
Oubliez les sociétés d'ingénierie qui ne valorisent que vos seules compétences, chez STEP UP, nous visons également l'adéquation entre votre personnalité et la culture d'entreprise de nos clients. Cela se traduit pour vous par une différence fondamentale en termes de bien-être, d'épanouissement au travail et de succès dans vos missions.
Ce Que Nous Vous Proposons- Un cadre de travail épanouissant, stimulant et collaboratif, nous sommes certifiés entreprise où il fait bon vivre !
- Des projets innovants et variés.
- La possibilité de se perfectionner continuellement avec des formations internes.
- Des perspectives d'évolution de carrière.
- Un accompagnement individualisé avec un programme de développement du potentiel humain.
- Un programme de cooptation.
Et bien sûr, nous prenons en charge 70% de votre mutuelle santé et encourageons financièrement la mobilité douce.
POSTE / MISSIONSDans une équipe de 15 personnes intervenant au sein d'une des équipes Data de la DSI, le Data Ingénieur Big Data aura la charge des développements informatiques sur les technologies Hadoop, HDFS, Hive, Spark Sql, PySpark et Sqoop.
Tâches à Réaliser- Participation au maintien en conditions opérationnelles
- Conception
- Développements
- Livraisons
- Recettes
- Expérience confirmée en développement, analyse et modélisation de données
- Maîtrise avancée de Python et PySpark
- Connaissance approfondie de l'écosystème Big Data, notamment: Cloudera / Hadoop (HDFS, Hive, Impala, Sqoop, YARN)
- Bonne maîtrise de Shell/Linux, SQL et Git
- Connaissance des optimisations de performances dans Spark (partitionnement, caching, broadcasts variables)
- Capacité d'intégration rapide au sein d'une équipe existante
- Expérience nécessaire : 8 années d'expérience minimum
- Capacité à assurer un support en R/R studio.
- Connaissance de l'ordonnanceur Control-M.
- Expérience avec JIRA/Confluence.
- Expérience avec les outils de CI/CD.
Consultant Java / Big data
Publié il y a 18 jours
Emploi consulté
Description De L'emploi
Offre d’emploi : Consultant Java/ Data Engineer
Whize est une filiale du groupe Neurones (7000 collaborateurs en France), spécialisée dans le domaine de la Data Intelligence et du développement de solutions sur mesure en architecture Serverless (Azure, AWS). Notre positionnement se décline en 3 offres :
- Modern BI : expertise dans toute la chaîne décisionnelle pour la création de tableaux de bord interactifs, l'extraction et la transformation (ETL) des données de différentes sources en utilisant des outils de Business Intelligence (BI) modernes, tels que Power BI, Tableau et AZURE Data Factory.
- Data Engineering : compétences solides en gestion des données pour collecter, stocker et traiter de grandes quantités de données de manière fiable et évolutive, en utilisant Python pour la gestion efficace des flux de données.
- Développement en Cloud Native : expertise dans la conception d'applications en utilisant des langages de développement modernes (.Net, Java, Node.js, Python) et des services cloud natifs, tels que AWS, Azure, ou Google Cloud, ainsi que l'intégration des bonnes pratiques DevOps.
- Support (MCO/fonctionnement opérationnel des services) et résolution des problèmes N2 et N3 en production avec analyse des causes racines.
- Accompagnement des clients dans l'utilisation des plateformes.
- Création d'offres d'ingestion de données, automatisation et industrialisation.
- Déploiement des plateformes NiFi.
- Administration et sécurisation des clusters et des services applicatifs.
- Upgrade des technologies (gestion du cycle de vie) et tests associés.
Compétences techniques requises :
- Utilisation d'outils CI/CD : Ansible, Gitlab, Gitlab CI, ArgoCD, Hashicorp Vault, etc.
- Connaissance de produits Big Data : Apache NiFi (fortement apprécié), Apache Kafka, HDFS, Hive, Hue, IBM Cloud Object Storage, bases de données Oracle, etc.
Qu’attendez-vous pour nous rejoindre ?
- Vous ferez partie d’une société à taille humaine bénéficiant des avantages d'un grand groupe. Nous adressons une centaine de clients en direct, dont la moitié sont des grands comptes.
- Vous serez accompagné(e) et managé(e) par le CEO de WHIZE (le « THE WHIZE MAN »).
- Vous intégrerez une équipe dynamique dans une ambiance start-up conviviale.
- Vous occuperez des postes intéressants et évolutifs.
- Vous participerez à des événements internes axés sur la tech, le business et les projets.
- Vous réaliserez des projets à forte valeur ajoutée.
Localisation : Neuilly-Sur-Seine + Télétravail.
Lieu : La Défense, Île-de-France, France
Poste publié il y a 1 semaine.
Postes à proximité :- Consultant Front Angular (connaissance en Java exigée)
- Architecte JAVA - Services Financiers F/H
- Architecte applicatif JAVA - Secteur public F/H
- Consultant Expérimenté en Cyber Sécurité F/H (Paris)
- Consultant DevOps / Intégration Continue / Ansible (H/F) à Vélizy-Villacoublay
Ingénieur Java Big Data | Java, Python, Scala, Spark | SaaS Big Data B2B
Publié il y a 11 jours
Emploi consulté
Description De L'emploi
La société
Jeune strartup innovante en forte croissance de 15 personnes, ils ont développé une solution d'intelligence commerciale et marketing pour les entreprises.
Leur plateforme SaaS est une référence sur le marché de la Smart Data B2B et permet de révolutionner la prospection commerciale B2B.
En forte croissance et bien installés sur leur marché, ils souhaitent poursuivre leur développement grâce à des projets innovants
Si vous recherchez un projet et une expérience grisante et challengeante, si vous n’avez pas peur d’oser des choix techniques innovants, alors je peux vous assurer que vous allez bien vous amuser !
Le poste
Parce que votre avis sera primordial, vous allez avoir l’occasion d’accomplir de grandes choses sur les sujets suivants :
- Conception et développement de leur environnement de web-crawling
- Revue de code des autres membres de l’équipe
- Maintenance et l’évolution de leurs produits techniques
- Mise en place d’algorithmes de Machine Learning
- Travailler sur une architecture solide et scalable, basée sur des technologies OpenSource
Si en plus, vous :
- Adorez l’algorithmie et avez en tête les soucis de performances liées au Big Data
- Avez une affinité avec la création d’outils pour faciliter votre travail et celui de vos collègues
- Avez de l’expérience ou êtes de la mouvance DevOps
Cette opportunité est faite pour vous ! :D
La stack actuelle
Java (8 et 11), Scala, Spark, Hadoop, Elasticsearch, Mysql, Cassandra, Maven, Jenkins, Ansible, et le trio Azure / AWS / Google Cloud
Les évolutions à venir dépendront majoritairement de vous et de vos préconisations.
Votre profil
- Formation Bac+5
- Expérience minimum de 3 ans en Java dont une expérience significative sur des problématiques complexes de gros volumes de données
- Java, Spark et les bases de données NoSQL n’ont plus de secret pour vous
- Vous avez de solides connaissances en web : API REST, communication client/serveur, etc.
- Une curiosité technique à toute épreuve et l’envie de mettre en place des nouvelles technologies
Le salaire & avantages
- 45-50K€ selon expérience
- RTT
- Carte Lunchr & Mutuelle
- 1 à 2 jours de télétravail par semaine
- Incentives organisés par la direction
Et plus encore…
Ce qu’on préfère
- Être impliqué à fond dans une aventure avec de nombreux challenges techniques
- Beaux locaux, terrasse, situés à proximité de Saint Lazare
- Très bonne ambiance, équipe solidaire et orientée partage d’informations
- Beaucoup de workshops en interne et catalogue de formations à votre guise
Ce poste a été soigneusement choisi par votre coach. Powered by Octopus IT, cabinet d’Experts en Recrutement Tech (CDI et clients finaux uniquement) – Visitez nous pour plus d’opportunités :
Fiche métier Consultant Big Data
Aujourd'hui
Emploi consulté
Description De L'emploi
Grâce au travail d'un consultant Big Data, il devient plus facile pour une entreprise de connaître les tendances du marché, d'identifier les comportements des clients cibles, de faire une analyse concurrentielle.
Le métier de consultant Big Data est très important pour les sociétés souhaitant maintenir un niveau de croissance régulier. Dans cette fiche métier, nous vous le présentons en détail.
Les compétences clésPour exceller dans ses fonctions, un consultant Big Data a besoin de compétences techniques pointues :
- Modélisation des données
- Maîtrise des langages de programmation "Data" et des Frameworks favorisant un calcul massif des données : Hadoop, Spark.
- Maîtrise de logiciels comme Essbase, Cognos, Datastage.
- Maîtrise des différents Systèmes de Gestion de Bases de Données (SGBD) : Oracle, MySQL, Microsoft SQL Server, PostgreSQL.
- Capacité à travailler sous les différents systèmes d'exploitation Windows, Unix, Linux, MacOs.
- Connaissance de langages de programmation comme Java, Python ou Scala
- Maîtrise de logiciels et méthodologie de modélisation de projets : Merise, UML, MCD, diagrammes de classes.
- Maîtrise des méthodes de gestion de projets : cycle en V, Scrum, Agile.
En plus de ces qualifications purement techniques, un consultant Big Data doit avoir certaines Soft Skills. Premièrement, ce professionnel doit faire preuve d'autonomie et démontrer sa capacité à analyser une grande quantité de données et à en tirer des résultats qui serviront à l'amélioration du processus décisionnel de la société.
Un consultant Big Data est aussi une personne qui fait preuve d'une grande adaptabilité vis-à-vis des différents environnements technologiques qu'il peut être amené à utiliser (langages de programmation, SGBD, systèmes d'exploitation.).
Le sens de l'écoute et la capacité de communication, aussi bien orale qu'écrite, font également partie des qualités souhaitées. Enfin, un consultant Big Data doit avoir un remarquable esprit d'analyse.
Le salaire du consultant Big Data Tendances et facteurs d'évolutionComme la totalité des données sont désormais de nature numérique, le rôle du consultant Big Data est indispensable. À partir du moment où une société stocke une quantité importante de données chaque jour, le travail d'un spécialiste de la data est indispensable. Ses analyses permettront notamment la prise de décisions stratégiques.
Un consultant Big Data est donc un atout majeur pour le maintien de la compétitivité d'une entreprise. À noter que le titulaire de ce poste peut travailler à son compte ou pour une société spécialisée dans la gestion de données. Les sociétés disposant d'un service informatique structuré peuvent également le recruter.
Pour les années à venir, ce métier présente de belles perspectives d'embauche. Cela s'explique par la densification des données numériques (stockées sur des plateformes physiques ou sur le Cloud), et par la nécessité de la traiter afin de produire des décisions stratégiques.
Autres appellations du métier Évolutions possiblesLe métier de consultant Big Data vous ouvre les portes d'une carrière épanouie au sein d'une grande structure. Après quelques années dans ce métier, vous pouvez accéder à des fonctions avec plus de responsabilités comme Directeur des systèmes d'information, Responsable de la maîtrise d'ouvrage (MOA), ou encore Directeur des opérations.
Si vous avez la fibre entrepreneuriale, vous pouvez même créer votre propre société de gestion de données.
Quelle formation pour devenir consultant Big Data ?Le métier de consultant Big Data requiert de nombreuses compétences techniques. Pour exercer ce métier, il faut avoir un diplôme de niveau Bac+5, dans le domaine du marketing digital. L’ICD Business School propose son Programme Grande École - Grade Master, qui vous permet de devenir polyvalent et de travailler à ce poste.
#J-18808-LjbffrBig Data Engineer (all genders)
Aujourd'hui
Emploi consulté
Description De L'emploi
Overview
Big Data Engineer (all genders)
Join our dynamic team at Amadeus, where you will play a crucial role in shaping the future of travel technology. We are committed to fostering an inclusive and innovative environment where your contributions will make a global impact. If you are passionate about data and eager to work in a diverse and collaborative setting, this opportunity is for you.
Summary of the role :
You will be working collaboratively with team members in an agile (flexible and iterative) environment, building production components based on the platform tech stack, integrating or migrating new or existing components, and contributing to and collaborating in designing production-grade components.
Responsibilities- Work on the core part of the Amadeus data platform, modeling the universe of a traveler, and providing seamless integrations with our partners.
- Manage data volumes up to 100k events / second, which should be processed in near real-time.
- Be part of a team responsible for the design, development, and maintenance of our data processing pipelines.
- Collaborate with Data Scientists and Data Analysts, providing them with access to the data and supporting them in analyzing, training, and deploying machine-learning models.
- Own the full development and operations cycle of a product.
- You have experience with Scala or are willing to learn it.
- You are a data or backend engineer who has designed and developed robust distributed data systems.
- Ideally (but it is not a must!), you have practical experience with distributed data processing frameworks (such as Spark, Beam, Flink).
- You are committed to software best practices and dedicated to ensuring quality via testing, benchmarking, and peer reviews.
- You have experience using a producer / consumer or message queue technology such as Kafka.
- You understand the theory behind different database technologies and data storage practices enough to make informed choices and match appropriate technologies to a given use-case.
- You are committed to continuous learning and improvement and enjoy supporting the growth of others around you.
- You are enthusiastic about understanding the business logic of the company and the meaning of the data we work with.
- You thrive in a workplace that is international, diverse, evolving, and continually innovating.
- A critical mission and purpose - At Amadeus, you'll power the future of travel with a critical mission and extraordinary purpose.
- A truly global DNA - Everything at Amadeus is global, from our people to our business, which translates into our footprint, processes, and culture.
- Great opportunities to learn - Learning happens all the time and in many ways at Amadeus, from on-the-job training to formal activities, and daily interactions.
- A caring environment – Amadeus fosters a caring environment that supports both professional growth and personal well-being.
- A complete rewards offer - Amadeus provides attractive compensation packages, including salary, bonus, employee stock program, caregiving and health benefits.
- A flexible working model - Embrace our flexible working model, enabling you to excel wherever and however you work best.
- A diverse, equitable, and inclusive community – We are committed to enabling each employee to reach their full potential by fostering a culture of belonging and fair treatment.
- A Reliable Company - Trust and reliability are fundamental to shaping our relationships with customers, partners, and employees.
Ingénieur Big Data H / F
Aujourd'hui
Emploi consulté
Description De L'emploi
Afin d'accompagner la forte croissance de SOMA, nous sommes à la recherche de Data Engineers. Ta mission En tant que Data Engineer, tu participeras à la conception, la construction, le déploiement et le maintien en production d'architectures Big Data, ces dernières ayant pour objectif de permettre tant l'évolution que l'optimisation du système d'information décisionnel existant en permettant de nouveaux usages Analytics et IA. Nous opérons au travers de cinq practices internes, incluant Data Platform Services, où nos consultants apportent leur expertise sur des environnements Big Data complexes. Tes principales responsabilités - Concevoir, développer et maintenir des pipelines de données dans des environnements Big Data à l'aide de PySpark et Snowpark. - Optimiser les performances des bases de données, en garantissant une gestion efficace des données. - Développer des architectures data robustes et scalables pour répondre aux besoins métiers et aux volumes croissants de données. - Participer à la mise en place des bonnes pratiques en matière de gestion de données (gouvernance, qualité, sécurité). - Collaborer avec les équipes Data Science et BI pour intégrer les données dans les solutions analytiques. - Réaliser une veille technologique pour intégrer les meilleures pratiques et les outils les plus récents dans vos projets. Selon ton appétence et les besoins sur les sujets Data, tu as la possibilité de monter une communauté Data interne, c'est à dire : - Intervenir sur des réponses à appel d'offre - Intervenir sur des phases d'avant-vente - Animer ou contribuer au développement des communautés (pratiques, veille, formation)
- Bac +5 informatique / Ecole d'ingénieur - Minimum 4 ans d'expérience en tant que Data Engineer dans un environnement Big Data. - Une expertise en PySpark et Snowpark (ou Snowflake). - Une solide expérience avec les systèmes de gestion de bases de données (SQL, optimisation des BDD). - Connaissance approfondie des écosystèmes Big Data (Hadoop, Spark, Hive, etc.). - Capacité à gérer des projets complexes dans un environnement en évolution rapide et une aptitude à travailler en équipe en collaborant avec des profils techniques et des métiers.
Soyez le premier informé
À propos du dernier Analystes de données Emplois dans France !
Experte / Expert Big Data (Xaas)
Aujourd'hui
Emploi consulté
Description De L'emploi
Overview
Choisir Capgemini, c'est choisir une entreprise où vous serez en mesure de façonner votre carrière selon vos aspirations. Avec le soutien et l'inspiration d'une communauté d’experts dans le monde entier, vous pourrez réécrire votre futur. Rejoignez-nous pour redéfinir les limites de ce qui est possible, contribuer à libérer la valeur de la technologie pour les plus grandes organisations et participer à la construction d’un monde plus durable et inclusif.
Vos missions
Vos missions- Gérer et maintenir les plateformes de données massives (Big Data) en environnement de production.
- Optimiser les performances des systèmes de traitement et de stockage des données.
- Assurer la qualité, la sécurité et la conformité des données selon les standards en vigueur.
- Collaborer étroitement avec les équipes de développement pour intégrer les solutions de données dans les applications métiers.
- Surveiller les systèmes et mettre en place des outils de supervision et d’alerting.
- Analyser les besoins des utilisateurs et proposer des solutions techniques adaptées.
Vous avez une solide expérience en administration de systèmes Big Data , incluant des technologies comme :
- Hadoop, HBase, Hive, Elasticsearch
- Kafka, NiFi, Logstash, Kibana
- Phoenix, Oozie, Knox, Ranger, Kerberos
Vous maîtrisez l’administration de systèmes Linux , idéalement Red Hat Enterprise.
Vous êtes reconnu(e) pour votre rigueur , votre autonomie et votre capacité à travailler en équipe .
Vous avez une bonne compréhension des enjeux liés à la sécurité et à la gouvernance des données .
Une expérience dans un environnement XaaS (Everything as a Service) ou Cloud est un plus.
3 raisons de nous rejoindre- Qualité de vie au travail: accord de télétravail en France et à l’international, accord sur l’égalité professionnelle, la parentalité, l’équilibre des temps et la mobilité durable.
- Apprentissage en continu : certifications et formations en libre accès, accompagnement sur mesure avec votre career manager, parcours d’intégration sur 9 mois.
- Avantages groupe & CSE : plan actionnariat, activités à tarifs préférentiels, remboursement partiel vacances, remboursement de votre abonnement sportif ou culturel
Capgemini encourage une culture inclusive dans un cadre multiculturel et handi-accueillant. En nous rejoignant, vous intégrez un collectif qui valorise la diversité, développe le potentiel de ses talents, s’engage dans des initiatives solidaires avec ses partenaires, et se mobilise pour réduire son impact environnemental sur tous ses sites et auprès de ses clients.
A propos de CapgeminiCapgemini est un leader mondial, responsable et multiculturel, regroupant près de 350 000 personnes dans plus de 50 pays. Fort de 55 ans d’expérience, nous sommes un partenaire stratégique des entreprises pour la transformation de leurs activités en tirant profit de toute la puissance de la technologie et des innovations dans les domaines en perpétuelle évolution tels que le cloud, la data, l’Intelligence Artificielle, la connectivité, les logiciels, l’ingénierie digitale ou les plateformes.
Get The Future You Want* |
#J-18808-LjbffrConsultant Big Data F/H
Aujourd'hui
Emploi consulté
Description De L'emploi
Overview
Olcya est un cabinet de niche spécialisé dans l'Hyper automatisation, soit l'agrégation des offres suivantes : Big Data, Cloud, DevOps, IA & RPA, APM et Agilité .
Plusieurs clients grands comptes nous font déjà confiance (BNPP, SG, Total, Crédit Agricole ).
Cela fait 7 ans que nous existons et beaucoup de nos consultants nous accompagnent depuis le début de l'aventure pour notre plus grande fierté !
Venir chez Olcya ne se fait pas par hasard car en plus d'une mission challengeante, vous y trouverez des responsabilités et la possibilité de devenir référent sur votre domaine d'intervention (sans compter les afterworks et un suivi de qualité).
Vos missionsAu sein d'une équipe mature sur les sujets liés au Big Data, vous allez, avec d'autres Olcyiens (Projet avec du BUILD et du RUN) :
- Administrer et monitorer les outils Big Data.
- Participer à l'automatisation de l'infrastructure Bigdata (basée sur le logiciel de l'éditeur Cloudera CDP 7.1) s'appuyant sur Terraform et Ansible.
- Ajouter des extensions automatisées des clusters Bigdata (avec l'ajout de nouveaux datanodes).
- Ajouter de nouvelles fonctionnalités automatisées (HBase, Encryption).
- Assurer le maintien opérationnel du système (sécurisation des clusters, la mise en place d'environnements de développement et de test, au support et à la résolution des problèmes N2 et N3).
Stack technique :
Installation et configuration des composants : Zookeeper, HDFS, Spark, Hive, Kerberos, Sentry, Anaconda, Hue, Kafka, PySpark, Hortonworks, Cloudera Data Platform (CDP/HDP).
Langages : Python, Scala.
Systèmes : Linux, Windows.
Monitoring des clusters avec Ambari, Cloudera Manager, MCS.
Administration des clusters : droits d'accès, Policy Ranger, création d'environnements.
Configuration et mise en place de la chaine CI/CD est un plus : Ansible, Jenkins, Docker, Terraform, Nexus
AvantagesForfait télétravail, excellente mutuelle (prise en charge à 80% par l’employeur), CSE, formations au sein de l’Olcya academy…
PostesArchitecte DATA – Services Financiers - Île de France
Consultant Data Architect - Microsoft Fabric
Créteil, Île-de-France, France
5 days ago
Vélizy-Villacoublay, Île-de-France, France
3 days ago
Paris, Île-de-France, France
12 hours ago
La Défense, Île-de-France, France
2 weeks ago
#J-18808-Ljbffr