481 Emplois pour Big Data - France
Ingénieur Big Data
Publié il y a 7 jours
Emploi consulté
Description De L'emploi
Nous recherchons pour l'un de nos clients, un(e) Data Engineer afin de concevoir, construire, tester et maintenir les chaines de traitement de données.
A ce titre, vos principales missions seront les suivantes :
- Participer à la définition des solutions.
- Déployer, intégrer et administrer les chaines de traitement de données sous Linux.
- Automatiser la livraison, la supervision et l'accès aux datasets sur notre infrastructure privée.
- Réaliser la Documentation et contribuer à la rédaction du modèle de responsabilité partagée pour chaque technologie (« shared responsibility model »).
- Apporter son expertise technique pour la résolution des incidents N2 et N3.
- Automatiser et documenter l'exploitation des chaines de traitement de données.
- Proposer les évolutions techniques des pipelines.
- Garantir au quotidien la livraison, la disponibilité et l'intégrité des données.
- Réaliser la planification
- Faire des Astreintes sur le périmètre de l'équipe (Big data, Kubernetes et bases de données)
- Diplôme Bac +4 ou Bac +5 minimum en science des données, intelligence artificielle, mathématiques appliquées ou discipline équivalente.
- Expériences et expertises opérationnelles recherchées :
- Run et build de pipelines de données de production
- Gestion des incidents de production (plateforme, sécurité, retard de livraison de données, corruption de données, etc.)
- Capacité à apprendre
- Appétence pour les aspects fonctionnels et métiers de Monaco Telecom
- Capacité d'écoute et d'analyse du besoin des clients et des utilisateurs
- Sens de la priorité clients et des utilisateurs
- Autonomie
- Esprit d'analyse et sens de l'initiative
- Force de proposition
- Esprit d'équipe
- Niveau d'anglais technique
- Savoir prioriser son travail dans un environnement sous pression
- Toute expérience sur un poste similaire est un gros plus
- Maîtrise de :
- CI/CD/CD (Gitlab)
- Pyspark / spark
- SQL
- Linux
- Bases de données (RDBMS & NoSQL)
- Kafka
- Hive/Impala/PrestoDB/Trino/Nessie(gestion des données)
- Spark (développement, optimisation et opérations)
- Principes architecture big data & Hadoop
- Réseaux (savoir débugger des flux)
- Connaissances qui sont un gros plus :
- Kubernetes, pour le déploiement d'application Spark sur K8S
- Trino
- Infrastructure as code (Ansible, Terraform est un plus)
- Apache Icerberg ou autre framework de delta tables
- Hive Metastore
- S3
- MariaDB (Galera cluster) et PostGreSQL
- MongoDB
- OLLAMA
- MIG K0S
Villeneuve-Loubet, Provence-Alpes-Côte d'Azur, France 1 month ago
Développeur Fullstack NodeJS - NestJS / React (H/F) Alternant·e Développeur·se Full Stack H/F Ingénieur Full Stack Java/React ou Angular H/F #J-18808-LjbffrArchitecte Big Data
Publié il y a 7 jours
Emploi consulté
Description De L'emploi
- Identifier les compromis entre : les attentes des utilisateurs finaux, les solutions disponibles, les coûts, les risques et le planning
- Mener en permanence des évaluations sur les paramètres critiques de la solution, ses performances
- Mettre en place les technologies liées au big data (Hadoop, Kafka, Spark, Elastic Search, Kibana) et à DevOps (Microservices, Go, Docker, Ansible, CI/CD, Serveless) pour un déploiement uniformisé sur le cloud public (type AWS) ou sur des clouds privés
- Veiller à la tenue des performances de l’infrastructure en relation avec les architectes de la Direction des Systèmes d’Information
- Contribuer à la gestion et à l’investigation des incidents identifiés sur l’infrastructure Big Data
- Effectuer de la veille technologique, afin de pouvoir proposer des améliorations sur l’infrastructure, répondre aux nouveaux besoins des utilisateurs et stocker et sécuriser des volumes toujours croissants de données
- Soutenir le responsable du service de support aux ateliers d’ingénierie pour apporter le bon niveau de solution aux utilisateurs finaux (contenu, disponibilité, sécurité, performance)
- Architectures Big Data et les technologies permettant de collecter ces données, de les stocker, les sécuriser et de les exploiter grâce à une infrastructure optimale
- Maîtrise des principes devOps (Ansible, Jenkins, Docker, etc)
- Maîtrise des environnements UNIX/Linux et une bonne pratique de la programmation système et du réseau
- Maîtrise des langages de développements généralistes Go, Python, Scala ou Java
- Déplacements ponctuels à prévoir à l’international
- Aisance relationnelle, une bonne capacité de synthèse
- Force de propositions, proactivité, volontarisme, de rigueur et d’une forte autonomie
Développeur Java / Big Data
Publié il y a 6 jours
Emploi consulté
Description De L'emploi
Type de contrat : Alternance
Vos missions au quotidien
Java Full Stack, Continuous Delivery, DevOps et Big Data ne sont pas que des buzzwords pour vous ? Vous êtes un développeur passionné par la technique, exigeant et à la recherche de polyvalence et d'autonomie ? Rejoignez-nous ! #JT25
En tant que Développeur Java / Big Data, vous contribuerez à améliorer notre système de mesure du risque de contrepartie. Vous serez intégré au sein d'un écosystème enrichissant, dans une équipe pluridisciplinaire de 5 à 8 personnes comprenant a minima un Tech Lead et directement en face des porteurs de besoins métier.
Votre rôle sera de contribuer à livrer des solutions élégantes et pérennes en réponse à des problématiques variées : nouveaux besoins fonctionnels, performance, synchronisation, sécurité. Vous travaillerez sur des technologies BigData (Spark, Hadoop) avec des processus métier développés en Java.
Concrètement, sous la supervision de votre tuteur et/ou de votre manageur, vous serez amené à :
- Participer à la conception et à la planification des nouvelles fonctionnalités
- Développer des fonctionnalités front-end et back-end en utilisant la stack mentionnée
- Participer aux tests unitaires et aux processus d'intégration continue
- Collaborer avec l'équipe pour résoudre les problèmes et optimiser les performances de l'application
- Maintenir une documentation claire et à jour sur le développement et les processus de déploiement
- Vous tenir informé des dernières tendances et évolutions technologiques.
Et si c'était vous ?
- Vous préparez un Bac +4/5 en Ecole d'Ingénieur ou Université avec une spécialisation en Informatique / Développement.
- Vous connaissez Java et vous maîtrisez la gestion des bases des données SQL.
- Vous êtes à l'aise avec l'utilisation des outils Docker, Kubernetes, Jenkins, Git, Maven ainsi que des frameworks Spring et Springboot
- Vous avez l'esprit d'équipe.
- You're fluent in English ! Vous êtes notre candidat idéal !
Pensez à accompagner votre CV de votre planning de formation !
Plus qu'un poste, un tremplin
Rejoignez-nous pour faire grandir vos ambitions ! Dès votre arrivée, vous serez intégré dans nos équipes et apprendrez chaque jour aux côtés de nos experts qui vous accompagneront dans vos missions. Progressivement, vous gagnerez en autonomie sur vos projets pour faire de cette expérience un vrai accélérateur de carrière. Vous découvrirez également toute la diversité de nos métiers, dans un secteur qui évolue et innove en permanence.
A la fin de vos études ou de votre VIE, diverses opportunités pourront s'offrir à vous, en France et à l'international.
Pourquoi nous choisir ?
Attentif à votre qualité de vie et conditions de travail, vous bénéficiez d'avantages :
- Prime* de participation et d'intéressement
- Jours de télétravail (selon le rythme de votre service et celui de votre alternance)
- Prise en charge de 50% de votre titre de transport
- Billetterie à prix réduits de notre Comité d'Entreprise (concerts, cinéma, sport.).
- Offre variée de restaurants d'entreprise et de cafétérias à tarifs compétitifs ainsi que des titres restaurants dématérialisés quand vous êtes en télétravail
*Si vous avez 3 mois d'ancienneté sur l'exercice de référence
Créer, oser, innover, entreprendre font partie de notre ADN. Si vous aussi vous souhaitez être dans l'action, évoluer dans un environnement stimulant et bienveillant, vous sentir utile au quotidien et développer ou renforcer votre expertise, nous sommes faits pour nous rencontrer !
Vous hésitez encore ?
Sachez que nos collaborateurs peuvent s'engager quelques jours par an pour des actions de solidarité sur leur temps de travail : parrainer des personnes en difficulté dans leur orientation ou leur insertion professionnelle, participer à l'éducation financière de jeunes en apprentissage ou encore partager leurs compétences avec une association. Les formats d'engagement sont multiples. #J-18808-Ljbffr
Développeur Java / Big Data
Publié il y a 7 jours
Emploi consulté
Description De L'emploi
Vos missions au quotidien
Java Full Stack, Continuous Delivery, DevOps et Big Data ne sont pas que des buzzwords pour vous ? Vous êtes un développeur passionné par la technique, exigeant et à la recherche de polyvalence et d’autonomie ? Rejoignez-nous ! #JT25
En tant que Développeur Java / Big Data, vous contribuerez à améliorer notre système de mesure du risque de contrepartie. Vous serez intégré au sein d'un écosystème enrichissant, dans une équipe pluridisciplinaire de 5 à 8 personnes comprenant a minima un Tech Lead et directement en face des porteurs de besoins métier.
Votre rôle sera de contribuer à livrer des solutions élégantes et pérennes en réponse à des problématiques variées : nouveaux besoins fonctionnels, performance, synchronisation, sécurité. Vous travaillerez sur des technologies Big Data (Spark, Hadoop) avec des processus métier développés en Java.
Concrètement, sous la supervision de votre tuteur et/ou de votre manageur, vous serez amené à :
- Participer à la conception et à la planification des nouvelles fonctionnalités
- Développer des fonctionnalités front-end et back-end en utilisant la stack mentionnée
- Participer aux tests unitaires et aux processus d’intégration continue
- Collaborer avec l’équipe pour résoudre les problèmes et optimiser les performances de l’application
- Maintenir une documentation claire et à jour sur le développement et les processus de déploiement
- Vous tenir informé des dernières tendances et évolutions technologiques.
Et si c’était vous ?
- Vous préparez un Bac +4/5 en École d'Ingénieur ou Université avec une spécialisation en Informatique / Développement.
- Vous connaissez Java et maîtrisez la gestion des bases de données SQL.
- Vous êtes à l'aise avec l’utilisation des outils Docker, Kubernetes, Jenkins, Git, Maven ainsi que des frameworks Spring et Spring Boot.
- Vous avez l’esprit d’équipe.
- Vous parlez couramment anglais ! Vous êtes notre candidat idéal !
Pensez à accompagner votre CV de votre planning de formation !
Plus qu’un poste, un tremplinRejoignez-nous pour faire grandir vos ambitions ! Dès votre arrivée, vous serez intégré dans nos équipes et apprendrez chaque jour aux côtés de nos experts qui vous accompagneront dans vos missions. Progressivement, vous gagnerez en autonomie sur vos projets pour faire de cette expérience un vrai accélérateur de carrière. Vous découvrirez également toute la diversité de nos métiers, dans un secteur qui évolue et innove en permanence.
À la fin de vos études ou de votre VIE, diverses opportunités pourront s’offrir à vous, en France et à l’international.
Pourquoi nous choisir ?Attentif à votre qualité de vie et conditions de travail, vous bénéficiez d’avantages :
- Prime* de participation et d’intéressement
- Jours de télétravail (selon le rythme de votre service et celui de votre alternance)
- Prise en charge de 50 % de votre titre de transport
- Billetterie à prix réduits de notre Comité d’Entreprise (concerts, cinéma, sport…)
- Offre variée de restaurants d’entreprise et de cafétérias à tarifs compétitifs ainsi que des titres restaurants dématérialisés quand vous êtes en télétravail
*Si vous avez 3 mois d’ancienneté sur l’exercice de référence
Créer, oser, innover, entreprendre font partie de notre ADN. Si vous aussi vous souhaitez être dans l’action, évoluer dans un environnement stimulant et bienveillant, vous sentir utile au quotidien et développer ou renforcer votre expertise, nous sommes faits pour nous rencontrer !
Vous hésitez encore ?
Sachez que nos collaborateurs peuvent s’engager quelques jours par an pour des actions de solidarité sur leur temps de travail : parrainer des personnes en difficulté dans leur orientation ou leur insertion professionnelle, participer à l’éducation financière de jeunes en apprentissage ou encore partager leurs compétences avec une association. Les formats d’engagement sont multiples.
#J-18808-LjbffrConsultant Java / Big data
Publié il y a 7 jours
Emploi consulté
Description De L'emploi
Offre d’emploi : Consultant Java/ Data Engineer
Whize est une filiale du groupe Neurones (7000 collaborateurs en France), spécialisée dans le domaine de la Data Intelligence et du développement de solutions sur mesure en architecture Serverless (Azure, AWS). Notre positionnement se décline en 3 offres :
- Modern BI : expertise dans toute la chaîne décisionnelle pour la création de tableaux de bord interactifs, l'extraction et la transformation (ETL) des données de différentes sources en utilisant des outils de Business Intelligence (BI) modernes, tels que Power BI, Tableau et AZURE Data Factory.
- Data Engineering : compétences solides en gestion des données pour collecter, stocker et traiter de grandes quantités de données de manière fiable et évolutive, en utilisant Python pour la gestion efficace des flux de données.
- Développement en Cloud Native : expertise dans la conception d'applications en utilisant des langages de développement modernes (.Net, Java, Node.js, Python) et des services cloud natifs, tels que AWS, Azure, ou Google Cloud, ainsi que l'intégration des bonnes pratiques DevOps.
- Support (MCO/fonctionnement opérationnel des services) et résolution des problèmes N2 et N3 en production avec analyse des causes racines.
- Accompagnement des clients dans l'utilisation des plateformes.
- Création d'offres d'ingestion de données, automatisation et industrialisation.
- Déploiement des plateformes NiFi.
- Administration et sécurisation des clusters et des services applicatifs.
- Upgrade des technologies (gestion du cycle de vie) et tests associés.
Compétences techniques requises :
- Utilisation d'outils CI/CD : Ansible, Gitlab, Gitlab CI, ArgoCD, Hashicorp Vault, etc.
- Connaissance de produits Big Data : Apache NiFi (fortement apprécié), Apache Kafka, HDFS, Hive, Hue, IBM Cloud Object Storage, bases de données Oracle, etc.
Qu’attendez-vous pour nous rejoindre ?
- Vous ferez partie d’une société à taille humaine bénéficiant des avantages d'un grand groupe. Nous adressons une centaine de clients en direct, dont la moitié sont des grands comptes.
- Vous serez accompagné(e) et managé(e) par le CEO de WHIZE (le « THE WHIZE MAN »).
- Vous intégrerez une équipe dynamique dans une ambiance start-up conviviale.
- Vous occuperez des postes intéressants et évolutifs.
- Vous participerez à des événements internes axés sur la tech, le business et les projets.
- Vous réaliserez des projets à forte valeur ajoutée.
Localisation : Neuilly-Sur-Seine + Télétravail.
Lieu : La Défense, Île-de-France, France
Poste publié il y a 1 semaine.
Postes à proximité :- Consultant Front Angular (connaissance en Java exigée)
- Architecte JAVA - Services Financiers F/H
- Architecte applicatif JAVA - Secteur public F/H
- Consultant Expérimenté en Cyber Sécurité F/H (Paris)
- Consultant DevOps / Intégration Continue / Ansible (H/F) à Vélizy-Villacoublay
Expertise Data / Big Data Engineering (IT) / Freelance
Publié il y a 7 jours
Emploi consulté
Description De L'emploi
Le Datalab cherche à renouveler son dispositif de compétences autour des activités d’architecture Data / infogérance, et d’expertise Big Data / Data Engineering de cette Plateforme Data Analytics avec pour objectif de :
Concevoir, réaliser, maintenir et faire évoluer, sa Plateforme de Données Analytics ( PDA ).
Assurer une veille technologique sur les solutions innovantes permettant d’envisager des évolutions pertinentes,
Mettre à disposition des jeux de donnée de tous les domaines de l’entreprise aux différents utilisateurs, en mettant en œuvre et en opérant les modèles de données prescrits par les domaines métiers
Appuyer les équipes produits, pour tout projet métier, dans la mise à disposition des jeux de données et dans le choix des solutions techniques d’utilisation de ces données.
Assurer un support Niveau 3 sur les applicatifs Data et Data Analysts utilisant la plateforme.
Toutes ces activités sont à assurer dans le respect du cadre technologique et Cybersécurité de l’entreprise.
Pour mettre à disposition toutes les données nécessaires au service des métiers, les principales compétences requises sont :
Maitrise des process d’ingestion en batch et streaming quelle que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, ) et quel que soit le Cloud provider en entrée (AWS/AZURE/GOOGLE).
Expertise BDD Snowflake avec un minimum de 1 an d’expérience
Parfaite maitrise des modèles de données. Les Data Engineers doivent à terme devenir référent technico fonctionnel sur 1 ou plusieurs domaines métier.
Optimisation de requête et performance, factorisation du code, respect de l’état de l’art
Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality.
Développement de cube multidimensionnel SQL server (MDX) et tabulaire PBI (M et DAX)
Support Niveau 3 des dataAnalysts sur le périmètre des socles applicatifs
Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact
Très bonne maitrise des langages Javascript(impératif), PowerShell, Python.
Création d’applicatifs Data, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy)
Une connaissance des produits de développement Datascience comme Dataiku serait appréciée
Environnement et compétences techniques pour les prestations 1. et 2.
MS Azure Devops (TeraForm, PowerShell, Yaml )
T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure)
Services Azure: Keyvault, Storage account, Automation (PowerShell), Azure Function (C# et PowerShell), Log Analytics (KQL)
Services AWS (RDS, S3, Lambda, KMS, CloudWatch )
MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream )
Apache Spark - Databricks (MPP et Clustering)
Azure Synapse Analytics (SQL Pool & Serverless)
Snowflake
Cube Multidimensionnel (IaaS : SSAS MDX) et tabulaire (PaaS)
Power BI (DAX, M)
Power BI Reporting Services / Paginated Reports
Power Virtual Agents
Power Automate
Power Apps
Logic Apps, Power Automate
Docker / Kubernetes
Python for Analytics
JavaScript (+D3js)
Open Data Soft
API REST (consommateur/développeur)
GIT
Une connaissance et ou une expérience sur l’outil Streamlit sera grandement appréciée
Compétences attendues
La réalisation de cette prestation demande de pouvoir travailler en lien étroit avec les équipes produits du Datalab (Epic Owner, Product Owner et Lead opérationnel) ainsi qu’avec les différentes entités IT Transverse de la DSI (CCOE, CyberSécu, Outillage )
Une parfaite connaissance des architectures et services managés Cloud AZURE et Snowflake est attendue ainsi qu’une maitrise totale des développements applicatifs autour de ces services Data.
Une connaissance des architectures et services managés Cloud AWS serait un plus.
Une connaissance du domaine de l’énergie et de ses enjeux sera également appréciée.
Ingénieur Java Big Data | Java, Python, Scala, Spark | SaaS Big Data B2B
Publié il y a 28 jours
Emploi consulté
Description De L'emploi
La société
Jeune strartup innovante en forte croissance de 15 personnes, ils ont développé une solution d'intelligence commerciale et marketing pour les entreprises.
Leur plateforme SaaS est une référence sur le marché de la Smart Data B2B et permet de révolutionner la prospection commerciale B2B.
En forte croissance et bien installés sur leur marché, ils souhaitent poursuivre leur développement grâce à des projets innovants
Si vous recherchez un projet et une expérience grisante et challengeante, si vous n’avez pas peur d’oser des choix techniques innovants, alors je peux vous assurer que vous allez bien vous amuser !
Le poste
Parce que votre avis sera primordial, vous allez avoir l’occasion d’accomplir de grandes choses sur les sujets suivants :
- Conception et développement de leur environnement de web-crawling
- Revue de code des autres membres de l’équipe
- Maintenance et l’évolution de leurs produits techniques
- Mise en place d’algorithmes de Machine Learning
- Travailler sur une architecture solide et scalable, basée sur des technologies OpenSource
Si en plus, vous :
- Adorez l’algorithmie et avez en tête les soucis de performances liées au Big Data
- Avez une affinité avec la création d’outils pour faciliter votre travail et celui de vos collègues
- Avez de l’expérience ou êtes de la mouvance DevOps
Cette opportunité est faite pour vous ! :D
La stack actuelle
Java (8 et 11), Scala, Spark, Hadoop, Elasticsearch, Mysql, Cassandra, Maven, Jenkins, Ansible, et le trio Azure / AWS / Google Cloud
Les évolutions à venir dépendront majoritairement de vous et de vos préconisations.
Votre profil
- Formation Bac+5
- Expérience minimum de 3 ans en Java dont une expérience significative sur des problématiques complexes de gros volumes de données
- Java, Spark et les bases de données NoSQL n’ont plus de secret pour vous
- Vous avez de solides connaissances en web : API REST, communication client/serveur, etc.
- Une curiosité technique à toute épreuve et l’envie de mettre en place des nouvelles technologies
Le salaire & avantages
- 45-50K€ selon expérience
- RTT
- Carte Lunchr & Mutuelle
- 1 à 2 jours de télétravail par semaine
- Incentives organisés par la direction
Et plus encore…
Ce qu’on préfère
- Être impliqué à fond dans une aventure avec de nombreux challenges techniques
- Beaux locaux, terrasse, situés à proximité de Saint Lazare
- Très bonne ambiance, équipe solidaire et orientée partage d’informations
- Beaucoup de workshops en interne et catalogue de formations à votre guise
Ce poste a été soigneusement choisi par votre coach. Powered by Octopus IT, cabinet d’Experts en Recrutement Tech (CDI et clients finaux uniquement) – Visitez nous pour plus d’opportunités :
Soyez le premier informé
À propos du dernier Big data Emplois dans France !
Développeur Big Data H / F
Publié il y a 3 jours
Emploi consulté
Description De L'emploi
Dans le cadre du renforcement de son équipe Data, notre client grand compte basé à Aix-en-Provence recherche un Développeur Big Data. Vous serez intégré(e) à une équipe technique dynamique et participerez à la mise en oeuvre de projets autour de la collecte, du traitement et de la valorisation de grands volumes de données. Missions principales - Concevoir et développer des pipelines de données robustes et scalables. - Participer à l'optimisation et à l'automatisation des traitements de données. - Collaborer avec les équipes Data (ingénierie, science, architecture) pour proposer des solutions adaptées aux besoins métiers. - Participer aux phases de test, de validation et de mise en production. - Documenter les développements et assurer la maintenance évolutive des traitements.
Environnement technique - Langages : Python, Scala, Java - Frameworks : Spark, Kafka, Hadoop - Outils / Techs : Hive, Airflow, Databricks, HDFS, SQL - Cloud : Azure / AWS / GCP (selon environnement client) - Méthodologie : Agile / Scrum Profil recherché - Expérience confirmée (2 à 5 ans minimum) en développement Big Data. - Maîtrise des outils de traitement distribué (Spark, Hadoop, etc.). - Connaissance des architectures de données modernes (Data Lake, streaming, etc.). - Capacité à travailler en équipe, esprit d'initiative, rigueur.
#J-18808-LjbffrData Engineer/Big Data - Junior
Publié il y a 4 jours
Emploi consulté
Description De L'emploi
Act Digital est une société de conseil et d’expertise en technologies créée en 2006. Notre vocation est d’accompagner nos clients sur leurs enjeux de transformation numérique. Notre offre s’articule autour des expertises suivantes :
- Software Delivery
- Infrastructure & Cloud Computing
- Agile IT Performance
- Business Performance
Notre Succès Passant Par Le Développement Et L’épanouissement De Chaque Collaborateur, Nous Attachons Beaucoup D’importance à Offrir Les Meilleures Conditions De Travail Possibles
- Télétravail disponible sur une grande partie de nos missions
- Un environnement de travail en Flex Office disponible pour tous et tout le temps pour favoriser la communication et la collaboration
- Des communautés d’experts pour partager et diffuser les compétences au sein du groupe
- Un encadrement projet et un suivi RH de proximité
- Des formations et certifications proposées annuellement
- Une valorisation des parcours d’expertise de nos consultants
- Une ouverture forte sur la mobilité internationale ponctuelle ou de longue durée
- Des possibilités d’intrapreneuriat
Vous intégrerez, au sein de notre Pôle Transformation Numérique, une équipe d’experts en gestion de la donnée en charge d'accompagner nos clients.
Vous serez détaché(e) chez un acteur majeur du secteur de l'assurance dans une équipe organisée en squad, et interviendrez sur un projet d'évolution de la plateforme Big Data.
Vos Missions Seront Les Suivantes
- Participer à la génération d’empreintes applicatives à partir de spécifications fonctionnelles, en s’appuyant sur des scripts en Python et des fichiers de configuration YAML.
- Automatiser la configuration des environnements Big Data (cluster, ressources, services) à l’aide des outils mis à disposition par le socle.
- Utiliser Git pour le versioning et le déploiement contrôlé des configurations et contribuer à l’industrialisation des workflows de provisioning.
- Assurer un premier niveau de support aux projets consommateurs de la plateforme, notamment sur l’utilisation des modules Python et la prise en main des environnements livrés.
- Intervenir ponctuellement sur des jobs de transformation de données en PySpark, en lien avec les besoins projets ou les évolutions du socle.
- Rédiger la documentation technique associée aux livrables, contribuer aux bonnes pratiques DevOps et proposer des améliorations sur les processus existants.
- Vous êtes issu(e) d’une formation Bac+5 (École d’ingénieur, Université ou équivalent …) en informatique
- Vous justifiez de 2 ans minimum d'expérience au sein d’une équipe data/big data dans un environnement Agile
- Vous maîtrisez le développement en Python, Spark et Git
- Vous êtes familier de l'environnement Microsoft Azure
- Vous êtes un bon communiquant et disposez de capacités d’analyse et de synthèse éprouvées
- Vous accordez de l'importance (et du temps) à la veille
Au-delà de vos expertises et compétences, nous recrutons aussi des personnalités, qui vont participer au développement d’Act Digital.
Chez Act Digital, vous pourrez être sollicités pour :
- Intervenir sur des phases de recrutement
- Participer à des projets de R&D et veille
- Rédiger des articles techniques et de publications diverses
- Participer à des phases d’avant-vente
- Animer des formations en interne
- Participer à nos évènements mensuels d’Alter Campus, rendez-vous techniques de partages et d’échanges
- Représenter Act Digital dans le cadre d’évènements (Devoxx, Hackathon, Cloud Expo Europe…)
- Un premier entretien à distance
- Test technique
- Rencontre avec un Directeur Opérationnel et un Consultant Sénior
- Si tout se passe bien, contractualisation RH
You have the right to access the content of your data, request their rectification, erasure, restriction of processing, the right to data portability, the right to object to the processing of your data and the right to lodge a complaint to the DPO ( ). #J-18808-Ljbffr