157 Emplois pour Data Streaming - France

Senior Data Engineer - Platform & Streaming

Lyon, RHONE ALPES Exorde Labs

Publié il y a 3 jours

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

Overview

À propos d’Exorde : une scale-up dans le data-as-a-service. Exorde Labs opère l’une des plus grandes infrastructures de collecte et traitement de données sociales en temps réel pour des API de données et d’analytique à grande échelle. Rejoignez-nous pour impacter l’avenir de l’IA et de la cyber via des données innovantes.

Prendre la plateforme data en main et la faire passer au palier suivant : fiabilité, coûts maîtrisés, faibles latences, et montée en charge sur l’analytics, l’indexation et le serving. Construire par-dessus notre backbone (Kafka, S3, PySpark) pour livrer de nouveaux produits API-first (keyword search, analytics-as-a-service). Notre culture technique est axée sur l’efficacité et l’innovation.

Périmètre Technique
  • Ingestion & Streaming : Cluster prod K8s ; Kafka (multi-topics, 2M+ posts/heure, schémas/compatibilité, DLQ, backpressure) ; Python & PySpark (batch/micro-batch, backfills, pipelines S3 → ClickHouse/ElasticSearch) ; ingestion fichiers (JSON/Parquet) et tables (Hive/Delta) ; API maison de pinning de fichiers à vérifier/optimiser.
  • Stockage & Serving : S3 Data Lake (Parquet optimisé, gouvernance, versioning, DR) ; ClickHouse (ou similaire pour historique/analytics : API future) ; ElasticSearch (recherche instantanée, vector/embeddings).
  • Infra & Ops : Kubernetes (K8s), CI/CD (GitHub Actions/GitLab CI), autoscaling, secrets/SM ; Monitoring/Logs : Prometheus/Grafana ; Écosystème : Kafka, ClickHouse, MongoDB, Redis, S3, ElasticSearch, Apache Druid.
  • API & Delivery (scope plus tardif) : APIs data/analytics (FastAPI/gRPC/WebSockets) ; Pagination/streaming, exports (S3 liens signés), monitoring produit.
Responsabilités Clés – Architecture

Conception et optimisation du flux real-time avec Kafka Streams ; ElasticSearch pour la recherche rapide ; ClickHouse/Druid comme entrepôt analytique primaire ; collaboration avec l’équipe infra et intégration progressive d’un renfort.

Plan d’Exécution (Jalons)
  • J+30 : Stabiliser/sécuriser la stack S3/Kafka/K8s sur Scaleway.
  • J+60 : Déployer ClickHouse + Kafka Streams et exposer un endpoint de recherche avec billing/monitoring de base. Travailler sur de nouvelles APIs backend sur TypeSense/ClickHouse.
  • J+180 : Lancer Insights API v2 (agrégations/facettes/top-k) en production avec SLOs.
Profil Recherché
  • 4–7+ ans d’expérience en exploitation de systèmes data/temps réel/DBs en production.
  • Expertise sur Kafka, ClickHouse, Kubernetes, PySpark, TypeSense/FTS, S3/data lakes.
  • Mise en production d’APIs data/analytics et de BigData Backends/APIs.
  • Culture fiabilité/automation/coûts, sens produit (API-first, clients payants). Expérience en scale-up est un plus.
  • Profil hands-on, orienté résultats, opérateur à l’échelle.
  • Veut contribuer à construire un spectre infra/data/produit pour une data-as-a-service company, avec montée vers analytics/IA et une API client pour du summmarization de trends.
  • Lieu : Lyon (hybride on-site, remote flexible).
  • Contrat : CDI, salaire brut annuel à partir de 60k€ selon expérience, BSPCE attractif + avantages (mutuelle, etc.).
  • Équipe : <5 personnes, accès direct aux fondateurs, décisions rapides.

Ce rôle est clé pour faire d’Exorde la référence des API de données sociales et d’analytique à grande échelle. Votre mission : stabiliser et fiabiliser l’existant, puis construire la nouvelle plateforme “data-as-a-service” de l’entreprise.

Vous rejoindrez une micro-équipe technique : forte autonomie, responsabilités réelles, et périmètre qui peut s’élargir après la première année (backend en priorité, puis éventuellement frontend/WebApps selon appétence et besoins).

Si vous avez envie de concevoir et opérer des backends robustes, mettre en place des architectures hybrides recherche/analytics avec API modernes, et participer à la création de notre team culture et work-life balance… parlons-en !

#J-18808-Ljbffr
Désolé, cet emploi n'est pas disponible dans votre région

Senior Data Scientist - Signal Processing

Paris, ILE DE FRANCE Eko Devices

Publié il y a 5 jours

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

Overview

Neko Health is a Swedish health-tech company co-founded in 2018 by Hjalmar Nilsonne and Daniel Ek. Our vision is to create a healthcare system that can help people stay healthy through preventive measures and early detection. Neko has developed a new medical scanning technology concept to make it possible to do broad and non-invasive health data collection that is both convenient and affordable for the public. This requires completely reimagining the healthcare experience and incorporating the latest advances in sensors and AI. We are a remote first company, but the company is based in Stockholm and has over 300 employees across Europe.

Responsibilities

We are currently seeking a proficient and seasoned data scientist to become an integral part of our team. The primary emphasis of this role lies in the advancement of innovative methodologies for cardiovascular health assessment. Our algorithmic team consists of highly capable professionals, encompassing data scientists, machine learning experts, and software engineers. The team collaborates closely with both our internal medical doctors as well as external clinical experts. Most of our team operates from our Stockholm office, providing an engaging and cooperative work atmosphere.

Qualifications

Requirements (must have):

  • An academic background in Software Engineering/Machine Learning
  • A strong proficiency in designing and implementing machine learning algorithms
  • In-depth knowledge of both machine learning and signal processing
  • Strong software skills, with a strong track record successfully delivering algorithms and models into production
  • Prior experience applying machine learning to time-series

Requirements (nice to have):

  • Further study to MSc or PhD level in Machine Learning
  • Expertise in cardiovascular sensor data (e.g. electrocardiogram, heart sound, or photoplethysmogram (PPG))
Engineering Team

Distributed and Remote First

We are nearly 100 full time engineers at the company, working from Berlin, Chamonix, Hamburg, Lisbon, Marseille, Vilnius, and Stockholm, spanning diverse disciplines such as Hardware Engineering, Firmware Development, Electrical Design, Algorithm Development, Machine Learning Development, Optronics Research, Frontend Development and more. We don't expect people to join us with a specific tech knowledge, but we do expect you to work with our tools. We use a mix of React, Typescript, C++, and Python. Our APIs are written in C# with ASP.NET Core, uses Azure Cosmos DB, and Azure Active Directory for authentication.

Our headquarters and our hardware development team are in Stockholm, Sweden.

We are a Remote First company; however, it is of course much easier to work remotely as a software engineer than a hardware or firmware engineer (since they require access to hardware or devices occasionally). Software engineers based in Stockholm work maybe one day a week or one day every two weeks from the office.

We meet a couple of times per year to get to know each other and have fun.

Organization and Way of Working

The engineering team is divided into smaller cross functional project teams that each focus on a specific goal or target, where some groups are long-lived, and some are short-lived, depending on how big the goal or deliverable is. We strive to create groups which are cross-functional and able to complete their goals without dependence on other teams, even though this is of course not always possible.

Groups track goals on a yearly and quarterly basis with goal follow-up across the entire engineering organization on a bi-weekly basis. Most groups do internal planning on a bi-weekly basis, but in the end it's up to the group to decide how they want to work.

We have, however, mandated that all groups must present their progress or failures or hacks at our bi-weekly engineering demo, a fun meeting/presentation where we talk about everything from short-circuiting power-modules, how hard it is to calibrate cameras or align polygons in space, to neat new command line tools for operations, a new auth mechanism in the backend, a cool new way to visualize health data or a new feature which helps our doctors be more productive.

We have a flexible workplace that focuses on work/life balance, and we strongly believe in our mission but do not think that achieving it requires sacrificing everything else.

#J-18808-Ljbffr
Désolé, cet emploi n'est pas disponible dans votre région

Expertise Data / Big Data Engineering (IT) / Freelance

BI NEWVISION

Publié il y a 22 jours

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

full-time
Description complète du poste

Le Datalab cherche à renouveler son dispositif de compétences autour des activités d’architecture Data / infogérance, et d’expertise Big Data / Data Engineering de cette Plateforme Data Analytics avec pour objectif de :
Concevoir, réaliser, maintenir et faire évoluer, sa Plateforme de Données Analytics ( PDA ).
Assurer une veille technologique sur les solutions innovantes permettant d’envisager des évolutions pertinentes,
Mettre à disposition des jeux de donnée de tous les domaines de l’entreprise aux différents utilisateurs, en mettant en œuvre et en opérant les modèles de données prescrits par les domaines métiers
Appuyer les équipes produits, pour tout projet métier, dans la mise à disposition des jeux de données et dans le choix des solutions techniques d’utilisation de ces données.
Assurer un support Niveau 3 sur les applicatifs Data et Data Analysts utilisant la plateforme.
Toutes ces activités sont à assurer dans le respect du cadre technologique et Cybersécurité de l’entreprise.

Pour mettre à disposition toutes les données nécessaires au service des métiers, les principales compétences requises sont :

Maitrise des process d’ingestion en batch et streaming quelle que soit la typologie de sourcing des données (API, Fichier (structuré, semi structuré, non structuré), BDD, ) et quel que soit le Cloud provider en entrée (AWS/AZURE/GOOGLE).
Expertise BDD Snowflake avec un minimum de 1 an d’expérience
Parfaite maitrise des modèles de données. Les Data Engineers doivent à terme devenir référent technico fonctionnel sur 1 ou plusieurs domaines métier.
Optimisation de requête et performance, factorisation du code, respect de l’état de l’art
Capacité d’analyse avancée pour résoudre les incidents techniques ou fonctionnels avec Tests unitaires et code quality.
Développement de cube multidimensionnel SQL server (MDX) et tabulaire PBI (M et DAX)
Support Niveau 3 des dataAnalysts sur le périmètre des socles applicatifs
Parfaite maitrise de GIT et connaissance d’un outil de gestion de configuration tel que Azure Devops(Méthode GITflow / GITHubflow), CI/CD/Artefact
Très bonne maitrise des langages Javascript(impératif), PowerShell, Python.
Création d’applicatifs Data, aisance sur Notebook avec bibliothèques afférentes (ex : Panda, NumPy)
Une connaissance des produits de développement Datascience comme Dataiku serait appréciée

Environnement et compétences techniques pour les prestations 1. et 2.

MS Azure Devops (TeraForm, PowerShell, Yaml )
T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure)
Services Azure: Keyvault, Storage account, Automation (PowerShell), Azure Function (C# et PowerShell), Log Analytics (KQL)
Services AWS (RDS, S3, Lambda, KMS, CloudWatch )
MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream )
Apache Spark - Databricks (MPP et Clustering)
Azure Synapse Analytics (SQL Pool & Serverless)
Snowflake
Cube Multidimensionnel (IaaS : SSAS MDX) et tabulaire (PaaS)
Power BI (DAX, M)
Power BI Reporting Services / Paginated Reports
Power Virtual Agents
Power Automate
Power Apps
Logic Apps, Power Automate
Docker / Kubernetes
Python for Analytics
JavaScript (+D3js)
Open Data Soft
API REST (consommateur/développeur)
GIT
Une connaissance et ou une expérience sur l’outil Streamlit sera grandement appréciée

Compétences attendues
La réalisation de cette prestation demande de pouvoir travailler en lien étroit avec les équipes produits du Datalab (Epic Owner, Product Owner et Lead opérationnel) ainsi qu’avec les différentes entités IT Transverse de la DSI (CCOE, CyberSécu, Outillage )
Une parfaite connaissance des architectures et services managés Cloud AZURE et Snowflake est attendue ainsi qu’une maitrise totale des développements applicatifs autour de ces services Data.
Une connaissance des architectures et services managés Cloud AWS serait un plus.
Une connaissance du domaine de l’énergie et de ses enjeux sera également appréciée.

Désolé, cet emploi n'est pas disponible dans votre région

Ingénieur Big Data

Montpellier, LANGUEDOC ROUSSILLON VISIAN

Hier

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

Overview

Nous recherchons un ingénieur Big Data confirmé pour intervenir sur une plateforme Datalake de grande envergure. Vous apporterez votre expertise technique sur l’exploitation et l’évolution d’un écosystème Big Data complexe et moderne, et contribuerez à son maintien en condition opérationnelle ainsi qu’à son amélioration continue.

Vos principales missions
  • Assurer le maintien en conditions opérationnelles de la plateforme Big Data (MCO, incidents, demandes projets/utilisateurs).
  • Contribuer à l’implémentation et à l’automatisation des solutions.
  • Réaliser et suivre les mises en production.
  • Participer à l’amélioration continue des outils et processus d’exploitation.
  • Communiquer et accompagner les utilisateurs finaux.
Produire les livrables attendus
  • Récapitulatif mensuel des tickets traités (incidents, demandes).
  • Statut bimensuel des projets en cours.
Profil candidat
  • Profil recherché : Solide expérience en maintien en conditions opérationnelles (MCO) d’environnements Big Data.
  • Maîtrise des technologies : Spark, Hadoop, Kafka, Kubernetes, Docker (expertise).
  • Python, Scala, Hive, HBase (confirmé à avancé).
  • Linux / Unix (expert).
  • Bonne pratique des outils d’intégration et déploiement (Jenkins, Ansible, GitHub).
  • Capacité à évoluer dans un environnement de production exigeant, avec rigueur et autonomie.

#J-18808-Ljbffr
Désolé, cet emploi n'est pas disponible dans votre région

Ingénieur Big Data

Nice, PROVENCE ALPES COTE D AZUR Free-Work

Publié il y a 21 jours

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

Nous recherchons pour l'un de nos clients, un(e) Data Engineer afin de concevoir, construire, tester et maintenir les chaines de traitement de données.

A ce titre, vos principales missions seront les suivantes :

  • Participer à la définition des solutions.
  • Déployer, intégrer et administrer les chaines de traitement de données sous Linux.
  • Automatiser la livraison, la supervision et l'accès aux datasets sur notre infrastructure privée.
  • Réaliser la Documentation et contribuer à la rédaction du modèle de responsabilité partagée pour chaque technologie (« shared responsibility model »).
  • Apporter son expertise technique pour la résolution des incidents N2 et N3.
  • Automatiser et documenter l'exploitation des chaines de traitement de données.
  • Proposer les évolutions techniques des pipelines.
  • Garantir au quotidien la livraison, la disponibilité et l'intégrité des données.
  • Réaliser la planification
  • Faire des Astreintes sur le périmètre de l'équipe (Big data, Kubernetes et bases de données)


Profil candidat:

  • Diplôme Bac +4 ou Bac +5 minimum en science des données, intelligence artificielle, mathématiques appliquées ou discipline équivalente.
  • Expériences et expertises opérationnelles recherchées :
  • Run et build de pipelines de données de production
  • Gestion des incidents de production (plateforme, sécurité, retard de livraison de données, corruption de données, etc.)


Qualités essentielles :

  • Capacité à apprendre
  • Appétence pour les aspects fonctionnels et métiers de Monaco Telecom
  • Capacité d'écoute et d'analyse du besoin des clients et des utilisateurs
  • Sens de la priorité clients et des utilisateurs
  • Autonomie
  • Esprit d'analyse et sens de l'initiative
  • Force de proposition
  • Esprit d'équipe
  • Niveau d'anglais technique
  • Savoir prioriser son travail dans un environnement sous pression
  • Toute expérience sur un poste similaire est un gros plus
  • Maîtrise de :
  • CI/CD/CD (Gitlab)
  • Pyspark / spark
  • SQL
  • Linux
  • Bases de données (RDBMS & NoSQL)
  • Kafka
  • Hive/Impala/PrestoDB/Trino/Nessie(gestion des données)
  • Spark (développement, optimisation et opérations)
  • Principes architecture big data & Hadoop
  • Réseaux (savoir débugger des flux)
  • Connaissances qui sont un gros plus :
  • Kubernetes, pour le déploiement d'application Spark sur K8S
  • Trino
  • Infrastructure as code (Ansible, Terraform est un plus)
  • Apache Icerberg ou autre framework de delta tables
  • Hive Metastore
  • S3
  • MariaDB (Galera cluster) et PostGreSQL
  • MongoDB
  • OLLAMA
  • MIG K0S

Ingénieur Développement C/C++ Junior F/H (H/F) Développeur Fullstack Java - Plateforme intélligente Développeur Back-End Java - Angular - Spark H/F Développeur Fullstack Java - Angular H/F

Villeneuve-Loubet, Provence-Alpes-Côte d'Azur, France 1 month ago

Développeur Fullstack NodeJS - NestJS / React (H/F) Alternant·e Développeur·se Full Stack H/F Ingénieur Full Stack Java/React ou Angular H/F #J-18808-Ljbffr
Désolé, cet emploi n'est pas disponible dans votre région

Data Ingénieur Big Data

Bordeaux, AQUITAINE STEP UP

Publié il y a 5 jours

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

STEP UP Bordeaux, Nouvelle-Aquitaine, France

STEP UP est une société d'ingénierie experte en pilotage de projets industriels et informatiques (+ 250 collaborateurs sur 11 agences en France), plaçant le potentiel humain comme 1er vecteur d'excellence et de performance en entreprise.

Oubliez les sociétés d'ingénierie qui ne valorisent que vos seules compétences, chez STEP UP, nous visons également l'adéquation entre votre personnalité et la culture d'entreprise de nos clients. Cela se traduit pour vous par une différence fondamentale en termes de bien-être, d'épanouissement au travail et de succès dans vos missions.

Ce Que Nous Vous Proposons
  • Un cadre de travail épanouissant, stimulant et collaboratif, nous sommes certifiés entreprise où il fait bon vivre !
  • Des projets innovants et variés.
  • La possibilité de se perfectionner continuellement avec des formations internes.
  • Des perspectives d'évolution de carrière.
  • Un accompagnement individualisé avec un programme de développement du potentiel humain.
  • Un programme de cooptation.

Et bien sûr, nous prenons en charge 70% de votre mutuelle santé et encourageons financièrement la mobilité douce.

POSTE / MISSIONS

Dans une équipe de 15 personnes intervenant au sein d'une des équipes Data de la DSI, le Data Ingénieur Big Data aura la charge des développements informatiques sur les technologies Hadoop, HDFS, Hive, Spark Sql, PySpark et Sqoop.

Tâches à Réaliser
  • Participation au maintien en conditions opérationnelles
  • Conception
  • Développements
  • Livraisons
  • Recettes
PROFIL RECHERCHÉ
  • Expérience confirmée en développement, analyse et modélisation de données
  • Maîtrise avancée de Python et PySpark
  • Connaissance approfondie de l'écosystème Big Data, notamment: Cloudera / Hadoop (HDFS, Hive, Impala, Sqoop, YARN)
  • Bonne maîtrise de Shell/Linux, SQL et Git
  • Connaissance des optimisations de performances dans Spark (partitionnement, caching, broadcasts variables)
  • Capacité d'intégration rapide au sein d'une équipe existante
  • Expérience nécessaire : 8 années d'expérience minimum
Optionnelles
  • Capacité à assurer un support en R/R studio.
  • Connaissance de l'ordonnanceur Control-M.
  • Expérience avec JIRA/Confluence.
  • Expérience avec les outils de CI/CD.
#J-18808-Ljbffr
Désolé, cet emploi n'est pas disponible dans votre région

Consultant Java / Big data

WHIZE

Publié il y a 21 jours

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

Offre d’emploi : Consultant Java/ Data Engineer

Whize est une filiale du groupe Neurones (7000 collaborateurs en France), spécialisée dans le domaine de la Data Intelligence et du développement de solutions sur mesure en architecture Serverless (Azure, AWS). Notre positionnement se décline en 3 offres :

  • Modern BI : expertise dans toute la chaîne décisionnelle pour la création de tableaux de bord interactifs, l'extraction et la transformation (ETL) des données de différentes sources en utilisant des outils de Business Intelligence (BI) modernes, tels que Power BI, Tableau et AZURE Data Factory.
  • Data Engineering : compétences solides en gestion des données pour collecter, stocker et traiter de grandes quantités de données de manière fiable et évolutive, en utilisant Python pour la gestion efficace des flux de données.
  • Développement en Cloud Native : expertise dans la conception d'applications en utilisant des langages de développement modernes (.Net, Java, Node.js, Python) et des services cloud natifs, tels que AWS, Azure, ou Google Cloud, ainsi que l'intégration des bonnes pratiques DevOps.
  • Support (MCO/fonctionnement opérationnel des services) et résolution des problèmes N2 et N3 en production avec analyse des causes racines.
  • Accompagnement des clients dans l'utilisation des plateformes.
  • Création d'offres d'ingestion de données, automatisation et industrialisation.
  • Déploiement des plateformes NiFi.
  • Administration et sécurisation des clusters et des services applicatifs.
  • Upgrade des technologies (gestion du cycle de vie) et tests associés.

Compétences techniques requises :

  • Utilisation d'outils CI/CD : Ansible, Gitlab, Gitlab CI, ArgoCD, Hashicorp Vault, etc.
  • Connaissance de produits Big Data : Apache NiFi (fortement apprécié), Apache Kafka, HDFS, Hive, Hue, IBM Cloud Object Storage, bases de données Oracle, etc.

Qu’attendez-vous pour nous rejoindre ?

  • Vous ferez partie d’une société à taille humaine bénéficiant des avantages d'un grand groupe. Nous adressons une centaine de clients en direct, dont la moitié sont des grands comptes.
  • Vous serez accompagné(e) et managé(e) par le CEO de WHIZE (le « THE WHIZE MAN »).
  • Vous intégrerez une équipe dynamique dans une ambiance start-up conviviale.
  • Vous occuperez des postes intéressants et évolutifs.
  • Vous participerez à des événements internes axés sur la tech, le business et les projets.
  • Vous réaliserez des projets à forte valeur ajoutée.

Localisation : Neuilly-Sur-Seine + Télétravail.

Lieu : La Défense, Île-de-France, France

Poste publié il y a 1 semaine.

Postes à proximité :
  • Consultant Front Angular (connaissance en Java exigée)
  • Architecte JAVA - Services Financiers F/H
  • Architecte applicatif JAVA - Secteur public F/H
  • Consultant Expérimenté en Cyber Sécurité F/H (Paris)
  • Consultant DevOps / Intégration Continue / Ansible (H/F) à Vélizy-Villacoublay
#J-18808-Ljbffr
Désolé, cet emploi n'est pas disponible dans votre région
Soyez le premier informé

À propos du dernier Data streaming Emplois dans France !

Ingénieur Java Big Data | Java, Python, Scala, Spark | SaaS Big Data B2B

Octopus IT

Publié il y a 15 jours

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

La société

Jeune strartup innovante en forte croissance de 15 personnes, ils ont développé une solution d'intelligence commerciale et marketing pour les entreprises.

Leur plateforme SaaS est une référence sur le marché de la Smart Data B2B et permet de révolutionner la prospection commerciale B2B.

En forte croissance et bien installés sur leur marché, ils souhaitent poursuivre leur développement grâce à des projets innovants

Si vous recherchez un projet et une expérience grisante et challengeante, si vous n’avez pas peur d’oser des choix techniques innovants, alors je peux vous assurer que vous allez bien vous amuser ! 

Le poste

Parce que votre avis sera primordial, vous allez avoir l’occasion d’accomplir de grandes choses sur les sujets suivants :

  • Conception et développement de leur environnement de web-crawling
  • Revue de code des autres membres de l’équipe
  • Maintenance et l’évolution de leurs produits techniques
  • Mise en place d’algorithmes de Machine Learning
  • Travailler sur une architecture solide et scalable, basée sur des technologies OpenSource

Si en plus, vous :

  • Adorez l’algorithmie et avez en tête les soucis de performances liées au Big Data
  • Avez une affinité avec la création d’outils pour faciliter votre travail et celui de vos collègues
  • Avez de l’expérience ou êtes de la mouvance DevOps

 Cette opportunité est faite pour vous ! :D

La stack actuelle

 Java (8 et 11), Scala, Spark, Hadoop, Elasticsearch, Mysql, Cassandra, Maven, Jenkins, Ansible, et le trio Azure / AWS / Google Cloud

Les évolutions à venir dépendront majoritairement de vous et de vos préconisations.  

Votre profil

  • Formation Bac+5 
  • Expérience minimum de 3 ans en Java dont une expérience significative sur des problématiques complexes de gros volumes de données
  • Java, Spark et les bases de données NoSQL n’ont plus de secret pour vous
  • Vous avez de solides connaissances en web : API REST, communication client/serveur, etc.
  • Une curiosité technique à toute épreuve et l’envie de mettre en place des nouvelles technologies

Le salaire & avantages

  • 45-50K€ selon expérience
  • RTT
  • Carte Lunchr & Mutuelle
  • 1 à 2 jours de télétravail par semaine
  • Incentives organisés par la direction

Et plus encore… 

Ce qu’on préfère

  • Être impliqué à fond dans une aventure avec de nombreux challenges techniques
  • Beaux locaux, terrasse, situés à proximité de Saint Lazare
  • Très bonne ambiance, équipe solidaire et orientée partage d’informations
  • Beaucoup de workshops en interne et catalogue de formations à votre guise

Ce poste a été soigneusement choisi par votre coach. Powered by Octopus IT, cabinet d’Experts en Recrutement Tech (CDI et clients finaux uniquement) – Visitez nous pour plus d’opportunités :

Désolé, cet emploi n'est pas disponible dans votre région

DBA Développeur SQL/Big Data

Informatis-TS

Aujourd'hui

Emploi consulté

Appuyez à nouveau pour fermer

Description De L'emploi

Description du poste

Offre n° : 2760 • Publié le : 05/07/2023 • Fonction : ADMINISTRATEUR • Contrat : CDI • Lieu de mission : MANTES LA VILLE • Départment : 78 • Salaire : Suivant profil

Responsabilités
  • Administration et maintenance des serveurs de bases de données SQL Server 2008 R2 → 2019 (gestion des autorisations d'accès, maintenance des bases, surveillance des jobs, gestion des backups, installation de nouvelles instances)
  • Tuning et supervision avec DPA (Database Performance Analyser) de SolarWinds
  • Réplication des données (Réplication transactionnelle et Change Data Capture)
  • SSIS (Integration Services) : Maintenance des packages
  • Développement SQL
  • Intervention d'optimisation auprès des développeurs
  • Reporting
  • BO - Maintenance des univers - Gestion des droits d'accès
  • Reporting Services : Maintenance des serveurs / Administration des droits / Développement de rapports
  • Accompagnement du projet de migration vers Google Cloud Platform : Big Query / Google Data Studio
Compétences requises

De formation d'administrateur(trices) systèmes et réseaux, ayant des affinités avec les bases de données et maîtrisant les domaines de la business intelligence, du big data et du cloud. Vous êtes motivé et appréciez travailler en équipe.

Vous aimez la rigueur et avez le sens de l'organisation.

Contact

MARC SOREL
26 rue Daubenton
75005 PARIS
Téléphone :
Fax :
E-mail : Répondre à cette offre

#J-18808-Ljbffr
Désolé, cet emploi n'est pas disponible dans votre région

Emplacements à proximité

Autres emplois à proximité de chez moi

Industrie

  1. shopping_bagAchats
  2. workAdministratif
  3. ecoAgriculture et élevage
  4. schoolApprentissage et formation
  5. apartmentArchitecture
  6. paletteArts du spectacle
  7. diversity_3Assistance sociale
  8. policyAssurance
  9. directions_carAutomobile
  10. flight_takeoffAviation
  11. account_balanceBanque et finance
  12. local_floristBien-être
  13. local_mallBiens de grande consommation (FMCG)
  14. storeCommerce et distribution
  15. request_quoteComptabilité
  16. supervisor_accountConseil en gestion
  17. person_searchConseil en recrutement
  18. constructionConstruction
  19. brushCréatif et digital
  20. currency_bitcoinCryptographie et blockchain
  21. medical_servicesDentaire
  22. gavelDroit et justice
  23. electrical_servicesÉlectronique
  24. boltÉnergie
  25. schoolEnseignement et formation
  26. engineeringExploitation minière
  27. precision_manufacturingFabrication et production
  28. gavelFonction publique
  29. child_friendlyGarde d’enfants
  30. foundationGénie civil
  31. supervisor_accountGestion
  32. checklist_rtlGestion de projet
  33. beach_accessHôtellerie - Restauration
  34. local_gas_stationHydrocarbures
  35. smart_toyIA et Technologies émergentes
  36. home_workImmobilier
  37. precision_manufacturingIndustrie
  38. scienceIndustrie chimique
  39. codeInformatique et logiciels
  40. shopping_cartInternet - Ecommerce
  41. emoji_eventsJeunes diplômés
  42. inventory_2Logistique et entreposage
  43. sports_soccerLoisirs et sports
  44. handymanMaintenance et entretien
  45. campaignMarketing
  46. buildMécanique
  47. local_hospitalMédecine
  48. perm_mediaMédias et relations publiques
  49. clean_handsNettoyage et assainissement
  50. biotechPharmaceutique
  51. scienceRecherche et développement
  52. groupsRessources humaines
  53. health_and_safetySanté
  54. securitySécurité de l’information
  55. securitySécurité publique
  56. support_agentService client et assistance
  57. diversity_3Services sociaux
  58. medical_servicesSoins infirmiers
  59. wifiTélécommunications
  60. psychologyThérapie
  61. beach_accessTourisme
  62. local_shippingTransport
  63. point_of_saleVentes
  64. petsVétérinaire
Tout afficher Data streaming Emplois