Consultez nos dernières offres similaires
Contenu de l'offre Data Engineer H/F chez Dalenys
Dalenys recherche …
Description
Dalenys est la fintech spécialiste des paiements digitaux choisie par de grands noms du e-commerce et du digital en Europe tels que Kiwi.com, Maisons du Monde ou Veepee.
S'appuyant sur sa technologie propriétaire et ses équipes d'experts, Dalenys propose une solution de paiement unique en termes de performances de conversion. Dalenys accompagne ses clients dans le développement de leurs activités e-commerce, marketplace, de commerce unifié et à l'international.
Son rattachement au Groupe BPCE, 2e groupe bancaire en France et 1er émetteur Visa en Europe, lui confère un positionnement unique sur le marché dans la lutte contre la fraude et la sécurisation des transactions.
Dalenys maîtrise toute la chaîne du paiement en étant le seul PSP acquéreur français membre des réseaux Carte Bancaire, Visa et Mastercard.
DESCRIPTION DU POSTE
Le Tech Lab de Dalenys se renforce ! Nous recherchons un Data Engineer pour renforcer nos équipes dans la construction de notre nouveau Datalake. Celui-ci remplacera à terme intégralement notre système existant. Vous intégrez la Squad dédiée à la Data sous la direction du Head of Data, axée sur le développement d'outils et d'architectures adéquats à l'analyse de la donnée par les équipes Métiers, Supports et de Data Science. Au-delà de Dalenys, vous travaillerez en collaboration avec d'autres équipes Data de la Business Unit dans l'optique d'unifier notre approche Data au sein des différentes Fintech de Natixis. Le secteur d'activité de la monétique implique que vous évoluerez dans un contexte fortement challengeant d'un point de vue sécurité (certification PCI-DSS) mais également de haute disponibilité
VOS MISSIONS
Participer à l'enrichissement et la maintenance du nouveau Datalake GCP (Datawarehouse BigQuery)
Ajout de nouvelles sources de données (évènementielles, MongoDB, sources externes (API, ftp)
Développer les pipelines de données : extraction, ingestion, transformation, agrégation, nettoyage...
Accompagner les équipes développement dans leur utilisation des bases de données : modélisation, indexation, requêtes complexes
Aider les équipes métier à modéliser leur schéma de données
Maintien de l'infrastructure existante
Assurer le niveau de performance du traitement des données en fonction des besoins et leur intégrité
Capitaliser sur les chaînes de traitement et apporter une vision « générique », transposable et scalable
Documentation : chaînes de traitement, l'infrastructure, catalogue de données
Mise à disposition des données à des fins de Machine Learning
Stack technique :
Data : GCP (GCP, BigQuery, Cloud Composer, Cloud Data Proc, Cloud PubSub)
BI : Tableau Infrastructure générale : Google Cloud Platform
Docker & orchestration générale : Kubernetes
Code et CI/CD plateforme : gitlab & gitlab-CI
Database plateforme : Big Query, MongoDB, MySQL, Vertica
Message-broking : RabbitMQ