Back
France   France   Engineer   Hermes -

CDI - Data Engineer (H/F)

This listing was posted on Equest.

CDI - Data Engineer (H/F)

Location:
Paris
Description:

À propos : Partagez une aventure humaine au cœur de l'équipe hermes.com Hermès offre aujourd'hui une plateforme e-commerce dans 32 sites et propose ainsi à ses clients un parcours de vente omnicanal. Pilotée de manière agile, cette plateforme s'inscrit dans un programme stratégique et international. Les métiers du digital, chez Hermès, s'articulent autour de quatre pôles dynamiques étroitement interconnectés : l'e-commerce, les opérations digitales, la technique et la data performance. Comme un artisan fabrique un sac de A à Z, les équipes digitales interviennent de la réflexion stratégique à la mise en production des projets. Rejoindre Hermès Digital, c'est participer à un projet unique, intégré et 100% agile dans un contexte de forte croissance et de déploiement international. C'est évoluer dans un environnement qui réunit les langages, les technologies, les infrastructures, les outils et les méthodes les plus performants du marché. Descriptif du poste : En tant que Data Engineer, vous travaillerez au sein d'Hermès Digital, et serez intégrée à l'équipe digitale " data et performance ", en charge principalement de l'analyse de la donnée digitale d'Hermès (hermes.com), de sa transformation, la garantie sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattachée au Data Manager et travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS) Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Manipulation/Transformation de données (en batch et stream) Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans ses activités de transformation de données via : * Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) * Des pipelines de transformation de données écrits en langage python pour l'outil Cloud Data Flow (version serverless d'Apache Beam proposée par GCP) * L'écriture de code python spécifique pour récupérer et transformer de la donnée hébergée par des partenaires et servie via des APIs. Ce code est bien souvent déployé dans le service Cloud Functions de GCP. Manipulation de flux de données (stream) Nous utilisons des flux de données via les technologies Kafka, SNS/SQS et Cloud PubSub. Dans ce cadre, votre mission consistera à : * Suivre et coordonner les efforts de développements des différents flux avec les équipes qui fournissent la donnée * Préciser la stratégie de backfill (rétro-récupération), en cas de donnée manquante ou interruption de service * Aider au développement des runners dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. * Vérifier le bon niveau de suppression et anonymisation de la donnée en accordance avec la GDPR. * Aider au développement en python de pipeline DataFlow afin de manipuler les flux de données en (pseudo) temps réel. Participation aux opérations lié au développement de code. Pour garantir un service de qualité dans une équipe en forte croissance, il faut maintenir du code de qualité. Pour cela, vous participerez à l'écriture, déploiement et maintien du code (généralement en python) lié à la manipulation et transformation de données. Ces activités liées au développement de code (Dev Ops) sont essentielles pour le travail collaboratif à l'échelle. Ainsi vous aiderez l'équipe Data à développer et consolider ses activités de développement de code et ses standards de qualité. De l'expérience dans ce domaine (utilisation de Git, écriture de tests unitaires, merge de branches) est un fort atout pour cette mission. Garder et développer un Data Lake/Data Warehouse de qualité Pour garantir des analyses de qualité, il faut garantir une donnée de qualité en entrée. Vous travaillerez avec les différents membres d'équipe (développeurs, Data Analysts, ML Ops) pour assurer une donnée de qualité (propre, sécurisée, anonymisée, etc.) Pour cela vous travaillerez principalement en SQL et Python pour garantir la qualité de la donnée. Des connaissances additionnelles en Javascript sont un plus. Vous suivrez avec l'équipe les évolutions des flux de données via un Data Lineage existant et en cours d'évolution. Profil recherché : * Une expérience de 4 ans au minimum sur des missions de Data Engineering. * Formation Bac +5 : Ecole d'ingénieur ou Master Big Data, Mathématiques ou équivalent possédant une culture Internet et une sensibilité aux problématiques digitales e-commerce, vous avez une première expérience en entreprise * Organisé, rigoureux, curieux, autonome, bonne expression écrite et aisance relationnelle * Maîtrise du Pack Office indispensable * Un bon niveau d'anglais est important pour échanger avec différents interlocuteurs internationaux par oral ainsi que par écrit. * De bonnes capacités d'auto-formation sur les aspects techniques sont fortement appréciées. Compétences Comportementales : Vous êtes bonne communicante (vous savezprésenter, à l'oral comme à l'écrit, de manière synthétique et pédagogique des thématiques techniques pointues) et avez un bon sens relationnel, vous savez faire preuve d'empathie. Vous êtes rigoureuxse et réactifve. Environnent technique : Stack technique : Google Cloud Platform (GCP), BigQuery, DataForm, Cloud DataFlow, Cloud PubSub, Notebooks Python, LookerStudio, PowerBI. * Une bonne maîtrise des langages Python et SQL est indispensable. * Une connaissance minimum des technologies de streaming (Apache Beam, DataFlow, Kafka, PubSub, SNS/SQS) est nécessaire. * De l'expérience spécifique sur BigQuery est fortement recommandée * Une connaissance des outils de GCP (ou cloud équivalent) est fortement recommandée * De l'expérience sur des ETL (transformation de données) est fortement recommandé * De l'expérience en développement de code collaboratifs (dev Ops.) est préféré. * De l'expérience dans l'utilisation d'outil de transformation de données comme des ETLs (Cloud DataPrep, DataIku, Alteryx ou autre) sont un plus * Des connaissances en machine learning sont un plus Bénéfices pour vous : * Vous rejoignez la Maison Hermès, artisan de produits d'exception ! * Vous êtes au cœur d'un projet passionnant. * Vous intégrez une équipe bienveillante soucieuse de la qualité de sa data et de l'évolution de ses membres. * Vous bénéficiez d'une grande autonomie et vos prises d'initiatives sont encouragées. Employeur responsable, nous nous engageons dans l'éthique, les diversités et l'inclusion. Rejoignez l'aventure humaine Hermès !
Company:
Hermes
Posted:
June 18 on Equest
Visit Our Partner Website
This listing was posted on another website. Click here to open: Go to Equest
Important Safety Tips
  • Always meet the employer in person.
  • Avoid sharing sensitive personal and financial information.
  • Avoid employment offers that require a deposit or investment.

To learn more, visit the Safety Center or click here to report this listing.