Ingénieur de Données

at 
Sheertex
Posted on 
14 Jul
JOB CATEGORY

Êtes-vous un ingénieur de données qui aime guider les décisions de conception et d'architecture ?

Si vous êtes motivé par la résolution de vrais problèmes pour de vraies personnes, vous êtes au bon endroit !

Sheertex est l'entreprise à l'origine des Collants incroyablement résistants. Notre mission ? Éliminer les 2 milliards de paires de collants jetables qui se retrouvent dans les décharges chaque année et changer la relation du monde avec les collants.
Nommée l'une des meilleures inventions par TIME's Best Inventions, notre technologie innovante, en attente de brevetage, a fait progresser une industrie autrefois stagnante, grâce à notre invention d'une fibre unique, incroyablement résistante, inédite dans la bonneterie. Notre équipe est composée de personnes curieuses et créatives en matière de résolution de problèmes, et notre culture est celle de l'inspiration et de la détermination.

Chez Sheertex, nous nous efforçons de rendre l'impossible possible. Êtes-vous capable de relever le défi ?

En tant qu' Ingénieur de données , vous aiderez à diriger notre projet de migration de données (méthode Agile) : planifier des sprints en traitant des tickets, en écrivant du code, en créant des modèles de base de données, en effectuant des révisions de code et en gérant Snowflake en tant qu'administrateur Snowflake de facto.

A quoi vous attendre au cours du 1er au 3eme mois : au fur et à mesure que vous vous familiariserez avec l'entreprise, sa culture et son rythme, vous vous mettrez à niveau et deviendrez un expert de notre stack technique actuel (Snowflake, dbt, etc.). En tant que co-responsable du projet de migration de données, vous aiderez à préparer les tickets, planifier les sprints, écrire du code SQL pour implémenter l'architecture de données, effectuer des révisions de code pour d'autres analystes et développeurs, gérer notre implémentation Snowflake et dbt et prendre des décisions basées sur les meilleures pratiques en matière de données.

A quoi vous attendre au cours du troisième au sixième mois : maintenant que vous vous êtes familiarisé avec notre stack technique du moment et que vous avez commencé à codiriger le projet de migration des données, vous allez prêcher les meilleures pratiques en matière de données et continuer à en apprendre davantage sur l'organisation dans son ensemble. Vous apprendrez les besoins en données de chaque département et aiderez l'équipe des données à répondre aux besoins de ces départements, tout en renforçant la gouvernance et la propriété des données. Vous commencerez également à travailler en étroite collaboration avec le département logiciel pour assurer des transitions fluides à partir de leurs outils, qui collectent les données de production et leur utilisation par nos analystes et scientifiques de données.

Are you a Data Engineer who loves to guide design and architecture decisions?

If you’re motivated by solving real problems for real people then, you’ve come to the right place!

Sheertex makes the strongest pantyhose in the world. Don't just take our word for it—in 2018 we were named one of TIME's "Best Inventions"! Tens of thousands of customers have already been wowed by our growing range of products, from our bestselling Classic Sheers to limited edition Sparkle Sheers. We are a company that prides itself on using technology to advance a once stagnant industry. Through our initial start of creating a fiber that the hosiery industry had never used before to our ongoing push to automate our manufacturing processes; the journey of Sheertex has a common thread of striving to be innovative in our use of technology. Even our method of selling direct-to-consumer through our online channels was uncommon in the hosiery industry, and is just another way Sheertex does things a little differently.

As the Data Engineer, you will help lead our data migration project (Agile method): planning sprints by grooming tickets, writing code, building dbt models, performing code reviews, and managing Snowflake as a de facto Snowflake Administrator.

What you can expect in the first 1-3 months: As you familiarize yourself with the company, culture and pace, you will get up to speed and become an expert in our current tech stack (Snowflake, dbt, etc.). As co-lead of the DAta Migration project, you will help groom tickets, plan sprints, write SQL code to implement data architecture, conduct code reviews for other analysts and developers, manage our Snowflake and dbt implementation, and help make decisions based on data best practices.

What you can expect in the first 3-6 months: Now that you have familiarized yourself with our current tech stack and have started to co-lead the data migration project, you will evangelize best data practices and continue to learn about the greater organization. You will learn each department's data needs, and aid the data team in meeting the needs of these departments, while strengthening data governance and ownership. You will also begin to work closely with the software department to ensure smooth transitions from their tools, which collect Production Data and the use of that data by our Data Analysts and Data Scientists.

Responsibilities:

  • Concevoir des modèles de données fusionnant plusieurs sources de données (Facebook, Google, Shopify, Shiphero, données de fabrication, etc.) dans tous les secteurs d'activité (marketing, finance, approvisionnement, exécution, production, etc.)
  • Rédaction de code SQL de production pour implémenter l'architecture de données
  • Rédaction de tests en SQL pour vérifier le modèle de données et assurer l'intégrité et la fiabilité des données ;
  • Réaliser des revues de code pour d'autres développeurs/analystes DBT
  • Maintenir les pipelines d'extraction/chargement de données existants, y compris les scripts python ainsi que les outils tiers Fivetran et Stitch
  • Gérer l'accès à la base de données en appliquant les meilleures pratiques aux utilisateurs, rôles et autorisations ;Surveiller l'utilisation et les performances
  • Designing data models that merge multiple data sources (Facebook, Google, Shopify, Shiphero, manufacturing data, etc.) across lines of business (Marketing, Finance, Procurement, Fulfillment, Production, etc.)
  • Writing production SQL code to implement data architecture
  • Writing tests in SQL to verify the data model and ensure data integrity and reliability
  • Conducting code reviews for other dbt developers/analysts
  • Maintaining existing data extract/load pipelines, including python scripts as well as 3rd party tools Fivetran and Stitch
  • Manage db access by applying best practices to users, roles, and permissions
  • Monitor usage and performance

Requirements:

  • Vaste expérience en modélisation de schémas et de données
  • Expérience en développement
  • Expérience DataOps ;Python
  • Snowflake ou autres technologies d'entreposage de données
  • Airflow, DBT
  • SQL
  • Git ou autres systèmes de contrôle de version
  • Extensive schema and data modelling experience
  • Development experience
  • DataOps experience
  • Python
  • Snowflake or other data warehousing technologies
  • Airflow, DBT
  • SQL
  • Git or other version control systems

Bonus:

  • Expérience de la conteneurisation et du déploiement d'applications avec Docker/Kubernetes
  • Expérience antérieure avec les données de fabrication et de commerce électronique
  • Expérience antérieure avec Looker
  • Experience containerizing and deploying applications with Docker/Kubernetes
  • Previous experience with manufacturing data and e-commerce data
  • Previous experience with Looker

En raison d'informations exclusives et de la nature de ce poste, si vous êtes sélectionné, nous vous demanderons de signer un accord de non-divulgation (NDA) afin de permettre une discussion franche sur le rôle pendant le processus d'embauche.

Due to proprietary information and the nature of this position, if selected, we will request a Non Disclosure Agreement (NDA) be signed to enable a candid discussion of the role during the interview process.

Job Description

Êtes-vous un ingénieur de données qui aime guider les décisions de conception et d'architecture ?

Si vous êtes motivé par la résolution de vrais problèmes pour de vraies personnes, vous êtes au bon endroit !

Sheertex est l'entreprise à l'origine des Collants incroyablement résistants. Notre mission ? Éliminer les 2 milliards de paires de collants jetables qui se retrouvent dans les décharges chaque année et changer la relation du monde avec les collants.
Nommée l'une des meilleures inventions par TIME's Best Inventions, notre technologie innovante, en attente de brevetage, a fait progresser une industrie autrefois stagnante, grâce à notre invention d'une fibre unique, incroyablement résistante, inédite dans la bonneterie. Notre équipe est composée de personnes curieuses et créatives en matière de résolution de problèmes, et notre culture est celle de l'inspiration et de la détermination.

Chez Sheertex, nous nous efforçons de rendre l'impossible possible. Êtes-vous capable de relever le défi ?

En tant qu' Ingénieur de données , vous aiderez à diriger notre projet de migration de données (méthode Agile) : planifier des sprints en traitant des tickets, en écrivant du code, en créant des modèles de base de données, en effectuant des révisions de code et en gérant Snowflake en tant qu'administrateur Snowflake de facto.

A quoi vous attendre au cours du 1er au 3eme mois : au fur et à mesure que vous vous familiariserez avec l'entreprise, sa culture et son rythme, vous vous mettrez à niveau et deviendrez un expert de notre stack technique actuel (Snowflake, dbt, etc.). En tant que co-responsable du projet de migration de données, vous aiderez à préparer les tickets, planifier les sprints, écrire du code SQL pour implémenter l'architecture de données, effectuer des révisions de code pour d'autres analystes et développeurs, gérer notre implémentation Snowflake et dbt et prendre des décisions basées sur les meilleures pratiques en matière de données.

A quoi vous attendre au cours du troisième au sixième mois : maintenant que vous vous êtes familiarisé avec notre stack technique du moment et que vous avez commencé à codiriger le projet de migration des données, vous allez prêcher les meilleures pratiques en matière de données et continuer à en apprendre davantage sur l'organisation dans son ensemble. Vous apprendrez les besoins en données de chaque département et aiderez l'équipe des données à répondre aux besoins de ces départements, tout en renforçant la gouvernance et la propriété des données. Vous commencerez également à travailler en étroite collaboration avec le département logiciel pour assurer des transitions fluides à partir de leurs outils, qui collectent les données de production et leur utilisation par nos analystes et scientifiques de données.

Are you a Data Engineer who loves to guide design and architecture decisions?

If you’re motivated by solving real problems for real people then, you’ve come to the right place!

Sheertex makes the strongest pantyhose in the world. Don't just take our word for it—in 2018 we were named one of TIME's "Best Inventions"! Tens of thousands of customers have already been wowed by our growing range of products, from our bestselling Classic Sheers to limited edition Sparkle Sheers. We are a company that prides itself on using technology to advance a once stagnant industry. Through our initial start of creating a fiber that the hosiery industry had never used before to our ongoing push to automate our manufacturing processes; the journey of Sheertex has a common thread of striving to be innovative in our use of technology. Even our method of selling direct-to-consumer through our online channels was uncommon in the hosiery industry, and is just another way Sheertex does things a little differently.

As the Data Engineer, you will help lead our data migration project (Agile method): planning sprints by grooming tickets, writing code, building dbt models, performing code reviews, and managing Snowflake as a de facto Snowflake Administrator.

What you can expect in the first 1-3 months: As you familiarize yourself with the company, culture and pace, you will get up to speed and become an expert in our current tech stack (Snowflake, dbt, etc.). As co-lead of the DAta Migration project, you will help groom tickets, plan sprints, write SQL code to implement data architecture, conduct code reviews for other analysts and developers, manage our Snowflake and dbt implementation, and help make decisions based on data best practices.

What you can expect in the first 3-6 months: Now that you have familiarized yourself with our current tech stack and have started to co-lead the data migration project, you will evangelize best data practices and continue to learn about the greater organization. You will learn each department's data needs, and aid the data team in meeting the needs of these departments, while strengthening data governance and ownership. You will also begin to work closely with the software department to ensure smooth transitions from their tools, which collect Production Data and the use of that data by our Data Analysts and Data Scientists.

Responsibilities:

  • Concevoir des modèles de données fusionnant plusieurs sources de données (Facebook, Google, Shopify, Shiphero, données de fabrication, etc.) dans tous les secteurs d'activité (marketing, finance, approvisionnement, exécution, production, etc.)
  • Rédaction de code SQL de production pour implémenter l'architecture de données
  • Rédaction de tests en SQL pour vérifier le modèle de données et assurer l'intégrité et la fiabilité des données ;
  • Réaliser des revues de code pour d'autres développeurs/analystes DBT
  • Maintenir les pipelines d'extraction/chargement de données existants, y compris les scripts python ainsi que les outils tiers Fivetran et Stitch
  • Gérer l'accès à la base de données en appliquant les meilleures pratiques aux utilisateurs, rôles et autorisations ;Surveiller l'utilisation et les performances
  • Designing data models that merge multiple data sources (Facebook, Google, Shopify, Shiphero, manufacturing data, etc.) across lines of business (Marketing, Finance, Procurement, Fulfillment, Production, etc.)
  • Writing production SQL code to implement data architecture
  • Writing tests in SQL to verify the data model and ensure data integrity and reliability
  • Conducting code reviews for other dbt developers/analysts
  • Maintaining existing data extract/load pipelines, including python scripts as well as 3rd party tools Fivetran and Stitch
  • Manage db access by applying best practices to users, roles, and permissions
  • Monitor usage and performance

Requirements:

  • Vaste expérience en modélisation de schémas et de données
  • Expérience en développement
  • Expérience DataOps ;Python
  • Snowflake ou autres technologies d'entreposage de données
  • Airflow, DBT
  • SQL
  • Git ou autres systèmes de contrôle de version
  • Extensive schema and data modelling experience
  • Development experience
  • DataOps experience
  • Python
  • Snowflake or other data warehousing technologies
  • Airflow, DBT
  • SQL
  • Git or other version control systems

Bonus:

  • Expérience de la conteneurisation et du déploiement d'applications avec Docker/Kubernetes
  • Expérience antérieure avec les données de fabrication et de commerce électronique
  • Expérience antérieure avec Looker
  • Experience containerizing and deploying applications with Docker/Kubernetes
  • Previous experience with manufacturing data and e-commerce data
  • Previous experience with Looker

En raison d'informations exclusives et de la nature de ce poste, si vous êtes sélectionné, nous vous demanderons de signer un accord de non-divulgation (NDA) afin de permettre une discussion franche sur le rôle pendant le processus d'embauche.

Due to proprietary information and the nature of this position, if selected, we will request a Non Disclosure Agreement (NDA) be signed to enable a candid discussion of the role during the interview process.

Responsibilities

Requirements

Offer

Share this opportunity:
Follow Climate Jobs List on: