Exemple de CV

Ingénieur données
CV

Créez un CV d’ingénieur données avec vos pipelines ETL, outils de data warehouse et métriques de fiabilité. Conseils pour Spark, Airflow et dbt.

Créer mon CV de ingénieur données

Senior data engineer with 6 years of experience building and operating data pipelines, warehouses, and real-time streaming systems. Designed a data platform processing 5TB daily for 200+ internal analysts. Strong expertise in Spark, dbt, Airflow, and Snowflake.

Experience

Senior Data Engineer · Target
2022-07 – Present
  • Designed a data platform processing 5TB daily from 40+ source systems, serving 200+ analysts and data scientists
  • Built a real-time inventory tracking pipeline (Kafka + Flink) reducing data freshness from 24 hours to under 5 minutes
  • Migrated the data warehouse from on-premise Teradata to Snowflake, reducing query costs by 55% and improving average query performance by 3x
  • Established dbt modeling standards and a CI/CD pipeline for data transformations, adopted by 6 analytics teams
SparkKafkaFlinkSnowflakedbtAirflowPython
Data Engineer · Slalom Consulting
2020-03 – 2022-06
  • Built an end-to-end data pipeline for a $4B retailer, consolidating 12 data sources into a unified analytics warehouse
  • Implemented data quality checks using Great Expectations, catching 95% of data issues before they reached dashboards
  • Designed a dimensional data model supporting $200M+ in marketing spend attribution
PythondbtBigQueryAirflowFivetranLooker
Junior Data Engineer · UnitedHealth Group
2018-08 – 2020-02
  • Developed ETL pipelines processing 2M+ insurance claims daily with 99.9% data integrity
  • Automated data validation workflows reducing manual QA time by 70%
PythonSQLSparkHadoopHiveAWS

Education

University of MinnesotaB.S., Computer Science
2014-09 – 2018-05

Skills

Data ProcessingSpark, Kafka, Flink, Airflow, dbt, Fivetran, Dagster
Data WarehousesSnowflake, BigQuery, Redshift, Databricks, Delta Lake
LanguagesPython, SQL, Scala, Java, Bash
Platforms & ToolsAWS (S3, EMR, Glue, Lambda), GCP, Docker, Terraform, Git, Great Expectations

Certificates

Databricks Certified Data Engineer Associate · Databricks2023-04
AWS Certified Data Engineer – Associate · Amazon Web Services2023-09
dbt Analytics Engineering Certification · dbt Labs2022-11

Créé avec le modèle modern - utiliser ce modèle

Ce que les recruteurs en data engineering recherchent

Les responsables du recrutement évaluent les ingénieurs données sur leur capacité à construire et maintenir des pipelines de données fiables, performants et scalables. Ils recherchent la maîtrise des outils de pipeline (Airflow, Spark, dbt), les compétences en data warehousing (Snowflake, BigQuery, Redshift) et l’expérience avec les données à grande échelle.

Le signal le plus fort est un pipeline en production avec des métriques de fiabilité : « A construit un pipeline Spark traitant 5 To/jour avec un uptime de 99,9 % et un SLA de fraîcheur de 15 minutes ». Les recruteurs veulent voir que vos pipelines fonctionnent de manière fiable, pas seulement qu’ils existent.

La qualité des données est une compétence de plus en plus valorisée. Les ingénieurs données qui implémentent des tests de qualité, du monitoring et des alertes sur la fraîcheur et l’intégrité des données sont très recherchés.

Guide de rédaction du CV

Résumé professionnel

Mentionnez votre titre, vos années d’expérience, vos outils principaux et votre résultat le plus significatif.

Exemple : « Ingénieur données senior avec 6 ans d’expérience en construction de pipelines de données à grande échelle. A architecturé un data lakehouse sur Snowflake et Spark traitant 8 To/jour pour une plateforme e-commerce de 20 M d’utilisateurs. »

Expérience professionnelle

Décrivez les pipelines construits, les volumes de données traités, la fiabilité atteinte et les améliorations de productivité pour les équipes data.

Faible : « A construit des pipelines de données. »

Fort : « A conçu un pipeline ETL avec Airflow et Spark, ingérant 3 To/jour depuis 15 sources vers Snowflake, avec un uptime de 99,95 % et un SLA de fraîcheur de 10 minutes. »

Compétences techniques

Organisez en Pipelines, Stockage, Langages et Infrastructure. Soyez spécifique sur les versions et configurations.

Compétences à mettre en avant

Compétences techniques : Python, SQL, Scala, Apache Spark, Apache Airflow, dbt, Apache Kafka, Flink, Snowflake, BigQuery, Redshift, Delta Lake, Iceberg, AWS (S3, Glue, EMR, Redshift), GCP (BigQuery, Dataflow, Pub/Sub), Docker, Kubernetes, Terraform, Git, tests de qualité des données, Great Expectations, data lineage

Compétences transversales : collaboration avec les data scientists et analystes, documentation des modèles de données, communication des SLA, résolution de problèmes de performance, mentorat technique

Conseils pour le CV

  1. Quantifiez les volumes de données. « 5 To/jour », « 100 M de lignes », « 15 sources » — l’échelle est le premier indicateur de la complexité de votre travail.
  1. Incluez les métriques de fiabilité. Uptime, SLA de fraîcheur, taux d’échec des jobs — ces métriques prouvent que vos pipelines fonctionnent en production.
  1. Mentionnez les outils spécifiques. Airflow, Spark, dbt, Snowflake, Kafka — les recruteurs filtrent par outil. Ne soyez pas générique.
  1. Montrez l’impact sur les utilisateurs en aval. « A réduit le temps de rafraîchissement des tableaux de bord de 4 heures à 15 minutes pour l’équipe analytics » relie votre travail à l’impact business.
  1. Incluez la qualité des données. Tests, monitoring, alertes, data lineage — la qualité des données est devenue un critère différenciant.
  1. Restez sur une à deux pages. La concision est appréciée même pour les profils seniors.

Erreurs courantes

  • Pas de métriques de volume ou de fiabilité : les pipelines de données sont évalués sur leur échelle et leur fiabilité. L’absence de ces chiffres est un handicap.
  • Confusion avec analyste de données : si votre CV se concentre sur les dashboards et les analyses, vous apparaissez comme un analyste, pas un ingénieur données.
  • Outils génériques : « ETL » seul ne suffit pas. Nommez Airflow, Spark, dbt et les plateformes cloud spécifiques.
  • Ignorer la qualité des données : les pipelines sans tests de qualité sont des bombes à retardement. Montrez que vous gérez la qualité proactivement.

Questions fréquemment posées

Data engineer vs data scientist : quelle différence ?

Les ingénieurs données construisent l’infrastructure (pipelines, data warehouses). Les data scientists analysent les données et créent des modèles. Les deux sont complémentaires.

Faut-il connaître Scala ?

Scala est très utile pour Spark, mais Python est le langage dominant en data engineering. Si vous connaissez les deux, c’est un avantage.

dbt est-il incontournable ?

dbt est devenu un standard pour la transformation des données dans les data warehouses modernes. L’expérience avec dbt est un avantage significatif pour les postes dans les entreprises qui utilisent Snowflake ou BigQuery.

Prêt à créer votre CV de ingénieur données ?

Choisissez un modèle, ajoutez vos informations et téléchargez un CV soigné en quelques minutes.

Commencer gratuitement