[FR] Data engineer

Saagie recrute !

À propos

🏢🏢Saagie (qui signifie Héron en japonais) est une startup de 75 personnes avec des bureaux à Rouen ; Paris et San Francisco.

Nous fournissons une plateforme qui permet de déployer rapidement des projets Big Data en production et d’embarquer de l’IA dans les applications des entreprises, au service de leurs métiers.
Elles peuvent alors extraire, préparer et travailler la donnée de la manière la plus sécurisée possible avec la gouvernance des données appropriée.
Prête à déployer et infogérée, notre plateforme est massivement utilisée dans le secteur de la Banque et de l'Assurance.

👉👉 Créée en 2013 par Arnaud Muller, Saagie, accélérée par le Hub BPI France, a levé plus de 11M€ avec CapHorn Invest, BNP Paribas Développement, le groupe Matmut, Cathay Innovation et la Caisse d’Epargne !

Pour accompagner notre croissance 🚀🚀, nous recherchons de nouvelles personnes passionnées et talentueuses... pourquoi pas vous ? 😉

🦄🦄Avantages
11 jours de RTT par an.
Des bureaux calmes et très lumineux au coeur de Paris et à Rouen !
Une ambiance ultra conviviale.
Fruits frais, des bonbons, boissons chaudes et bières (à partir de 17h) à volonté.
Cours de Yoga et HIIT
Comité d'Entreprise

Descriptif du poste

Nous recherchons un(e) data engineer (2 ans d'expérience minimum) pour rejoindre notre équipe service.

Vos missions seront :

  • travailler sur des projets bigdata en collaboration avec les autres membres de l'équipe.
  • acquérir, extraire, transformer, gérer et manipuler de larges quantités de données avec notre DataFabric.
  • accompagner, conseiller nos clients et partenaires.
  • préparer et donner des formations sur les technologies Big Data.
  • accompagner la force commerciale et vulgariser les technologies de Saagie auprès de nos clients.
  • participer au cadrage des projets et à l’élaboration de propositions d’accompagnement.

Vous rejoindrez une équipe pluridisciplinaire composée de développeurs expérimentés, de data scientists et de data engineers.
Le télétravail est possible mais pas à plein temps.

Profil recherché

  • Une expérience sur un/des projets Big Data d'envergure (clusters conséquents, architecture temps réél critique...)
  • Bonnes connaissances de Hadoop et son écosystème (Spark, Hive, Impala, Parquet, ORC, Sentry ...)
  • Bonnes connaissances en base de données (MySQL, SQL Server, Oracle, MongoDB par exemple) et en SQL
  • Langages : Scala et/ou Python
  • Une expérience sur de la récupération/traitement de données en temps réel (Kafka, Spark Streaming, Flink ...) serait un plus
  • La connaissance d'un outil d'orchestration (Mesos, Kubernetes) serait également appréciée
  • Intéressé(e) par le Machine Learning (car collaboration avec des data scientists)
  • Curieux(se)
  • Autonome
  • Avec le sens du service (accompagnement, support, formation client)
  • A l'aise en anglais (à l'écrit et à l'oral).

Process de recrutement

Vous rencontrerez dans un premier temps un manager de notre pôle Service.
Vous aurez un entretien technique sur les différentes technologies Big Data.
Vous terminerez par rencontrer un membre de notre équipe de Direction.
Une immersion au sein de l'équipe pourra également vous être proposée (1/2 à 1 journée).

Informations complémentaires

  • Type de contrat : CDI
  • Lieu : Paris, France (75009)
  • Niveau d'études : Bac +5 / Master
  • Expérience : > 2 ans
  • Salaire : entre 40000€ et 50000€ / an