Les missions du poste


Rejoignez ALTEN, la Maison des ingénieurs...

Leader de l'Ingénierie et des Entreprise IT Services, ALTEN regroupe près de 57 000 collaborateurs, dont 88% d'ingénieurs. Présent dans plus de 30 pays, le Groupe accompagne la stratégie de développement de ses clients dans les domaines de l'innovation, de la R & D et des systèmes d'information technologiques.

Labellisé "Top employeur" 2024, ALTEN est un acteur majeur du recrutement d'ingénieurs en France.

L'activité du Groupe s'articule autour de deux métiers : l'Ingénierie (Conception Produit & Manufacturing) et l'IT Services (Systèmes d'informations & Réseaux).

Aéronautique - Automobile - Banque, Finance & Assurance - Défense & Sécurité - Energie & Environnement - Ferroviaire - Retail & Services - Sciences de la vie - Santé - Spatial - Télécoms.


Nous recherchons un(e) Data Engineer Java/Scala expérimenté(e) pour rejoindre une Data Platform innovante.

Localisation : Île-de-France (IDF)

Date de démarrage : 11/05/2026

Client : Secteur Retail / Grande Distribution

Équipe : 5 à 8 personnes

Contexte et Missions :

Au sein de la Data Platform, vous contribuerez à la conception et au développement de services digitaux centrés sur la donnée, en collaboration avec les équipes métiers et techniques.

Vos missions principales :

- Concevoir, développer et maintenir des solutions de traitement de données à grande échelle (BigQuery, BigTable, Apache Kafka, Apache Spark).
- Participer activement à la montée en compétence sur l'ETL BigL et à la réalisation de projets métier via la solution ELT in-House Big Loader et BDI/DBT.
- Garantir la qualité et la performance des solutions mises en place, en étroite collaboration avec les équipes de développement et de production.
- Accompagner techniquement les membres juniors de l'équipe.
- Contribuer aux choix d'architecture technique et livrer des composants robustes.

Le profil recherché


Profil recherché :

Nous recherchons un(e) Data Engineer diplômé(e) d'une école d'ingénieur (Bac +5) avec 3 à 7 ans d'expérience en Java et/ou Scala, maîtrisant la programmation fonctionnelle et le SQL avancé (notamment BigQuery pour le traitement de gros volumes de données).

Compétences techniques requises :

- Streaming et traitement distribué : Apache Kafka et Apache Spark.
- Cloud et orchestration : GCP (Google Cloud Platform), Pub/Sub, et DBT pour la gestion des pipelines.
- CI/CD et environnement : GitLab CI/CD, Docker Compose, Linux, et Git.

Méthodologies et soft skills :

- Expérience en Agile/Scrum et capacité à collaborer dans des équipes pluridisciplinaires.
- Autonomie, esprit d'équipe, et rigueur pour respecter les délais et les standards de qualité.
- Excellente communication en français (oral et écrit) pour interagir avec les équipes métiers.

Compétences requises

  • Java
  • Scala
Postuler sur le site du recruteur

Ces offres pourraient aussi vous correspondre.

L’emploi par métier dans le domaine Data et IA à Argenteuil