NOVIPRO, votre partenaire de recrutement et de consultation TI, accompagne actuellement une organisation publique dans la région métropolitaine de Montréal, pour le recrutement d’un développeur spécialisé en données massives (Big Data).
Modalités et éléments primordiaux
Type d’emploi : Contrat de consultation
Durée : Jusqu’à avril 2026, avec possibilité de renouvellement
Heures par semaine : 37,5 heures
Lieu : Modèle hybride, 6 jours/mois en présentiel à Montréal (dont 2 journées au Vieux-Port toutes les 8 semaines pour le PI Planning dans le cadre SAFe)
Langue de travail : Français
CV requis en français
Responsabilités
Le développeur prendra part à l’optimisation des processus de traitement des données dans le cadre de projets structurants pour la plateforme de données de l’organisation. Il devra :
Concevoir, développer et intégrer des solutions logicielles adaptées aux besoins métiers, sur la base d’un cahier des charges fourni par les parties prenantes.
Réaliser le codage à l’aide de langages adaptés au contexte Big Data, notamment PySpark.
Effectuer des tests unitaires rigoureux pour assurer la qualité du code produit.
Collaborer étroitement avec les analystes en assurance qualité afin de valider la robustesse du code via des tests de régression.
Maintenir le code existant : correctifs, mises à jour, optimisation de performance.
Participer aux revues de code entre pairs (peer reviews).
Contribuer à l'amélioration continue des pipelines CI/CD et au respect des normes de développement.
Expertise recherchée
Minimum de 6 à 10 années d’expérience pertinente en développement logiciel.
Diplôme d’études collégiales ou baccalauréat en informatique, génie logiciel ou domaine connexe.
Maîtrise des bonnes pratiques de programmation (clean code, modularité, etc.).
Expérience avec les systèmes de gestion de version, notamment Git.
Connaissance approfondie des environnements de développement collaboratifs : revues de code, intégration continue, tests automatisés.
Familiarité avec les méthodologies Agile et les cadres à l’échelle tels que SAFe.
Compétences techniques essentielles :
PySpark
Git
Docker
SQL
Cloud computing : expérience avec au moins une plateforme (idéalement GCP ou Azure)
Atouts
Capacité à produire ou comprendre des livrables d’architecture (diagrammes fonctionnels et technologiques, documentation de solutions).
Expérience avec des outils de modélisation de données et pratiques associées.
Compréhension des principes de développement Big Data à grande échelle.
Connaissances en développement web (HTML, CSS, JavaScript ou TypeScript).
Maîtrise d’autres langages de programmation.
Familiarité avec des outils modernes comme Copilot ou GitHub Enterprise.