À propos de nous
Fondé en 2016, Foodtastic est une des plus grandes compagnies de restaurants au Canada. Durant les cinq dernières années, les ventes totales de l’ensemble des restaurants sont passées de 50mm de $ à plus de 1 milliard de $. Notre portfolio de 27 chaînes de restaurants inclus Milestones, Second Cup, Pita Pit, Quesada, La Belle et La Bœuf et les Rôtisseries Benny.
Nous sommes dévoués à créer des relations extraordinaires avec nos franchisés et offrir à tous nos client une expérience culinaire mémorable. Notre croissance ne serait pas possible sans la créativité, le dévouement et l'esprit entrepreneurial de nos collaborateurs. Nous continuons à développer l'équipe et sommes toujours à la recherche de candidats exceptionnels pour joindre Foodtastic.
Ingénieur des données – Aperçu du poste
Sa principale responsabilité sera de contribuer à l’intégration et à la gestion des données provenant de divers systèmes, notamment les systèmes de point de vente (POS), les plateformes de médias sociaux et d’autres systèmes selon les besoins.
En assurant une intégration de données fiable, ce poste soutient la prise de décision, optimise l’efficacité opérationnelle et offre une vision globale de la performance des marques.
Gestion de la plateforme Databricks
Gérer et administrer l’espace de travail Databricks : clusters, jobs, notebooks, architecture Delta et configuration de l’environnement.
Concevoir des pipelines ETL/ELT fiables et performants à l’aide de PySpark et SQL pour traiter les données de points de vente (POS), transactionnelles et opérationnelles.
Appliquer les bonnes pratiques Delta Lake et Unity Catalog : évolution des schémas, partitionnement, transactions ACID et gestion des versions.
Surveiller et optimiser en continu la performance des clusters, les temps d’exécution des jobs et les coûts d’infrastructure à travers les marques et environnements.
Maintenir des processus cohérents d’orchestration, d’alerte et de reprise via Databricks Jobs, Azure Data Factory et les pipelines DevOps.
Ingestion et traitement des données
Automatiser l’ingestion quotidienne des ventes, transactions, stocks et données opérationnelles provenant des systèmes POS, des fournisseurs et des flux externes.
Garantir la complétude et l’intégrité des données grâce à des procédures de validation, de journalisation et de détection d’anomalies (ex. : magasins manquants, doublons).
Standardiser l’ingestion des données issues de formats structurés et semi-structurés (CSV, JSON, Parquet).
Collaborer avec les équipes DevOps et BI pour assurer la stabilité des déploiements, l’observabilité et la fiabilité bout en bout des environnements.
Sécurité, gouvernance et conformité
Appliquer une sécurité des données de niveau entreprise, incluant le chiffrement et le contrôle d’accès sur Azure et Databricks.
Mettre en œuvre le RBAC, la gouvernance Unity Catalog et la gestion des permissions conformément aux normes IT et de conformité.
Gérer de manière sécurisée les identifiants et secrets via Azure Key Vault et les identités managées.
Maintenir la traçabilité, la documentation des métadonnées et les pipelines versionnés pour tous les systèmes de production.
Utiliser l’infrastructure-as-code (Terraform/Bicep) et le CI/CD pour garantir des déploiements cohérents et auditables.
Qualité, observabilité et fiabilité des données
Mettre en place des cadres automatisés de validation et d’alerte pour détecter les anomalies (ex. : fichiers manquants, ventes négatives, valeurs aberrantes).
Définir et suivre des SLA/SLO relatifs à la livraison des données et à la disponibilité des pipelines.
Collaborer avec les équipes DevOps pour renforcer la journalisation, la surveillance et les stratégies de sauvegarde sur tous les environnements.
Promouvoir une culture de fiabilité, garantissant que chaque jeu de données utilisé pour le reporting ou la prise de décision soit fiable et traçable.
Intégration et valorisation BI
Fournir des jeux de données prêts pour l’analyse, optimisés pour Power BI et le reporting d’entreprise.
Assister les équipes BI dans la logique d’actualisation incrémentale, l’optimisation des performances DAX/SQL et la cohérence des métadonnées.
Valider les changements en amont afin de prévenir toute perturbation dans les rapports en aval.
Documenter les transformations, schémas et dépendances afin de garantir la transparence et la continuité des processus.
Structurer les données pour permettre une visibilité à l’échelle des marques et du groupe, favorisant une agrégation et une comparaison flexibles.
Expérience et compétences requises
Minimum 5 ans d’expérience en ingénierie des données ou en infrastructure de données cloud, idéalement dans le secteur du commerce de détail, de la restauration ou des opérations multi-sites.
Maîtrise avancée de Databricks, Python, SQL et des outils DevOps.
Capacité démontrée à concevoir et maintenir des pipelines de données alimentant des tableaux de bord opérationnels et des rapports financiers.
Expérience dans la mise en œuvre de cadres de qualité et d’observabilité des données.
Avantages offerts par l’entreprise :
Rémunération concurrentielle selon le marché
Café, boissons et collations offerts au bureau
Stationnement gratuit au bureau
Accès gratuit au gym (bureau de Montréal)
Vendredis d’été (horaires allégés)
Pause déjeuner d’une heure rémunérée
Accès à des soins de santé virtuels
Événements sociaux organisés par l’entreprise
Régime d’assurance collective incluant soins de santé, soins dentaires et invalidité de longue durée
About Us
Founded in 2016, Foodtastic is already one of the largest restaurant companies in Canada. We have increased system sales in the last four years from less than $50mm to over $750mm. Our current portfolio of 23 brands includes Milestones Grill & Bar, Second Cup Café, Pita Pit, La Belle et La Boeuf, and Rôtisseries Benny.
We are passionate about building our franchisee partnerships and providing our guests with a memorable dining experience. Our growth would not be possible without our people's creativity, dedication, and entrepreneurship. We continue to build the team and always look for exceptional candidates to join Foodtastic.
Data Engineer - Role overview
The primary responsibility is to assist with the integration and management of data from various systems including Point-of-Sale (POS) systems, social media platforms, and various other systems as required. By ensuring accurate and reliable data integration, this role enables data-driven decision-making, enhances operational efficiency, and fosters a comprehensive understanding of the business's performance across all brands.
DataBricks Platform Ownership
Own and administer the Databricks workspace — clusters, jobs, notebooks, Delta architecture, and workspace configuration.
Engineer reliable, high-performance ETL/ELT pipelines using PySpark and SQL to process POS, transactional, and operational data.
Apply Delta Lake and Unity Catalog best practices: schema evolution, partitioning, ACID transactions, and version control.
Continuously monitor and optimize cluster performance, job runtimes, and infrastructure cost across brands and environments.
Data Ingestion & Processing
Automate ingestion of daily sales, transactions, inventory, and operational data from POS systems, suppliers, and external feeds.
Guarantee data completeness and integrity through validation, audit logging, and anomaly detection (e.g., missed stores, duplicate days).
Standardize ingestion across structured and semi-structured formats (CSV, JSON, Parquet).
Security, Governance & Compliance
Enforce enterprise-grade data security, encryption, and access control across Azure and Databricks.
Implement RBAC, Unity Catalog governance, and workspace permissions aligned with IT and compliance standards. Manage credentials and secrets securely via Azure Key Vault and managed identities.
Maintain lineage, metadata documentation, and version-controlled pipelines for all production systems.
Apply infrastructure-as-code (Terraform/Bicep) and CI/CD for consistent and auditable deployments.
Data Quality, Observability & Reliability
Implement automated data validation frameworks and proactive alerting to catch anomalies (e.g., missing files, negative sales, outliers). Define and monitor SLAs/SLOs for data delivery and pipeline uptime.
Partner with DevOps to enhance logging, monitoring, and backup strategies across environments. Drive a reliability-first culture ensuring every dataset powering reporting or decision-making is trusted and traceable.
BI Integration & Enablement
Deliver curated, analytics-ready data sets optimized for Power BI and enterprise reporting. Support BI teams with incremental refresh logic, optimized DAX/SQL performance, and metadata consistency.
Validate upstream changes to prevent downstream reporting disruptions. Document transformations, schemas, and dependencies to maintain transparency and continuity.
Enable brand-level and corporate-level visibility by structuring data for flexible aggregation and comparison.
Required Experience and Skills
5+ years in data engineering or cloud data infrastructure, preferably within retail, restaurant, or multi-location operations.
Advanced proficiency in Databricks, Python, SQL, DevOps, Power BI.
Proven ability to build and maintain data pipelines powering operational dashboards and financial reporting.
Experience implementing data quality and observability frameworks.
Preferred Skills
Experience with POS, transactional, and location-level data ingestion, reconciliation, and exception handling.
Familiarity with Databricks Unity Catalog and workspace security models.
Experience with automated file/email ingestion and validation routines.
Knowledge of infrastructure-as-code, cost monitoring, and performance optimization.
Understanding of enterprise data governance, compliance, and auditability within hospitality or retail environments.
Company benefits:
Market related compensation
Complimentary coffee, drinks and snacks at the office
Free parking at the office
Free access to the gym (Montreal office)
Summer Fridays
1 hour lunch paid
Virtual health care
Company social events
Group insurance plan, including health, dental and long-term disability.