Job Requisition ID #
The translation into English can be found below!/La traduction en anglais se trouve ci-dessous! Description Du Poste
Responsabilités
- Améliorer la productivité de l'équipe en créant les meilleures pratiques futures pour l'analyse commerciale
- Définir, concevoir et mettre en œuvre les technologies et services AWS/BI
- Soutenir les programmes stratégiques et les exigences commerciales permanentes par le biais de l'analyse des données
- Créer des rapports analytiques et développer des couches BI avec les conclusions qui en découlent
Qualifications Minimales
- Plus de 3 ans d'expérience professionnelle connexe, dont au moins deux ans d'expérience en modélisation de données, y compris la conception de schémas optimisés pour l'extraction de données
- Maîtrise du langage SQL et de la modélisation des données pour l'analyse et l'extraction
- 3 ans d'expérience dans des outils de visualisation de données comme Tableau, Looker, AWS Quicksight
- Compétences en programmation en Python ou Java
- Expérience de la construction de pipelines de données et du travail avec des systèmes de données à grande échelle
- Expérience pratique avec AWS (par exemple, Lambda, Step Functions, SQS, IAM)
- Familiarité avec l'infrastructure en tant que code (par exemple, Terraform, CloudFormation, CDK)
Qualifications Souhaitées
- BS ou MS en informatique ou dans un domaine technique connexe
- Expérience avec des outils d'orchestration de données (par exemple, Airflow, Temporal)
- Connaissance des technologies big data telles que Spark, Hive ou Presto
- Expérience dans le développement de GraphQL, d'API RESTful et dans le travail avec des microservices
- Compréhension de l'architecture cloud sécurisée et des pratiques CI/CD
- Expérience dans le développement de pipelines d'ingestion et de traitement de données, de systèmes de surveillance et d'autoréparation
- Expérience des solutions AWS d'infrastructure en tant que code, telles que CDK ou Cloud Formation
- Expérience de travail avec des lacs de données ou des entrepôts de données, des ETL
- Expérience de la modélisation des données, y compris la conception de schémas optimisés pour la récupération des données
- Programmation avec SQL, Python, Spark, PySpark, Spark SQL, Java, Jinja, dbt et les langages et technologies connexes
- Expérience avec des outils de gestion de flux de travail, comme Airflow et Temporal
- Expérience de la conception et de la mise en œuvre d'API GraphQL et RESTful en Python
- Solides compétences techniques et intérêt pour l'apprentissage des meilleures technologies autour de l'entreposage de données, du traitement des données, de la qualité des données, de la gouvernance des données et de l'éthique des données
Position Overview Senior Data Analyst
Responsibilities
- Improve team productivity through creating future state best practices for business analytics
- Define, design, and implement AWS/BI technologies and services
- Support strategic programs and ongoing business requirements through data analytics
- Create analytical reports and develop BI layer with resulting conclusions
Minimum Qualifications
- 3 years of related professional experience, with at least two years of experience with data modelling, including the design of schemas optimized for data retrieval
- Proficient in SQL and data modeling for analytics and retrieval
- 3 years experience in data visualization tools like Tableau, Looker, AWS Quicksight
- Programming skills in Python or Java
- Experience building data pipelines and working with large-scale data systems
- Hands-on experience with AWS (e.g., Lambda, Step Functions, SQS, IAM)
- Familiarity with Infrastructure as Code (e.g., Terraform, CloudFormation, CDK)
Preferred Qualifications
- BS or MS in Computer Science or related technical field
- Experience with data orchestration tools (e.g., Airflow, Temporal)
- Knowledge of big data technologies like Spark, Hive, or Presto
- Experience developing GraphQL, RESTful APIs and working with microservices
- Understanding of secure cloud architecture and CI/CD practices
- Experience developing data ingestion and processing pipelines, monitoring and self-healing systems
- Experience with AWS infrastructure as code solutions, such as CDK or Cloud Formation
- Experience working with Data Lake or Warehouses, ETLs
- Experience with data modeling, including the design of schemas optimized for data retrieval
- Programming with SQL, Python, Spark, PySpark, Spark SQL, Java, Jinja, dbt and related languages and technologies
- Experience with workflow management tools, like Airflow and Temporal
- Experience designing and implementing GraphQL, RESTful APIs in Python
- Strong technical skills and interest in learning best of class technologies around data warehousing, data wrangling, data quality, data governance and data ethics
Learn More / Plus d'information About Autodesk / À Propos D'Autodesk
Salary transparency / Transparence salariale
Diversity \& Belonging / Diversité et appurtenance
Are you an existing contractor or consultant with Autodesk? Êtes-vous un sous-traitant ou un consultant existant d'Autodesk ?