Description de l'entreprise
Notre client est une entreprise HealthTech innovante, orientée intelligence artificielle, qui a pour mission de rendre les soins de santé plus humains, efficaces et intelligents. Grâce à ses solutions basées sur l’IA (IA conversationnelle, documentation intelligente, plateformes SaaS sécurisées), elle permet aux cliniciens de se concentrer sur le soin plutôt que sur l’administratif.
Description du poste
Concevoir et optimiser un avatar MetaHuman haute fidélité sur iPad Pro, intégrant une synchronisation en temps réel avec la voix et les émotions, afin de soutenir un prototype d'IA conversationnelle utilisé dans les présentations d’innovation clinique et d'accompagnement aux aînés.
Durée : 7 semaines (fin janvier → fin mars)
Engagement : Contrat court terme, 40 h/semaine
Vous serez responsable de l’intégralité de la partie Unreal Engine, au sein d’un build iOS conteneurisé interfacé avec un shell Swift et une couche bridge déjà en place, mais qui vous sera confiée pour finalisation/ajustement des événements API.
Votre priorité sera le réalisme de l’avatar, la fidélité des animations et la performance d’exécution. Vous collaborerez étroitement avec le Lead Développement pour fixer les objectifs de performance (finesse visuelle, stabilité) et pour les atteindre via des tests reproductibles.
Qualifications
x
Configuration & optimisation MetaHuman pour iPad
Importation, optimisation et réglages du MetaHuman pour un rendu mobile performant (mode portrait, fond neutre).
Objectif de performance : FPS stable ≥ 30 (idéal 60), chargement < 2 sec sur iPad Pro.
Intégration audio–visèmes
Configuration du plugin Runtime MetaHuman Lip Sync ; connexion avec le Bridge Swift existant pour messages PCM_CHUNK et PHONEME ; synchronisation sample-accurate.
Objectif qualité : erreur RMS ≤ 40 ms, aucun artefact sonore.
Contrôle playback & interruption (barge-in)
Gestion de la file des énoncés, alignement temporel, états annulation/reprise (avec émission de certains événements via le bridge).
Objectif réactivité : interruption < 150 ms, pas de désynchronisation visuelle.
Couche perception & humeur
Connexion du PerceptionComponent fourni (basé sur ARKit) à l’AnimGraph (blending d’humeur, réactions idle).
Objectif qualité : transitions fluides, sans jitter ni snap, réactions naturelles et cohérentes.
Build & déploiement
Validation Unreal → Bridge Swift → packaging TestFlight (build IPA, provisioning, signature).
Livrable : build signé reproductible, validé pour empreinte mémoire et stabilité runtime.
Remise & documentation
Fourniture du projet source, des blueprints d’animation et des instructions pour reconstruire le module Unreal packagé.
READMEs incluant les événements API attendus depuis Swift (phonèmes, humeur, triggers playback).
Scripts de test couvrant FPS, synchronisation visème-phonème, throttling thermique et pics mémoire.
Livrables attendus
Dossier projet Unreal complet
Build .ipa packagé (installation interne)
Documentation détaillant les optimisations appliquées
Informations complémentaires
Vous intégrerez une petite équipe passionnée, axée sur l’innovation et l’impact humain, exploitant le 3D temps réel pour apporter chaleur et dignité à l’assistance numérique.
Notre ambition : explorer comment des avatars IA expressifs peuvent réduire l’isolement et soutenir les proches aidants dans les milieux cliniques et résidentiels.
Vous aurez de la liberté créative, des retours rapides, et la satisfaction de voir votre travail contribuer à un projet socialement utile.