Data AI Engineer (TensorFlow / Data Engineer) (IT) / Freelance
Société : bdevit Lieu : Ille-et-Vilaine (Bretagne)
Descriptif du poste
Société : bdevit Catégorie : Stage Filiere : IT/Etudes, développement et intégration Lieu : Ille-et-Vilaine (Bretagne)
Mission
Lieu : Rennes (3jours sur site, 2jours de TT)Contexte :Dans le cadre du développement de ses initiatives en Intelligence Artificielle et en Data Engineering, une entreprise de renom recherche un Data & AI Engineer spécialisé en TensorFlow et en ingénierie des données. Vous rejoindrez une équipe innovante pour concevoir, développer et optimiser des pipelines de données et des modèles d?IA à grande échelle.Missions Principales :Concevoir et déployer des pipelines de données robustes pour l?entraînement et l?inférence des modèles d?IA ;Développer et optimiser des modèles de Machine Learning / Deep Learning en exploitant TensorFlow et d?autres frameworks IA ;Assurer l?intégration et l?industrialisation des modèles au sein d?un environnement cloud (Azure, AWS, GCP) ;Implémenter des stratégies MLOps pour l?automatisation du déploiement et du suivi des modèles en production ;Gérer la préparation, le traitement et la transformation des données pour garantir des jeux de données propres et exploitables ;Optimiser les performances des pipelines de données et des modèles en exploitant des architectures distribuées et des accélérateurs matériels (GPU, TPU) ;Mettre en place des solutions de monitoring, logging et alerting pour garantir la fiabilité et la qualité des modèles en production ;Collaborer avec les équipes Data Science et Data Engineering pour assurer la scalabilité des solutions développées ;Assurer la documentation technique et le transfert de compétences auprès des équipes internes.Profil candidat:Compétences Requises :Expertise en TensorFlow et en entraînement de modèles IA sur des ensembles de données volumineux ;Maîtrise des pipelines de données avec Spark, Apache Beam, DataFlow, ou autres frameworks Big Data ;Solide expérience en MLOps et CI/CD pour l?industrialisation des modèles (Kubeflow, MLflow, Vertex AI, SageMaker, Bedrock) ;Bonne compréhension des architectures cloud (Azure ML, AWS Sagemaker, GCP Vertex AI) ;Connaissance des bases de données SQL et NoSQL (BigQuery, Snowflake, DynamoDB?) ;Expérience avec des outils d?Infrastructure as Code (Terraform, CloudFormation) ;Compétences en optimisation de modèles et accélération sur GPU/TPU ;Maîtrise des bonnes pratiques en sécurité et gouvernance des données ;Bonnes capacités d?analyse, de communication et de travail en équipe.CLIQUER ICI POUR POSTULER