- Concevoir un processus de collecte de données en évaluant et choisissant des outils adaptés pour faciliter l'accessibilité, la sécurité et l'intégrité des données centralisées dans le respect de la réglementation en vigueur (RGPD).
- Créer un système automatisé de collecte de données en intégrant des solutions ETL (comme Fivetran ou Stitch) et/ou en développant des scripts informatiques en Python ou SQL pour une agrégation rapide et exacte des données correspondant aux besoins métier.
- Développer des stratégies de nettoyage de données, en analysant le contexte spécifique des données pour assurer un traitement approprié et sécurisé des données qui réponde aux besoins métier de l’entreprise.
- Extraire des données en développant des scripts personnalisés (par exemple en Python ou SQL) pour récupérer des informations précises et pertinentes depuis une ou plusieurs bases de données.
- Mener des analyses exploratoires en calculant des techniques statistiques descriptives (comme la moyenne ou l’analyse des fréquences) pour comprendre la distribution des données et écarter les valeurs anormales.
- Identifier et interpréter des tendances en utilisant des langages de programmation (par exemple Python) et/ou des outils métiers adaptés (par exemple un tableur) pour comprendre finement le contexte et la nature des données analysées.
- Sélectionner l’algorithme d’apprentissage le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente à la problématique métier rencontrée.
- Préparer et transformer des données en utilisant des techniques de prétraitement (preprocessing) pour les adapter aux spécificités du modèle d'apprentissage automatique choisi.
- Entraîner un modèle d'apprentissage automatique en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
- Identifier les évolutions clés en IA et Big Data en analysant des sources d'information spécialisées pour rester à la pointe des dernières innovations et alimenter les stratégies de projet.
- Élaborer et évaluer la problématique métier en utilisant des approches analytiques, pour créer un cahier des charges qui reflète précisément les besoins et les objectifs du projet data.
- Évaluer les risques inhérents au projet IA et Big Data concernant l’impact éthique, le respect du RGPD ou encore la conformité aux normes environnementales, en proposant des méthodes d’audit pour garantir une conformité globale du projet.
- Planifier et coordonner les ressources humaines et matérielles de manière efficace, en structurant un calendrier des activités qui garantit le respect des délais et des budgets du projet data.
- Piloter une équipe multidisciplinaire en mettant en place des mécanismes d'évaluation et de feedback continus, assurant ainsi une progression fluide et coordonnée du projet data.
- Présenter les résultats de projets IA et Big Data en adaptant le contenu et la forme aux différentes parties prenantes, y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG pour garantir une compréhension claire et inclusive.
- Préparer des données non structurées en les convertissant en données numériques et sous forme tabulaires pour servir de données d'entraînement à un algorithme d’apprentissage profond.
- Sélectionner l’algorithme d’apprentissage profond le plus adapté en comparant les performances et les caractéristiques des différentes familles d’algorithmes afin d'apporter une réponse pertinente adaptée à la problématique métier rencontrée.
- Entraîner un modèle d'apprentissage profond en optimisant une loss function (fonction de coût) à partir des données d’entraînement afin de permettre à l’algorithme d’effectuer le moins d’erreurs possibles selon des indicateurs de succès clairement définis.
- Déployer efficacement un modèle d'apprentissage profond en utilisant des outils et plateformes de production adaptés (MLOps), pour assurer une accessibilité et une performance optimale des prédictions de l'algorithme aux utilisateurs finaux.
- Identifier les indicateurs clés à calculer en interrogeant les besoins métier afin de structurer les tableaux de bords nécessaires à des prises de décisions stratégiques.
- Choisir des visualisations pertinentes en prenant en considération la nature massive des données et le profil des usagers y compris les personnes en situation de handicap, en suivant les directives d'accessibilité du WCAG afin de faciliter la compréhension des informations obtenues grâce à l’IA et au Big Data.
- Créer des tableaux de bord en utilisant des outils de BI (comme PowerBI ou Looker Studio) afin de rendre accessibles et interactives les analyses prédictives aux autres membres de l'entreprise.
- Chargé/e d'études économiques
- Chargé/e d'études en marketing
- Statisticien/ne en analyse sensorielle
- Statisticien/ne en géomarketing
- Statisticien/ne industriel/le
- Économètre statisticien/ne
- Statisticien/ne
- Data scientist
- Data analyst
- Développeur/euse d'applications mobiles
- Ingénieur/e études et développement en logiciels de simulation
- Ingénieur/e logiciel
- Testeur/euse en informatique
- Développeur/euse informatique
- Cogniticien/ne
- Développeur/euse multimédia
- Scrum master