Coordonner la mise en place de l’architecture data, conçue par le data architect : infrastructures et logiciels.
Participer à la mise en œuvre des use cases analytiques
Intégrer de grands volumes de données, structurées et non structurées, à partir de diverses sources au sein d’un datalake
Industrialiser les algorithmes de récupération et de traitement des données et les modèles d’intelligence artificielle.
Effectuer une veille sur les nouvelles technologies et solutions matérielles/logicielles de transport, de traitement et de stockage des données.
Contribuer à l’évolution des pratiques dans son domaine de compétences, en étant actif dans des réseaux de veille
Activités principales
Identifier avec le data architecte les sources de données pertinentes pour les uses case data
Développer les chaines d’ingestion en tenant compte des aspects techniques et des exigences non fonctionnelles
Automatiser les processus d’ingestion de données
Mettre en œuvre les chaines de traitements de données batch et temps réels
Industrialiser et optimiser les modèles de ML développés par les data scientist
Cartographier les sources de données qui alimentent le datalake
Garantir la cohérence et la fiabilité des données du datalake
Faire le suivi capacitaire des environnements data et mettre en œuvre la politique de gourvernance des données
Traduire les règles de gestion business en KPIs analytiques
Mettre en œuvre des dispositifs d’alertes en cas d’indisponibilité des données
Garantir la cohérence dans la nomenclature des données business et techniques
Assurer l’interopérabilité du datalake avec l’écosystéme data de Sonatel
Réaliser une veille sur les sources d’informations type open-data.
Mettre en œuvre les politiques de sécurité en vigueur des données
Profil recherché :
Compétences requises
Savoir
Connaissance des distributions Hadoop du marché : Hortonworks et/ou Cloudera : niveau 3
Fortes aptitudes en développement / programmation avec une excellente maîtrise des langages de programmation suivant : Python, Scala, Java, Shell Unix. Niveau 3
Connaissance de l’environnement cloud : GCP / AWS, … : niveau 3
Connaissance des technologies de transports de données : Apache NiFi et Kafka niveau 3
Excellente maitrise de l’écosystème Hadoop : HDFS, Yarn, Oozie, Hive niveau 3
Excellente maitrise du framework Spark niveau 3
Maitrise des techniques de gestion de projet du cahier des charges à la recette utilisateur et son déploiement
Bonne compréhension des enjeux business impliquant le traitement des données.
Savoir faire
Avoir une capacité d’analyse et de synthèse
Avoir une capacité d’adaptation d’organisation et de gestion des priorités
Avoir une facilité d’adaptation aux nouveaux environnements, un sens de l’autonomie et de l’initiative
Savoir être
Avoir une capacité relationnelle et un esprit d’équipe
Intégrité et transparence
Exemplarité et engagement vis-à-vis de l’entreprise
S’approprier les principes d’actions de l’entreprise : au service du client, entre nous, entre managers, avec les collaborateurs pour la création de richesses et vis-à-vis de l’environnement