Consultez nos dernières offres similaires
Contenu de l'offre Architecte Big Data / Freelance chez KLYMBER
Le Centre de Service Architecture de la Direction Technique accompagne cette transformation Data Driven en apportant le renfort indispensable à l'ensemble des parties prenantes : Directions Métier, Data Management & CDO, Directions IT, Exploitants, ... Plusieurs poste sont ouverts (Fonctionnel, Solution, Technique, ...) pour adresser une roadmap technique et usages ambitieuse sur des projets innovants et qui font appel aux technologies émergentes. Les missions (selon expertise) : Etre à l'écoute des besoins métiers, analyser les problématiques et mener les études (cadrage, opportunités, ...) afin d'identifier les orientations. Traduire les besoins qualifiés en solutions, contribuer à la conception générale et autour des technologies Data et accompagner les IT a s'appropriation ces solutions.
Présenter les problématiques et les solutions en Comité de Validation Technique. Coordonner les différentes cellules techniques (Sécurité, Tech Lead, Dev Ops, Recette, Exploitant, ...) pour une mise en oeuvre cohérente et conforme au cadre d'architecture et de sécurité. Mener des audits, remonter les défauts par priorité et impacts, proposer des plans d'action de remédiation. Contribuer à la complétude et la qualité de la documentation technique projet (Dossiers Etude, Architecture, Exploitation, ...).
Participer et animer des séminaires techniques internes et/ou externes, dispenser des formations vers les équipes internes. Participer aux études transverses (Groupe, Branches, Filiales) au titre de la synergie et de la mutualisation des expertises et des solutions. Proposer et intervenir sur des propositions d'innovations (IA, ML, ...). Profil Souhaité : Expérience significative et réussie sur un/des projets Big Data d'envergure : Volumétrie, Sensibilité des données, Batch et temps réel, ...
Excellente culture des technologies des écosystèmes Big Data : Stockage, Orchestration, Flow, ... Maîtrise des langages et technologies du Big Data et du traitement des données : Hadoop/HDFS, Kafka, Spark, Scala, Python, ... Connaissance des outils d'exploration , d'analyse et de visualisation des données : DSS, Tableau, ... Maitrise d'un ou plusieurs moteurs de cloud, virtualisation et orchestration : Cloud Public/Privé, VMWare, Mesos, Kubernetes/Openshift, ...
Ouvert et à l'aise dans les interactions avec les data scientistes, pour expliquer les problématiques et intégrer les algorithmes dans les solutions.