NabilKhamassi

Nabil Khamassi

Data Engineer

Peut se déplacer à Asnières-sur-Seine, Paris

  • 48.9127788
  • 2.2872308999999404
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Nabil.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Nabil.

Localisation et déplacement

Localisation
92600 Asnières-sur-Seine, France
Peut travailler dans vos locaux à
  • Asnières-sur-Seine et 50km autour
  • Paris et 20km autour

Vérifications

Langues

Compétences (8)

Nabil en quelques mots

- Double diplôme ingénieur ENSIMAG avec 9 ans d'expérience en programmation fonctionnelle et orientée objet, en architecture micro-services, en développement Web et en ingénierie Data

- Spécialisation en Big Data (Spark, Kafka, bases de données NoSQL, Cloud et plateformes ELK, Confluent, Cloudera, Delta Lake et DataStax)

- Participation dans la mise en place d'architectures distribuées à forte contraintes techniques (sécurisation, acquisition, traitement, mise à disposition, exposition, monitoring et visualisation des données entreprise en temps réel et en batch) et à grands enjeux métier (bancaire, trafic web, énergie, transport)

Expériences

OUI.sncf

Voyage & tourisme

Ingénieur Data / DevOps

Paris, France

avril 2019 - Aujourd'hui

OUI.sncf est le distributeur des billets de train de la SNCF et une agence de voyages en ligne. Le site web associé est le premier site de tourisme en ligne et premier site marchand en France.

- Suivi en temps réel des statistiques de vente pour la direction marketing et les Business Unit Train (TGV, TER, Intercités, OUIGO)
o Mise en place d’une API pour les producteurs de données pour l’envoi des données dans le cluster Kafka sécurisé
o Transformation et indexation des données selon des règles métiers précises (Scala, Kafka Streams, Elasticsearch, Logstash)
o Mise en œuvre des visualisations dans un tableau de bord Kibana (CA, Panier moyen, comparatif Année – 1, top origine-destination, répartition du CA par transporteur…)
o Mise en place d’une chaîne de monitoring applicatif et visualisation des métriques dans un tableau de bord (JMX Exporter, Prometheus, InfluxDB, Grafana)
o Historisation des données au format brut pour des besoins d’investigation (CNIL, Police) et pour la reprise de données

- Traitement des données de campagne marketing
o Extraction via des appels API et historisation des données de campagnes marketing issues du partenaire Eulerian (Java, Retrofit)
o Nettoyage, transformation et mise à disposition des données pour les équipes de performance marketing et les Data Scientists (Scala, Spark SQL)
o Mise à disposition d’un notebook Zeppelin pour l’exploration des données
o Ordonnancement des jobs via Airflow

- Mise en place du Data Lake on-prem pour répondre à des besoins métiers
o Participation aux ateliers de collecte des différents besoins des Business Unit, Data Scientists, Data Miners et Gouvernance
o Etude, conception et choix d’architecture du Data Lake avec prise en compte des contraintes d’archivage, de sécurisation et de gouvernance des données
o Développement des jobs d’archivage des données en temps réel et des jobs batch de reprise de données (Scala, Spark)
o Développement des jobs de transformation et de mise à disposition des données en temps réel (Scala, Kafka Streams, Spark, Delta Lake)
o Mise en place de la chaîne de déploiement continue et de l’ordonnancement des jobs (Ansible, GitLab CI/CD, Airflow)

- Développement d’une application de traitement des métadonnées des documents SAP BO pour les ingénieurs BI (Java, Retrofit, Hibernate, Oracle DB, SAP Raylight REST API)

- Participation aux ateliers de réflexion et hands-on avec AWS dans le cadre de la future migration vers le Cloud du SI

- Partage des bonnes pratiques Agile et DevOps au sein de l’équipe

Environnement technique : Agile Scrum, Java, Scala, Spark, Confluent, Kafka, Kafka Streams, Kafka Connect, Elasticsearch, Logstash, Kibana, Zeppelin, Delta Lake, Ansible, Cloudera, Airflow, GitLab, Jira, IntelliJ, Maven, Artifactory, Prometheus, InfluxDB, Grafana, AWS

STET

Banque & assurances

Ingénieur Data

Paris, France

avril 2018 - avril 2019

Créée par six banques françaises, STET assure la compensation des moyens de paiement de détail (virements, prélèvements, image chèques, opérations par carte) entre l'ensemble des banques installées en France. Le système CORE (COmpensation REtail) représente le système de paiement de détail le plus important en Europe, par les volumes et les valeurs échangés avec plus de 20 milliards d'opérations par an.

- Mise en œuvre des rapports de statistiques sur les transactions au niveau national et au niveau belge avec différents critères (volume et montant des transactions, temps de réponse, facturation…) pour l’EPC (European Payments Council), pour les banques françaises et belges et pour les régulateurs français (Banque de France) et belge
o Traitement, extraction et chargement des données utiles en temps réel dans des vues NoSQL (Scala, Kafka Streams, Kafka Connect, Cassandra)
o Génération et notification de mise à disposition des différents rapports de statistiques pour chaque banque (Scala, Spark SQL)

- Participation dans le développement des fonctionnalités métiers pour les virements interbancaires Instant Payment (virements bancaires européens en temps réel pour des montants inférieur à 15000 euros) et les prélèvements SDD (SEPA Direct Debit)
o Participation dans le développement du workflow de traitement des transactions Instant Payment
o Refactoring du code et documentation des solutions techniques et des bonnes pratiques
o Mise en place d’un mécanisme d’alerte d’indisponibilité des banques en temps réel
o Développement d’une application Kafka Streams de traitement en temps réel de données partenaires
o Développement d’un job Spark de génération de rapports journaliers et notification de mise à disposition aux banques

Environnement technique : Scala, Spark, Kafka Streams, Kafka Connect, Cassandra, DataStax Enterprise, Confluent, IntelliJ, Git, GitHub, Jenkins, AWS

EDF - EDF

Energie

Ingénieur Data

Paris, France

octobre 2017 - mars 2018

EDF est le premier producteur et fournisseur d’électricité en France et en Europe avec plus de 30 millions clients dans le monde.

Maintenance évolutive et corrective de la chaîne d’acquisition et de traitement en batch et en streaming des données clients et de facturations EDF issues du CRM Salesforce afin d’exposer la vision 360 du client aux utilisateurs.

- Développement des jobs Spark d’export des données depuis HBase vers Elasticsearch et la base graphe Oracle OrientDB
- Ordonnancement des différents jobs via Oozie
- Mise en place d’un socle technique pour tester les workflows Oozie sur le cluster avec authentification Kerberos
- Optimisation des temps d’exécution des jobs Spark existants
- Mise en place des tests automatisés Cucumber
- Validation des Merge Request et support technique aux développeurs

Environnement technique : Agile Scrum, Java, Scala, Hortonworks, Sqoop, Hive, Spark, Kafka, HBase, Oozie, Elasticsearch, GitLab, Jenkins, Jira

LE FIGARO - Le Figaro

Divertissements & loisirs

Ingénieur Data / Full-Stack

Paris, France

février 2016 - octobre 2017

Recommandations externes

Formations

Certifications

charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte