Rechercher un freelance
Malt welcom

Bienvenue sur le profil Malt de Slim !

Malt vous permet d'accéder aux meilleurs consultants freelances pour vos projets. Contactez Slim pour échanger sur votre besoin ou recherchez d'autres profils sur Malt.

Slim Tebourbi

Architecte GCP | Data

Peut se déplacer à

  • 0.0
  • 0.0
  • Tarif indicatif 1 000 €/ jour
  • Expérience 7 ans et +
  • Taux de réponse 100%
  • Temps de réponse 1h
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Slim.

Ce freelance a indiqué qu'il était disponible à temps plein mais n'a pas reconfirmé depuis plus de 7 jours.

Proposer un projet La mission ne démarrera que si vous acceptez le devis de Slim.

Localisation et déplacement

Localisation
Île-de-France, France
Peut travailler dans vos locaux à
  • et 50km autour

Préférences

Durée de mission
  • ≤ 1 semaine
  • ≤ 1 mois
  • entre 1 et 3 mois
Secteur d'activité
Préfèrerait éviter:
Banque & assurances
Taille d'entreprise
  • 11 - 49 personnes
  • 50 - 249 personnes
  • 250 - 999 personnes
  • 1000 - 4999 personnes
  • ≥ 5000 personnes

Vérifications

Charte du freelance Malt signée
Consulter la charte

E-mail vérifié

Influence

Langues

  • Français

    Bilingue ou natif

  • Anglais

    Capacité professionnelle complète

Catégories

Compétences (29)

Slim en quelques mots

Architecte Cloud (GCP) et Data expérimenté.
Création de plateforme Data/Cloud from scratch (infra, usine logicielle, CICD, gouvernance).
Recrutement, management et formation d’équipes de dev et devops.
Développement en différents langages (java, scala, python, go).
Audit technique et de sécurité.

Expériences

BPCE - BPCE

Banque & assurances

GCP Security Auditor  - En tant que freelance

Charenton-le-Pont, France

juin 2022 - août 2022 (1 mois)

Revu de sécurité de la Landing Zone GCP et propositions d’améliorations

SERVIER MONDE - Servier

Industrie pharmaceutique

Architecte Cloud  - En tant que freelance

Suresnes, France

novembre 2020 - juin 2022 (1 an et 7 mois)

Mise en place de la plateforme Data et son infrastructure basée sur GCP:
• Definition de l’architecture de la plateforme
• Mise en place des composantes transverses (VPC, CICD, GKE, Gouvernance,...)
• Mise a disposition des environnements des Business Units
• Sécurisation de la plateforme pour être habilité a contenir des données de santé.
• Assistance et aide a la montée en compétences des Features Teams des Business Units.

Renault Digital - Groupe Renault

Automobile

Architecte Cloud et Data  - En tant que freelance

Boulogne-Billancourt, France

juillet 2018 - novembre 2020 (2 ans et 3 mois)

Le projet Usage Based Maintenance a pour objectif de tirer profit des données d’usage (ou de conduite) issues du système embarqué des véhicules pour mieux gérer leurs maintenance.
Je suis intervenu dans la phase POC qui a précédé le projet pour valider l’approche ainsi que la pertinence des données.
Ensuite et pour l’industrialisation des processus j’ai défini l’architecture, mis en place l’infrastructure de collecte et traitement des données et participé a l’implémentation des pipelines de machine learning.

Groupe SeLoger - Groupe Aviv

Immobilier

Architecte Data  - En tant que freelance

Paris, France

mai 2017 - juillet 2018 (1 an et 2 mois)

Le projet consistait essentiellement à la création d'une plateforme Data:
- initialisation de l'infrastructure adéquate.
- sensibilisation a l'état d'esprit Data et aux bonnes pratiques associées en général (DevOps, CI,...)
- Implémentation des premieres Data Pipeline qui exploitent la donnée du site en y appliquant les algorithmes
de Data Science et les mettre a disposition (exposition) - Création d'un premier noyau de l'équipe Data.
Dans un premier temps, j’ai travaillé sur la mise en place d’un cluster HDP entièrement automatisée (install, gestion, evolution ) avec ansible via l’API d’ambari.
Ensuite, j’ai travaillé sur l’industrialisation des algorithmes développés par les Data Scientists aussi bien sur leur implémentation que sur la Data Pipeline dans la quelle ils s’intègrent: ingestion de données, nettoyage/ preparation des données, training, pré-calcul et enfin exposition des API.
La deuxième phase de ma mission fut de migrer le projet d’une infrastructure on premise vers le cloud Amazon Web Services.

GENERALI FRANCE - Groupe Generali

Banque & assurances

Expert Kafka  - En tant que freelance

Saint-Denis, France

février 2017 - mai 2017 (3 mois)

Mise place d’une plateforme offrant une vision 360 du client.

Carrefour - Carrefour

Grande distribution

Architecte Big Data: Kafka, Spark, Mesos, Ansible,...  - En tant que freelance

janvier 2015 - janvier 2017 (2 ans)

Phenix est une plate-forme distribuée d’ingestion, de préparation, d’analyse et d’exposition de données opérationnelles (ventes, stocks, logistique,..) en temps réel.
Je suis intervenu dés la phase de définition de la plateforme et défini en grande partie les choix architecturaux et technologiques aussi bien en terme de frameworks et backends, que de méthodes et outils de développement ou encore sur les aspects ‘ops’ (provisionning, deploiement, monitoring,...).
L’architecture que j’ai définie consistait en une plateforme avec deux composantes principale:
- une composante “on-line” qui était responsable premièrement de la collecte de données depuis les magasins et les backoffices de stock ainsi que les données de référentiels des bases centrales; ensuite une infrastructure de traitement de données en temps réel basée sur kafka, mesos et spark-streaming pour effectuer la normalisation, les agrégations et l’enregistrement des résultats soit dans Cassandra, soit dans Elasticsearch
ou parfois les deux. En fin une couche d’API en micro-services expose ces résultat aux applications clientes.
- une composante off-line, qui se rapproche d’un datalake classique contenant toutes les données ingérée dans les topic kafka, les référentiels et quelques datasets d’enrichissement et qui servait a faire des traitement en batch pour sortir des métriques et des agrégations avec une profondeur, une précision et richesse
plus importante que celles fournie par la composante online.
Outre les réalisations et les choix technique j’ai insisté et travaillé sur les bonnes pratique de développement (agilité, TDD, CI,...) et l’industrialisation de la solution (ansible, docker, rundeck) ainsi que les process de recrutement (exercices de code, entretien face a toute l’équipe,...) pour constitué une équipe de haut niveau.

Canal+ - GROUPE VIVENDI

Presse & médias

Developpement d'un moteur recommendation : Scala, Akka, Elasticsearch, LevelDB, Redis, Spray.io  - En tant que freelance

Issy-les-Moulineaux, France

juillet 2014 - janvier 2015 (6 mois)

Eureka est un moteur de recommendation pour les videos “live” et “à la demande”.
Je suis intervenu pour proposer et implementer une solution qui permet d’exploiter des algorithmes de recommandations développés par des équipes tierces (marketing et data-scientist).
La solution se base sur un cluster hadoop pour la préparation des données et le training des algorithmes; un cluster Elasticsearch et une base Redis comme backends et quelques micro-services (REST) qui exposent les résultats.

Viadeo

Réseaux sociaux

Architecture Team: Hadoop, ElasticSearch, Axon, Protocol buffer  - En tant que freelance

Paris, France

mai 2013 - décembre 2013 (7 mois)

Embix

Senior Developper: Hadoop, Mapreduce, Hbase, Cassandra, Netty, CQRS, EventSourcing  - En tant que freelance

LaCub

Proof Of Concept: Scala, Akka, Redis, Hbase, Lucene, ElasticSearch  - En tant que freelance

POWERSPACE

LEAD Hadoop Team: Hadoop, Mapreduce, Hbase, ...

Formations