CV AMAZON REDSHIFT : Nos meilleurs profils identifiés

Je dépose une mission gratuitement
Je dépose mon CV

Les derniers profils AMAZON REDSHIFT connectés

CV Expert Solutions Qilkview & Qliksense, Analyse De Données Et Data Visualisations
Rémi

Expert Solutions Qilkview & Qliksense, Analyse De Données Et Data Visualisations

  • SAINT-PAUL
QLIKVIEW Qlik Sense DATAMART DATAVIZ SQL Microsoft Power BI AMAZON REDSHIFT TABLEAU SOFTWARE GOOGLE ANALYTICS
Disponible
CV Data Engineer - Consultant BI
Mohamed Fouad

Data Engineer - Consultant BI

  • ACHÈRES
Cloud AWS PL SQL Qlik Sense BUSINESS OBJECTS AMAZON REDSHIFT SCRUM Data lake PYTHON PYSPARK
Disponible
CV Data Engineer
Anis

Data Engineer

  • PARIS
PYTHON APACHE SPARK Airflow DOCKER Google Cloud Platform BIGQUERY HASHICORP TERRAFORM AMAZON AWS CI/CD ANSIBLE
Disponible
CV Lead Data science
Yassine

Lead Data science

  • FONTENAY-SOUS-BOIS
PYTHON R SQL APACHE KAFKA CI/CD DOCKER GIT Cloud AWS Google Cloud Platform JAVA
Disponible
CV Architecte Cloud/Data AWS
Hicham

Architecte Cloud/Data AWS

  • ISSY-LES-MOULINEAUX
Cloud AWS AMAZON AWS PYTHON Data science DATASTREAM SECURITE
Disponible
CV Architecte  Solution/Applicatif/SI  APIM/IAM/CLOUD
Ghislain

Architecte Solution/Applicatif/SI APIM/IAM/CLOUD

  • VERNEUIL-SUR-SEINE
JAVA Microservices PYTHON Cloud AWS Google Cloud Platform WSO2 IAM DEVOPS Cybersécurité Kubernetes
CV Développeur SQL SERVER INTEGRATION SERVICES
Hervé

Développeur SQL SERVER INTEGRATION SERVICES

  • nice
SQL SERVER INTEGRATION SERVICES SQL SERVER REPORTING SERVICES SQL SERVER MANAGEMENT STUDIO SQL SERVER ANALYSIS SERVICES
CV Data Engineer Senior
Arnaud

Data Engineer Senior

  • LEVALLOIS-PERRET
SQL AMAZON REDSHIFT AMAZON AWS PYTHON APACHE SPARK
CV Expert TALEND DI ESB CLOUD
Kirushant

Expert TALEND DI ESB CLOUD

  • AULNAY-SOUS-BOIS
TALEND TALEND DI REST WINDOWS ENTERPRISE ARCHITECT API RESTful LINUX AGILE UNIX BIG DATA
CV Ingénieur Big Data
Chen

Ingénieur Big Data

  • SARTROUVILLE
APACHE SPARK Cloud AWS DATAWAREHOUSE BIG DATA APACHE HADOOP APACHE HIVE AMAZON REDSHIFT APACHE KAFKA Kubernetes PYTHON
Je trouve un CV AMAZON REDSHIFT
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences de Khaled,
freelance AMAZON REDSHIFT résidant dans le Val-d'Oise (95)

  • Rôle : Ingénieur data

    Samsung [Converteo]Projet : Projet GCP
    Jan 2022 - aujourd'hui

    Domaine : Data et Marketing
    Durée : 1 an
    Objectifs : Migration d’un projet standalone vers une architecture plus structurée contenant une
    organisation ,des dossiers (dev, prod) et des projets.
    Réalisations :
    ✓ Création de la nouvelle architecture GCP via terraform : organisation, folders (dev and prod) ,
    shared VPC, composer , cloud build triggers(CI/CD), projetcs , buckets and groups of users.
    ✓ Migration d'une architecture standalone sans organisation vers cette nouvelle architecture en
    appliquant le principe du datamesh ( organisation -> folders -> data products)
    ✓ La mise en place d’un nouveau SFTP et la création de l’ensemble des utilisateurs dans compute
    engine et la synchronisation des dossiers avec cloud storage ( GCFUSE)
    ✓ Migrations des tables bigquery et les différents traitements ( airflow 1 vers airflow 2 et composer
    1 vers composer 2)
    ✓ Migrations des fichiers de GCS vers GCS avec une nouvelle restructuration
    ✓ Le versioning du code dans source repository and la mise en pace de la CI/CD entre la dev et la
    prod avec cloud build.
    ✓ Création des groupes d’utilisateurs et centralisation des accès via terraform et IAM
    ✓ Mise en place des cloud fucntions pour déclencher les traitements dans composer à la réception
    Senior ingénieur data
    Page 3 sur 7
    des fichiers dans cloud storage
    ✓ Monitoring et optimisation des coûts dans bigquery
    ✓ Interaction avec des api samsung et automatisation du code via des Cloud Run.
    ✓ Mise en place d’un load de fichiers CSV vers Firestore avec une cloud function.
    ✓ Migration et automatisation de certaines requêtes dans bigquery via Dataform
    ✓ Automatisation des scripts de machine learning avec data proc.
    ✓ Maintenance et suivi du run quotidien

    Env. technique : Bigquery, Dataform, Cloud Storage, IAM ,Python, Composer, Cloud Function , Cloud
  • Run, Cloud Build, Dataproc , Shared VPC, Compute engine ,Terraform.Rôle : Ingénieur data

    Carrefour[Converteo]
    Jan 2021 - Jan 2022

    Domaine : Media et Marketing
    Durée : 1 an
    Objectifs : Création d’un Dashboard E-commerce international analysant les données Google Analytics
    et média
    Réalisations : -
    ✓ Monté en compétence sur l’architecture GCP
    ✓ programmation de plusieurs data transferts pour les pays ayant des données hors Europe
    (Brésil, Taiwan, etc.)
    ✓ Intégration des données google Analytics dans GCP et réalisation de plusieurs scheduled
    queries (Bigquery)
    ✓ Intégration des données d’application Appannie (pour comparer le nombre de téléchargements
    ,les notations des différentes applications carrefour de différents pays : France , Belgique, Brésil,
    etc.
    ✓ Intégration des fichiers média de différents pays et harmonisation des traitements via cloud
    function

    Env. technique : Bigquery, cloud Storage, IAM ,python, Cloud Function, Terraform
  • Rôle : Ingénieur dataSenior ingénieur data

    Franfinance[Peritis]
    Jan 2020 - Jan 2021

    Page 4 sur 7
    Domaine : Marketing
    Durée : 11 mois
    Objectifs : Alimentation et traitement des données marketing dans AWS
    Réalisation :
    ✓ Montée en compétence sur l’architecture AWS
    ✓ Montée en compétence sur les différents services AWS( IAM, EC2, Lambda, Glue, etc).
    ✓ Mise en place de l’architecture AWS
    ✓ Création des crawlers, Jobs et workflows via l’interface AWS
    ✓ Déclenchement et exécution des différents jobs via lambda et analyse des logs via cloudwatch
    ✓ Automatisation de création des jobs,crawlers et workflows avec boto3 (AWS Glue)

    Env. technique : Amazon redshift, Aws S3, Cloud Watch ,yaml, AWS Glue, PySpark, GitLab
  • Rôle : Développeur BI

    Franfinance[Peritis]
    Jan 2018 - Jan 2020

    Projet : Alimentations des données bancaires (crédit à la consommation)
    Rôle : Développeur BI
    Domaine : Bancaire
    Durée : 2 ans
    Objectifs : Travailler principalement sur la partie ETL et répondre aux différentes demandes fréquentes
    des utilisateurs
    Réalisation : -
    ✓ Répondre aux demandes quotidiennes des utilisateurs (directeurs commerciaux, responsables
    des pôles contentieux ,recouvrement, etc.) exprimées généralement par email ou par téléphone.
    ✓ Interprétation des besoins fonctionnels en besoin technique
    ✓ Assurer le suivi de production une semaine par mois à tour de rôle (on est 4 personnes donc 1
    personne par semaines)
    ✓ Automatisation des demandes fréquentes des utilisateurs de manière quotidienne , mensuelle et
    semestrielle à travers des procédures stockés (Oracle) exécutées et automatisées via des scripts
    shell.
    ✓ Alimentation et transformation des données ( ETL) à travers des procédures stockés écrites en
    Pl/sql et exécutions de ces dernières via des scripts shell.
    ✓ Être le responsable de plusieurs MEP et assurer leur bon déroulement en prod (parfois 2 mep
    voir 3 dans le même mois) à tour de rôle.
    ✓ Accompagnement du métier et la MOA dans la compréhension de l'architecture bancaire parfois
    un peu complexe
    ✓ Rédaction de la documentation technique et formation des nouveaux arrivants
    Senior ingénieur data
    Page 5 sur 7
    ✓ Analyse et correction des reportings Microstrategy en cas de problème au niveau alimentation.

    Env. technique : Oracle, SQL, PL/SQL, Shell, SVN, Microstrategy
  • Projet : Stage de fin d’étude

    VISITDATA
    Jan 2018 - Jan 2018

    Rôle: Développement de A-Z de toute la chaîne décisionnelle
    Domaine : Tourisme
    Durée : 6 mois
    Objectifs : Traitement des donnés touristiques des clients et réalisation des reportings permettant une
    meilleure prise de décision
    Réalisation :
    ✓ Modélisation et alimentation du data Warehouse ( AWS Redshift)
    ✓ Extraction et transformation des données touristiques de France avec python (pandas) et gestion
    des workflows via Airflow .
    ✓ Automatisation d’exécution des scripts d’extractions des données avec des script shell
    ✓ Création de vues métiers
    ✓ Accompagnement des métiers dans l’expression du besoin
    ✓ Réalisation des rapports décisionnels avec Power Bi.
    ✓ Rédaction de la documentation technique et fonctionnelle
    ✓ Représentation des reportings au métiers

    Env. technique : Python(pandas), Power BI, Amazon Redshift, Amazon S3, Shell, SQL, Github
  • Rôle: Data scientist (Machine Learning)

    UniversitéProjet : Projet universitaire
    Jan 2017 - Jan 2018

    Domaine : Transport
    Durée : 4 mois
    Objectifs : Génération des modèles statistiques et prédiction des données
    Réalisation :
    ✓ Récupération des données open source (Transport aérien)
    ✓ Mise en place de plusieurs algorithmes de machine Learning (K-means, arbres de décisions,
    régression logistique, SVM et réseaux neurone)
    ✓ Génération et choix du meilleur modèle statistique
    ✓ Application du meilleur modèle et prédiction des valeurs des 2 prochaines années
    ✓ Interprétation des résultats
    ✓ Réalisation d’un rapport fonctionnel et technique expliquant les démarches suivies

    Env. technique : R, Python
  • Rôle: Développeur java

    Capgemini
    Jan 2017 - Jan 2017

    Domaine : Développement d'application
    Durée : 4 mois
    Objectifs : Développement d’une application Multi-Tracker pour visualiser, en temps réel, les documents
    interceptés sur des brokers webMethods.
    Réalisation :
    ✓ Analyse, recueille du besoin et Analyse du code existant
    ✓ Développement de l’application en java
    ✓ Réalisation des tests unitaires (Junit).

  • Rôle: Développeur web

    OrangeProjet : Stage Licence 3
    Jan 2016 - Jan 2016

    Domaine : Développement d'application
    Durée : 6 mois
    Objectifs : Créations de deux applications internes
    Réalisation :
    ✓ Monté en compétence sur le Framework OFTG2 (Zend 2 et Symfony 2)
    ✓ Analyse du cahier de charge et réalisation de spécifications techniques
    ✓ Développement d’une application qui gère l’indemnité de congés payés et la prime différentielle
    de congés payés des salariés d’Orange SA.
    ✓ Amélioration et maintenance d’une application de badgeage des entrées et sorties des salariés
    d’Orange soumis aux horaires variables.

    Env. technique : PHP5, CSS3, Bootstrap, JQuery, svn.
  • Senior ingénieur data

    aujourd'hui

    Page 6 sur 7
    ✓ réalisation des tests d’intégration avec jenkins
    ✓ Réalisation de spécifications techniques et fonctionnelles
    ✓ Optimisation de la qualité du code avec Sonar

    Env. technique : Java, WebMethods, Junit, Sonar, Jenkins, Github
Voir le profil complet de ce freelance