Freelance BIGQUERY : Les nouveaux profils dispos

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences de Gnankoye,
freelance BIGQUERY résidant dans la Seine-Saint-Denis (93)

  • Fonction : Data Analyst Senior

    SOCIÉTÉ – GROUPE Renault
    Jan 2022 - Jan 2023

    Contexte : Travaille sur les voitures connectées pour faire des supports( Incidents , demande
    d’accès , Analyse de graphe( suite monitoring d’alerte d’incidents sur Grafana), faire la campagne
    des véhicules , ).
    Les tâches :
    - Analyser les incidents (K1, K2, K3) sur Snow et grafana
    - Gestion de la prod et des incidents
    - Faire des supports Postmortems des incidents K1 et K2
    - Traiter les demandes d’accès au portail sur la plateforme Vnext et Harman(Redbend)
    - Campaign sur des véhicules
    - Renouvellement de certificat Awazu.
    - Analyse des graphes sur grafana rédiger les postmortems
    - Monitoring pour les suivis des incidents
    - Etude Talend connectivités avec les bases de données sql et No-Sql
    - Azure Synapse , Synapse Analytique (réaliser les Activités)

    Environnement Technique: Azure devops, Plateformes Azure Vnext , Excel , Snow , Azure portal ,Talend, Grafana , Confluence , Jira , Azure Synapse ,MSBI(SSAS, SSRS) , VBA , GCP(BigQuery ).
  • Data Architecte /Technico-Fonctionnelle :

    SOCIÉTÉ – Orange
    Jan 2021 - Jan 2022

    Contexte : Dans le cadre de la modernisation d’architecture C2SO Data Warehouse, les entités
    Diamond, Marine,…
    La conception d’une base de données objet( S3) où ETL Talend va déposer les données brutes ,
    on utilise ESB Amazon Web service , Dataiku pour générer les rapports , et d’autres ETl de
    visualisation (tableau , Power BI ) , et la Mise en place d’un Data Management (MDM)
    Mission :
    ❑ Cadrage du projet avec les les métiers et chef du projet( spécifications techniques et
    ❑ fonctionnelles )
    ❑ Plannings, des budgets, des ressources avec les métiers
    ❑ Modernisation des différentes entités avec Togaf , powerDesigner
    ❑ Conception de la base de stockage objet S3
    ❑ Extraction des données dans les différentes sources
    Marine, Diamond ….. (Données CRM)
    ❑ Conception de la base de données PostgreSQL
    ❑ Conception de Data Warehouse pour le modèle
    ❑ Crée du Dashboard dans Power BI pour générer des rapports format web avec
    ❑ pilotage, reporting, automatisation des tests, déploiements, gestion de la
    ❑ Prod et des incidents .
    Power Bi service et d’autre format.
    ❑ Dataiku Dss (conception de recette, analyse des diagrammes de Dashboard),
    Tableau connexion indirecte (copié les données depuis les sources de
    Données) pour la visualisation des données
    ❑ Créer le Dashboard sur power BI pour chiffrer les factures des clients, mensuel,
    Annuel
    ❑ Générer des rapports avec au format web avec power Bi service

    Environnement Technique : Talend , Dataiku (Dss , Actions ,Sailpoint (Sécurité d’identité cloud), filtres ,générer des rapports , création de recette) PowerDesigner , Tableau , PowerBI , Pack office , GCP (BigQuery) , Amazon webservice(S3), Clickhouse,
  • Data Engineer Développeur

    SOCIÉTÉ – Carrefour
    Jan 2020 - Jan 2021

    Contexte :
    Projet : Migration et Automatiser le flux de données sur Google Cloud( GCP). Migration
    des données de Datalake pour le cloud (Gcp) avec des outils NIFI, PostgreSQL, Requête
    SQL, Requête avancée pour supprimer les sauts de page des flux des données dans le
    cloud.
    Mission
    ❑ Audit de l'existant
    ❑ Rédaction des spécifications fonctionnelles détaillées
    ❑ Définition du Mapping de données
    ❑ Préparation des données (nettoyage, restructuration, mise en forme .....etc.)
    ❑ Optimisation des processus métier
    ❑ Extraction des données avec NIFI à partir data hub et chargement dans
    GoogleCloud (GCP)
    Apache Nifi ( Automatiser les flux d’information entre les systèmes)
    Préparer les PutFile et GenerateFlowFile avec les FlowFile
    ❑ Modélisation (Etoile, flocon, les processus métier )
    ❑ Conception des datamarts
    ❑ Chargement des fichiers pats (parquet, Avro ,JSON ,Csv, Xml )
    ❑ Transformation des données et chargement des tables finales
    ❑ Analyse des logs d'erreurs de la migration
    ❑ Traitement des rejets
    ❑ Requête SQL Avancée (suppression des sauts de page)
    ❑ Test unitaire
    ❑ Faire le Reporting avec le Power BI Desktop
    ❑ Format des document web avec Power BI Desktop
    ❑ Rédaction manuelle d’utilisation pour les métiers

    Environnement technique : Apache NIFI, Base de données PostgreSQL, Power BI (langage Dax), Excel, CSV, GCP (BigQuery, DataFlow,Data Storoage ,Data Studio, Google Analytique),SQL, Tableau (Connexion Direct et indirect , tableau prep , tableau publique , tableau desktop).
  • SOCIÉTÉ – LCL
    Jan 2019 - Jan 2020

    Contexte :
    Projet : Migration des données de Datalake vers la nouvelle plateforme google Platform(GCP) Big
    Data (Cloud Google platefrm ).
    Mission
    ❑ Cadrage du projet sur les spécifications Techniques
    ❑ Étude de l'existant
    ❑ Modélisation des processus métiers ( BPNM)
    ❑ Rédaction des dossiers techniques (mapping des données)
    ❑ Installation des technique (de pipeline )
    ❑ Création de session spark (python , Spark)
    ❑ Platform cloud data Databricks
    ❑ Dataflows ( kafka , Spark )
    ❑ Extraction, traitement et exposition des données de l'Open Data
    ❑ Production de KPI à destination des commerciaux
    ❑ Scraping des bases de données SIRENE, OpenStreetMap, Banque de France &
    INSEE
    ❑ Présentation des résultats dans des tables Hive server Rédaction du manuel
    utilisateur
    ❑ Maintenance corrective et évolutive

    Environnement technique : GCP (BigQuery, Data Storage, DataFlow), Hadoop, HortonWorks, Cloudera (Hue), Python (Geopandas ),Scala, Spark, Hive, Oozie, Cloud Azure (Datalab , data Box , Azure Migrate, Azcopy, ExpressRoute ) , synapse Analytic , Databricks , Snowflake, Tableau , Dataflows
  • Product Owner Technique /Fonctionnel

    SOCIÉTÉ – Crédits Foncier
    Jan 2018 - Jan 2019

    Contexte :
    Projet : Refonte du Système Décisionnel de la Banque et d'accompagner les métiers dans
    l'analysedes cas d'usages .
    Mission
    ❑ Modélisation du Data Warehouse (Entrepôt des données) Finance
    ❑ Modélisation de l'architecture fonctionnelle & logicielle du Data Lake
    ❑ Analyse Business
    ❑ Modélisation de la base de données Finance de marché & Compliance
    ❑ Organisation & coordination des meetings
    ❑ Rédaction des User stories, maintenir le Backlog
    ❑ Cadrage du projet
    ❑ Mettre des plans pour lutter contre les risques (Fraudes)
    ❑ Automatisation des flux de données (CI /CD)
    ❑ Script SQL
    ❑ Génération des rapports
    ❑ Développement des flux d'intégration des données via SSIS
    ❑ Reporting, création des tableaux de bords via Power BI & Tableau
    ❑ Assistant du Product Owner
    ❑ Gestion des bases de données, index, schémas sur SSMS

    Environnement technique : Power BI (Desktop et Service avec langage DAX) , SQL server, MSBI(SSAS, SSIS, SSRS), Toad, , TFS, SourceTree, SQL, TSQL, Hortonwork, HDFS, BigQuery, Google Data Studio, Power BI (rapports ), Tableau , Cloud Azure Data Bricks
  • Data Engineer / CRM

    SOCIÉTÉ – SFR Telecom
    Jan 2016 - Jan 2018

    Contexte :
    Projet : Réalisation technique d'une plateforme de gestion des données relatives aux
    besoins marketing.
    Mission
    ❑ Extraction des données dans Teradata
    ❑ Transformation des données
    ❑ Création de Datamart
    ❑ Export des flux d'informations
    ❑ Industrialisation et automatisation du flux d'extraction des données
    ❑ Master Data Management Travaux réalisés - Production des ETL pour des ciblages
    fcommerciaux
    ❑ Connexion simultanée à Hadoop et Teradata via SPPS ou Talend
    ❑ Traitement des données non structurées via Hive, Impala
    ❑ Gestion des fichiers dans HDFS
    ❑ Croisement des données via Spss ou Talend
    ❑ C...

  • Product Owner Technique / Tech

    SOCIÉTÉ – Orange
    aujourd'hui

    LeadContexte :
    Projet :Migration Teradata à GCP, Kenobi (Accort team) , c'est de migrer les données (télécom,
    banque) de la base de données Teradata vers Google cloud plateforme (GCP) et mettre en
    place un outil pour le retour desdonnées dans teradata pour permettre aux métiers de gérer
    les clients.
    Missions
    ❑ Cadrage du projet et choix technologies
    ❑ Réunion avec les métiers pour la spécification fonctionnelle et technique
    ❑ Crée le Projet dans l'espace de travail BigQuery (Cloud Storage)
    ❑ Création du projet Dev et Prod Sur bigQuery (cloud Storage )
    ❑ Crée DataSet et tables pour stockage des nouvelles données
    ❑ Mise en place du Pipeline de DataFlow (ApacheBeam pour exécuter les Jobs)
    ❑ Extraction des données dans teradata (DDL)
    ❑ Convertir les données de teradata en Script_BigQuery
    ❑ Préparer les dags (Airflow) dag extraction et dag Load :,
    ❑ Préparer le fichier Json (pour les tables)
    ❑ Création des dags d'Extraction avec les tables ddl de teradata
    ❑ Copier les tables dans FireStore avec leurs paramètres
    ❑ Lancer le code python du dags d'extraction des données de teradata
    ❑ Lancer dags load des données dans cloud Storage
    ❑ Vérification des logs en cas d'erreur de migration des données
    ❑ Transfer des données fichiers Json vers gcp
    ❑ Régler les problèmes de formation
    ❑ Mise en place du Pipeline de Jenkins
    ❑ Rédiger des rapports avec Dax (Power Bi) et Data Studio

    Environnement technique : GCP( DataFlow , DataStudio, BigQuery , Cloud Storage, Firestore , Cloud Sql) , Putty, Python( Dataframe, Airflow),Fizilla ,Putty, Airflow ,SQL , base de données Teradata, CSV, Excel , Power BI (Desktop et Service avec langage DAX) , Json , Docker( création d’image) , confluence ,JIRA, cloud Storage Devops , Jenkins(CI /CD) .
Voir le profil complet de ce freelance

Les derniers freelances BIGQUERY

CV Senior Data Engineer (3x AWS certified, 1x GCP certified)
Ahmed

Senior Data Engineer (3x AWS certified, 1x GCP certified)

  • VILLIERS-SUR-MARNE
PYSPARK SQL Cloud AWS HASHICORP TERRAFORM PYTHON Airflow APACHE HADOOP MONGODB DOCKER Google Cloud Platform
Disponible
CV Data Engineer
Alex

Data Engineer

  • MARSEILLE
PYTHON SQL JAVASCRIPT JAVA APACHE SPARK BIGQUERY MONGODB Databricks Google Cloud Platform Microsoft Power BI
Disponible
CV Consultant Data
Axel

Consultant Data

  • AULNAY-SOUS-BOIS
Google Cloud Platform SQL PYTHON Microsoft Power BI Power BI TERADATA BIGQUERY Databricks Dataiku HASHICORP TERRAFORM
Disponible
CV Directeur des systèmes d'information de transition Google Cloud Platform
Filipe

Directeur des systèmes d'information de transition Google Cloud Platform

  • PARIS
Google Cloud Platform Gestion multi-projets RGPD DATA DATAVIZ BIG DATA SQL PROJECT MANAGEMENT OFFICE AGILE Cloud AWS
Disponible
CV Data Engineer DBT
Abdelkarim

Data Engineer DBT

  • CHEVILLY-LARUE
BIGQUERY Google Cloud Platform SQL PYTHON Looker MARKETING AUTOMATION
Disponible
CV Platform Engineer
Guillaume

Platform Engineer

  • CARRIÈRES-SUR-SEINE
Google Cloud Platform GITLAB Kubernetes DOCKER GO PYTHON BASH LINUX
Bientôt disponible
CV Data Analyst
Ilyass

Data Analyst

  • LYON
Looker DATAVIZ MYSQL Power BI PYTHON SQL QUERY MATLAB
Disponible
CV Data Scientist Google Cloud Platform
Loïc

Data Scientist Google Cloud Platform

  • PARIS
SQL PYTHON Google Cloud Platform Cloud AWS DATA Dataiku BIGQUERY AZURE DEVOPS Rust
Disponible
CV Data Analyst SQL
Lamia

Data Analyst SQL

  • MONTROUGE
SQL MYSQL BIGQUERY Tableau
Disponible
CV Data Engineer | Data Analyst
Marouane

Data Engineer | Data Analyst

  • LYON
PYTHON PYSPARK SQL Microsoft Power BI BIGQUERY TALEND AZURE Google Cloud Platform Databricks AMAZON AWS
Disponible
Je trouve mon freelance BIGQUERY

Les nouvelles missions BIGQUERY

SyOps GCP

Google Cloud Platform ITIL
15/03/2025
75 - Paris
3 mois
Voir la mission

Chef de projet Technique Data

ADOBE CAMPAIGN DATA Airflow JIRA Google Cloud Platform
01/04/2025
75015
3 mois
Voir la mission

Expert FinOps – Implémentation GCP

Google Cloud Platform BIGQUERY Looker D365 FinOps
01/04/2025
31 - Toulouse
3 mois
Voir la mission

Développeur fullstack

ASAP
59 - Lille
3 mois
Voir la mission

Tech Lead Data Engineering

SQL DATA DEVOPS
17/03/2025
92 - ISSY-LES-MOULINEAUX
6 mois
Voir la mission

Chef(fe) de projet / Senior Business Analyst – cas d'usage data client et produits

SQL DATA DECISIONNEL Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Chef(fe) de projet ou Senior Business Analyst Data - collecte et intégration de données

SQL DATA DECISIONNEL Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Chef de projet Data

CONFLUENCE Microsoft Power BI Google Cloud Platform BIGQUERY
ASAP
75 - PARIS
12 mois
Voir la mission

Profil Hybride : Tech lead Power BI (75% de l'activité) / System architect (25% de l'activité)

Microsoft Power BI Google Cloud Platform BIGQUERY
ASAP
75 - PARIS
6 mois
Voir la mission

Business Analyst Data / chef de projet BI Retail

SQL BI BIG DATA Google Cloud Platform
ASAP
94
10 mois
Voir la mission
Je trouve ma mission BIGQUERY

Les freelances maîtrisant BIGQUERY ont postulé à :

Ingénieur Data AIRFLOW / POWER BI

PYTHON Power BI Airflow GIT SQL
ASAP
76 - Rouen
6 mois
Voir la mission

Data Engineer AWS

PYTHON AMAZON AWS BIG DATA
ASAP
75 - PARIS
3 mois
Voir la mission

DATAVIZ

DATA DATAVIZ Microsoft Power BI Dataiku Tableau
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineering

SQL PYTHON POWERSHELL MONGODB POSTGRESQL
ASAP
75 - PARIS
12 mois
Voir la mission

Tech lead Python

PYTHON
ASAP
93 - SAINT-DENIS
36 mois
Voir la mission

Machine Learning/ Testeur

PYTHON AZURE API RESTful
ASAP
75 - PARIS
12 mois
Voir la mission

DATA Steward multi-projets COLLIBRA/POWER BI

DATA Microsoft Power BI
ASAP
76 - LE HAVRE
6 mois
Voir la mission

ML Ops (IA cloud)

DEVOPS Cloud AWS Google Cloud Platform
ASAP
75 - PARIS
12 mois
Voir la mission

Data Scientist

SQL PYTHON Google Cloud Platform
ASAP
91 - MASSY
3 mois
Voir la mission

Tech Lead DATA F/H

DATA AGILE AMAZON WEB SERVICES
ASAP
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission BIGQUERY