Freelance BIGQUERY : Les nouveaux indépendants dispos

Je dépose une mission gratuitement
Je dépose mon CV
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Exemple d'expériences de Gnankoye,
freelance BIGQUERY habitant la Seine-Saint-Denis (93)

  • Fonction : Data Analyst Senior

    SOCIÉTÉ – GROUPE Renault
    Jan 2022 - Jan 2023

    Contexte : Travaille sur les voitures connectées pour faire des supports( Incidents , demande
    d’accès , Analyse de graphe( suite monitoring d’alerte d’incidents sur Grafana), faire la campagne
    des véhicules , ).
    Les tâches :
    - Analyser les incidents (K1, K2, K3) sur Snow et grafana
    - Gestion de la prod et des incidents
    - Faire des supports Postmortems des incidents K1 et K2
    - Traiter les demandes d’accès au portail sur la plateforme Vnext et Harman(Redbend)
    - Campaign sur des véhicules
    - Renouvellement de certificat Awazu.
    - Analyse des graphes sur grafana rédiger les postmortems
    - Monitoring pour les suivis des incidents
    - Etude Talend connectivités avec les bases de données sql et No-Sql
    - Azure Synapse , Synapse Analytique (réaliser les Activités)

    Environnement Technique: Azure devops, Plateformes Azure Vnext , Excel , Snow , Azure portal ,Talend, Grafana , Confluence , Jira , Azure Synapse ,MSBI(SSAS, SSRS) , VBA , GCP(BigQuery ).
  • Data Architecte /Technico-Fonctionnelle :

    SOCIÉTÉ – Orange
    Jan 2021 - Jan 2022

    Contexte : Dans le cadre de la modernisation d’architecture C2SO Data Warehouse, les entités
    Diamond, Marine,…
    La conception d’une base de données objet( S3) où ETL Talend va déposer les données brutes ,
    on utilise ESB Amazon Web service , Dataiku pour générer les rapports , et d’autres ETl de
    visualisation (tableau , Power BI ) , et la Mise en place d’un Data Management (MDM)
    Mission :
    ❑ Cadrage du projet avec les les métiers et chef du projet( spécifications techniques et
    ❑ fonctionnelles )
    ❑ Plannings, des budgets, des ressources avec les métiers
    ❑ Modernisation des différentes entités avec Togaf , powerDesigner
    ❑ Conception de la base de stockage objet S3
    ❑ Extraction des données dans les différentes sources
    Marine, Diamond ….. (Données CRM)
    ❑ Conception de la base de données PostgreSQL
    ❑ Conception de Data Warehouse pour le modèle
    ❑ Crée du Dashboard dans Power BI pour générer des rapports format web avec
    ❑ pilotage, reporting, automatisation des tests, déploiements, gestion de la
    ❑ Prod et des incidents .
    Power Bi service et d’autre format.
    ❑ Dataiku Dss (conception de recette, analyse des diagrammes de Dashboard),
    Tableau connexion indirecte (copié les données depuis les sources de
    Données) pour la visualisation des données
    ❑ Créer le Dashboard sur power BI pour chiffrer les factures des clients, mensuel,
    Annuel
    ❑ Générer des rapports avec au format web avec power Bi service

    Environnement Technique : Talend , Dataiku (Dss , Actions ,Sailpoint (Sécurité d’identité cloud), filtres ,générer des rapports , création de recette) PowerDesigner , Tableau , PowerBI , Pack office , GCP (BigQuery) , Amazon webservice(S3), Clickhouse,
  • Data Engineer Développeur

    SOCIÉTÉ – Carrefour
    Jan 2020 - Jan 2021

    Contexte :
    Projet : Migration et Automatiser le flux de données sur Google Cloud( GCP). Migration
    des données de Datalake pour le cloud (Gcp) avec des outils NIFI, PostgreSQL, Requête
    SQL, Requête avancée pour supprimer les sauts de page des flux des données dans le
    cloud.
    Mission
    ❑ Audit de l'existant
    ❑ Rédaction des spécifications fonctionnelles détaillées
    ❑ Définition du Mapping de données
    ❑ Préparation des données (nettoyage, restructuration, mise en forme .....etc.)
    ❑ Optimisation des processus métier
    ❑ Extraction des données avec NIFI à partir data hub et chargement dans
    GoogleCloud (GCP)
    Apache Nifi ( Automatiser les flux d’information entre les systèmes)
    Préparer les PutFile et GenerateFlowFile avec les FlowFile
    ❑ Modélisation (Etoile, flocon, les processus métier )
    ❑ Conception des datamarts
    ❑ Chargement des fichiers pats (parquet, Avro ,JSON ,Csv, Xml )
    ❑ Transformation des données et chargement des tables finales
    ❑ Analyse des logs d'erreurs de la migration
    ❑ Traitement des rejets
    ❑ Requête SQL Avancée (suppression des sauts de page)
    ❑ Test unitaire
    ❑ Faire le Reporting avec le Power BI Desktop
    ❑ Format des document web avec Power BI Desktop
    ❑ Rédaction manuelle d’utilisation pour les métiers

    Environnement technique : Apache NIFI, Base de données PostgreSQL, Power BI (langage Dax), Excel, CSV, GCP (BigQuery, DataFlow,Data Storoage ,Data Studio, Google Analytique),SQL, Tableau (Connexion Direct et indirect , tableau prep , tableau publique , tableau desktop).
  • SOCIÉTÉ – LCL
    Jan 2019 - Jan 2020

    Contexte :
    Projet : Migration des données de Datalake vers la nouvelle plateforme google Platform(GCP) Big
    Data (Cloud Google platefrm ).
    Mission
    ❑ Cadrage du projet sur les spécifications Techniques
    ❑ Étude de l'existant
    ❑ Modélisation des processus métiers ( BPNM)
    ❑ Rédaction des dossiers techniques (mapping des données)
    ❑ Installation des technique (de pipeline )
    ❑ Création de session spark (python , Spark)
    ❑ Platform cloud data Databricks
    ❑ Dataflows ( kafka , Spark )
    ❑ Extraction, traitement et exposition des données de l'Open Data
    ❑ Production de KPI à destination des commerciaux
    ❑ Scraping des bases de données SIRENE, OpenStreetMap, Banque de France &
    INSEE
    ❑ Présentation des résultats dans des tables Hive server Rédaction du manuel
    utilisateur
    ❑ Maintenance corrective et évolutive

    Environnement technique : GCP (BigQuery, Data Storage, DataFlow), Hadoop, HortonWorks, Cloudera (Hue), Python (Geopandas ),Scala, Spark, Hive, Oozie, Cloud Azure (Datalab , data Box , Azure Migrate, Azcopy, ExpressRoute ) , synapse Analytic , Databricks , Snowflake, Tableau , Dataflows
  • Product Owner Technique /Fonctionnel

    SOCIÉTÉ – Crédits Foncier
    Jan 2018 - Jan 2019

    Contexte :
    Projet : Refonte du Système Décisionnel de la Banque et d'accompagner les métiers dans
    l'analysedes cas d'usages .
    Mission
    ❑ Modélisation du Data Warehouse (Entrepôt des données) Finance
    ❑ Modélisation de l'architecture fonctionnelle & logicielle du Data Lake
    ❑ Analyse Business
    ❑ Modélisation de la base de données Finance de marché & Compliance
    ❑ Organisation & coordination des meetings
    ❑ Rédaction des User stories, maintenir le Backlog
    ❑ Cadrage du projet
    ❑ Mettre des plans pour lutter contre les risques (Fraudes)
    ❑ Automatisation des flux de données (CI /CD)
    ❑ Script SQL
    ❑ Génération des rapports
    ❑ Développement des flux d'intégration des données via SSIS
    ❑ Reporting, création des tableaux de bords via Power BI & Tableau
    ❑ Assistant du Product Owner
    ❑ Gestion des bases de données, index, schémas sur SSMS

    Environnement technique : Power BI (Desktop et Service avec langage DAX) , SQL server, MSBI(SSAS, SSIS, SSRS), Toad, , TFS, SourceTree, SQL, TSQL, Hortonwork, HDFS, BigQuery, Google Data Studio, Power BI (rapports ), Tableau , Cloud Azure Data Bricks
  • Data Engineer / CRM

    SOCIÉTÉ – SFR Telecom
    Jan 2016 - Jan 2018

    Contexte :
    Projet : Réalisation technique d'une plateforme de gestion des données relatives aux
    besoins marketing.
    Mission
    ❑ Extraction des données dans Teradata
    ❑ Transformation des données
    ❑ Création de Datamart
    ❑ Export des flux d'informations
    ❑ Industrialisation et automatisation du flux d'extraction des données
    ❑ Master Data Management Travaux réalisés - Production des ETL pour des ciblages
    fcommerciaux
    ❑ Connexion simultanée à Hadoop et Teradata via SPPS ou Talend
    ❑ Traitement des données non structurées via Hive, Impala
    ❑ Gestion des fichiers dans HDFS
    ❑ Croisement des données via Spss ou Talend
    ❑ C...

  • Product Owner Technique / Tech

    SOCIÉTÉ – Orange
    aujourd'hui

    LeadContexte :
    Projet :Migration Teradata à GCP, Kenobi (Accort team) , c'est de migrer les données (télécom,
    banque) de la base de données Teradata vers Google cloud plateforme (GCP) et mettre en
    place un outil pour le retour desdonnées dans teradata pour permettre aux métiers de gérer
    les clients.
    Missions
    ❑ Cadrage du projet et choix technologies
    ❑ Réunion avec les métiers pour la spécification fonctionnelle et technique
    ❑ Crée le Projet dans l'espace de travail BigQuery (Cloud Storage)
    ❑ Création du projet Dev et Prod Sur bigQuery (cloud Storage )
    ❑ Crée DataSet et tables pour stockage des nouvelles données
    ❑ Mise en place du Pipeline de DataFlow (ApacheBeam pour exécuter les Jobs)
    ❑ Extraction des données dans teradata (DDL)
    ❑ Convertir les données de teradata en Script_BigQuery
    ❑ Préparer les dags (Airflow) dag extraction et dag Load :,
    ❑ Préparer le fichier Json (pour les tables)
    ❑ Création des dags d'Extraction avec les tables ddl de teradata
    ❑ Copier les tables dans FireStore avec leurs paramètres
    ❑ Lancer le code python du dags d'extraction des données de teradata
    ❑ Lancer dags load des données dans cloud Storage
    ❑ Vérification des logs en cas d'erreur de migration des données
    ❑ Transfer des données fichiers Json vers gcp
    ❑ Régler les problèmes de formation
    ❑ Mise en place du Pipeline de Jenkins
    ❑ Rédiger des rapports avec Dax (Power Bi) et Data Studio

    Environnement technique : GCP( DataFlow , DataStudio, BigQuery , Cloud Storage, Firestore , Cloud Sql) , Putty, Python( Dataframe, Airflow),Fizilla ,Putty, Airflow ,SQL , base de données Teradata, CSV, Excel , Power BI (Desktop et Service avec langage DAX) , Json , Docker( création d’image) , confluence ,JIRA, cloud Storage Devops , Jenkins(CI /CD) .
Voir le profil complet de ce freelance

Les derniers freelances BIGQUERY

CV Développeur web REACT.JS
Paul

Développeur web REACT.JS

  • PARIS
REACT.JS NODE.JS TypeScript DOCKER REST AMAZON AWS Vue.js NestJS SQL
Disponible
CV Développeur Cloud
Hamza

Développeur Cloud

  • LA GARENNE-COLOMBES
Cloud AWS PYTHON POSTGRES Google Cloud Platform ANSIBLE HASHICORP TERRAFORM GRAFANA Kubernetes
Disponible
CV Data Scientist Python Azure | GenAI
Adham

Data Scientist Python Azure | GenAI

  • SAVIGNY-SUR-ORGE
PYTHON SQL Data science Microsoft Power BI AZURE Google Cloud Platform Generative Pre-trained Transformer BIG DATA PYSPARK
Disponible
CV Développeur TALEND DI
Amine

Développeur TALEND DI

  • NANTES
TALEND DI SQL TABLEAU SOFTWARE BIGQUERY GOOGLE DATA STUDIO SALESFORCE
CV BI / Analytics Engineer
Ferhat

BI / Analytics Engineer

  • CHATOU
SQL Google Cloud Platform BI JIRA BIGQUERY EXCEL TALEND Microsoft Power BI
Disponible
CV Chef de projet AGILE
Salim

Chef de projet AGILE

  • PARIS
AGILE WINDOWS SQL
Disponible
CV Product Owner SAFE
Hamza

Product Owner SAFE

  • ALFORTVILLE
SAFE AGILE JIRA SCRUM CONFLUENCE PMO (PROJECT MANAGEMENT OFFICE) SQL
Disponible
CV Chef de projet SI Senior
Aboubacry

Chef de projet SI Senior

  • MÉZIÈRES-SUR-SEINE
ITIL SQL AGILE SYMFONY SCRUM REST PLAN BUILD RUN SAFE
Disponible
CV Data Engineer
Sara

Data Engineer

  • NANGIS
SQL DATA PYTHON Google Cloud Platform TALEND EXCEL Cloud AWS
Disponible
CV Chef de projet
Aicha

Chef de projet

  • RAMBOUILLET
AGILE LEAN MANAGEMENT PROJECT MANAGEMENT OFFICE
Disponible
Je trouve mon freelance BIGQUERY

Les nouvelles missions BIGQUERY

Chef(fe) de projet / Senior Business Analyst – cas d'usage data client et produits

SQL DATA DECISIONNEL Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Chef(fe) de projet ou Senior Business Analyst Data - collecte et intégration de données

SQL DATA DECISIONNEL Google Cloud Platform
ASAP
94 - IVRY-SUR-SEINE
6 mois
Voir la mission

Chef de projet Data

CONFLUENCE Microsoft Power BI Google Cloud Platform BIGQUERY
ASAP
75 - PARIS
12 mois
Voir la mission

Profil Hybride : Tech lead Power BI (75% de l'activité) / System architect (25% de l'activité)

Microsoft Power BI Google Cloud Platform BIGQUERY
ASAP
75 - PARIS
6 mois
Voir la mission

Business Analyst Data / chef de projet BI Retail

SQL BI BIG DATA Google Cloud Platform
ASAP
94
10 mois
Voir la mission

Data Analyst retail

SQL BI BIG DATA
ASAP
94
6 mois
Voir la mission

Lead Data Scientist

SQL PYTHON BIGQUERY
ASAP
Boulogne
12 mois
Voir la mission

Data Engineer sur GCP obligatoire

PYTHON APACHE HIVE SCALA APACHE SPARK Google Cloud Platform
ASAP
PARIS
12 mois
Voir la mission

Architecte Technique

Kubernetes HASHICORP TERRAFORM
ASAP
75
6 mois
Voir la mission

Data Engineer GCP

Google Cloud Platform
ASAP
69 - LYON
3 mois
Voir la mission
Je trouve ma mission BIGQUERY

Les freelances maîtrisant BIGQUERY ont postulé à :

Data Engineering

SQL PYTHON POWERSHELL MONGODB POSTGRESQL
ASAP
75 - PARIS
12 mois
Voir la mission

Machine Learning/ Testeur

PYTHON AZURE API RESTful
ASAP
75 - PARIS
12 mois
Voir la mission

Data Engineer Cloud AWS

PYTHON HASHICORP TERRAFORM Cloud AWS PYSPARK
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission

DATA Steward multi-projets COLLIBRA/POWER BI

DATA Microsoft Power BI
ASAP
76 - LE HAVRE
6 mois
Voir la mission

Data Scientist

SQL PYTHON Google Cloud Platform
ASAP
91 - MASSY
3 mois
Voir la mission

Tech Lead DATA F/H

DATA AGILE AMAZON WEB SERVICES
ASAP
75 - PARIS
12 mois
Voir la mission

Data Analyst H/F

MATLAB DATA PYTHON BIG DATA Procédés industriels
ASAP
01 - MONTLUEL
12 mois
Voir la mission

Tech Lead Talend

TALEND
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Tech Lead (AWS)

SQL PYTHON Cloud AWS PYSPARK
ASAP
75 - PARIS
12 mois
Voir la mission
Je trouve ma mission BIGQUERY