Missions BIGQUERY : Découvrez les dernières offres mises en ligne

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions BIGQUERY à pourvoir

Ingénieur Infrastructure et Data

BIG DATA Google Cloud Platform ANSIBLE Data lake BIGQUERY
05/05/2025
75015
6 mois
Voir la mission

Data Scientist

ASAP
78 - Guyancourt
3 mois
Voir la mission
Je trouve ma mission BIGQUERY

Les intervenants BIGQUERY ont aussi candidaté à :

Data Engineer

SQL Databricks Power BI
21/04/2025
75 - PARIS
6 mois
Voir la mission

Développeurs Python (+ Anatella)

PYTHON
ASAP
luxembourg
3 mois
Voir la mission
Je trouve ma mission BIGQUERY
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Aperçu des emplois d'Ahmed Khalil,
freelance BIGQUERY résidant dans les Hauts-de-Seine (92)

Data Analyst / Data Engineer, 07/2023 - Actuel
Carrefour Banque - Paris
Analyse des Données et Visualisation
Consolidation des données :
Centralisation des données issues de diverses sources dans BigQuery.
Création de tableaux de bord interactifs sur Looker Studio :
Suivi des performances des collaborateurs.
Analyse des stocks liés à l'octroi et suivi en temps réel de l'évolution des dossiers d'octroi depuis le Web.
Visualisation et suivi des performances des campagnes Web via les UTM :
- Centralisation des données en temps réel dans BigQuery.
- Conception d'une vue permettant de visualiser les étapes clés d'une demande via les UTM.
- Comparaison des performances des différentes campagnes.
Suivi des dossiers à chaque étape du processus de recouvrement.
Évaluation des performances individuelles des équipes.
Le suivi des logs d'ingestion et d'implémentation des tables dans bigQuery.
Data Engineering
Gestion des ingestions journalières des données :
Automatisation des processus d'intégration et d'envoi des données entre Google Drive et BigQuery (et
inversement).
Mise en place de logs détaillés pour assurer un suivi précis étape par étape via un socle d'ingestion.
Logging des DAGs et suivi des ingestion quotidienne.
Conception et déploiement de DAGs pour la consolidation et l'automatisation de l'ingestion des données
depuis Google Cloud Storage.
Déploiement de workflows robustes pour la gestion des données.
Transition des DAGs d'Airflow 1 vers Airflow 2 (Google Composer).
Stream Ingestion des données en temps réel dans BigQuery.
PROFIL PROFESSIONNEL
COMPÉTENCES
PARCOURS PROFESSIONNEL
Environment Technique : GCP, Cloud Composer, Google Analytics, Cloud Storage, Looker Studio,
Python, Airflow, BigQuery, Cloud Functions, GitLab, Pub/Sub,
Data scientist , 02/2022 - 06/2023
Better & Stronger
Mise en place de plan de taggage des sites: Google Tag Manager.
Visualisation et analyse des données : Google Analytics : GAU, GA4 et Looker Studio.
Automatisation de création des dashboards:
* Collect des données via les API (Python): Facebook, Instagram, Google Ads, Twitter, Amazon, Pinterest ..
* Structuration et centralisation des données dans Google Bigquery: CRM + Plateform.
* Manipulation et nettoyage des données: Python ou Google Bigquery.
* Automatisation des dashboards : Looker studio
Implementation des solutions Google: Enhanced Conversions, Consent Mode
Implementation des bandeaux de cookies et adaptation des trigger GTM.
Création des segments de clients selon les besoins, (Google Bigquery).
Automatisation de ciblage.
Création d'une infrastructure data automatisé: Bigquery, Google Cloud Platform
Environnement technique : Google Analytics (V3, V4) · Google Cloud Platform (GCP) · Google
BigQuery · Google Looker Studio · Google Tag Manager · Ads plateformes · Python (langage de
programmation), Hubspot, sage, Salesforce.
Data scientist, 06/2021 - 09/2021
ENEDIS
Détection d'anomalies sur la consommation électrique des points de livraison
Prédiction des courbes de charges
Analyse préalable et nettoyage des données
Etude des séries temporelles de consommation
Évaluation des fonctionnalités, de la forme et de la facilité d'utilisation de logiciels.
Travaux de recherche sur de nouveaux modèles non supervisés applicables
Débogage de code et recherche des principales causes des problèmes grâce à la consultation des fichiers et
journaux de configuration.
Environnement technique : Python, Gitlab, MangoDB, TensorFlow/Keras, Docker
Data scientist, 03/2020 - 08/2020
Quantylix
Backtesting des modèles internes de notation
Création d'une application shiny
Automatisation du processus de backtesting
Production de reporting de suivi des modèles de notation
Modélisation de la probabilité de défaut
Vérification de la qualité de données (Data Quality Check)
Évaluation des fonctionnalités, de la forme et de la facilité d'utilisation de logiciels.
Environnement technique : R, Excel, Rshiny
Data Analyst, 04/2019 - 10/2019
Université de technologie de Troyes-France Troyes
Valuation de la performance des lignes de productions
Modélisation de la productivité des lignes de production en séries
Compréhension et anticipation des tendances dans le domaine d'expertise
Conception et lancement d'une solution innovante d'intelligence artificielle pour estimer la performance
Simulation de scénarios de productions en séries
Benchmarking entre les modèles
Environnement technique : R, Lingo

Voir le profil complet de ce freelance