Missions Dataiku : Trouvez votre prochain emploi indépendant

Je dépose une mission gratuitement
Je dépose mon CV

Les dernières missions Dataiku à pourvoir

ingénieur réseaux Sécurité / BI

FIREWALL CHECKPOINT FORTINET PALO ALTO NETWORKS Microsoft Power BI
ASAP
93 - MONTREUIL
3 mois
Voir la mission

Ingénieur développeur Cloud full-stack Python / Angular

PYTHON Angular
ASAP
Montpellier
6 mois
Voir la mission

ARCHITECTE SAS, QLIK, dataiku,

SAS AZURE POWERSHELL
ASAP
Télétravail
6 mois
Voir la mission

DBA et Support DataIku

SQL PYTHON APACHE HADOOP DEVOPS Dataiku
ASAP
44 - NANTES
13 mois
Voir la mission

Architecte DATA

Microsoft Power BI BDD WINDOWS HPC SERVER Alteryx Data science
ASAP
75 - Paris
3 mois
Voir la mission

chef de projet SI Data

Microsoft Power BI Alteryx BDD NAS Data science
ASAP
75 - Paris
3 mois
Voir la mission

Data Architect

PYTHON TALEND Snowflake
ASAP
69 - LYON
6 mois
Voir la mission

Data Analyst

SAS Dataiku TABLEAU SOFTWARE
ASAP
35 - Rennes
24 mois
Voir la mission

Data Engineer

PYTHON TALEND Snowflake
ASAP
69 - LYON
6 mois
Voir la mission

Architecte DATA

DATA MONGODB APACHE ELASTICSEARCH
ASAP
75 - Paris
3 mois
Voir la mission
Je trouve ma mission Dataiku

Les intervenants Dataiku ont aussi candidaté à :

Business Analyst ( Business Object)

BUSINESS OBJECTS Cloud AWS
ASAP
94 - MAISONS-ALFORT
12 mois
Voir la mission

Data Analyst E-commerce

SQL DATA PYTHON
ASAP
94 - IVRY-SUR-SEINE
12 mois
Voir la mission

Data Analyst H/F

MATLAB DATA PYTHON BIG DATA Procédés industriels
ASAP
01 - MONTLUEL
12 mois
Voir la mission

Business Analyst DATA

SQL DATA PYTHON
ASAP
92 - BAGNEUX
6 mois
Voir la mission

Mission en indépendant

SQL EXCEL SAS DATA Microsoft Power BI
ASAP
75 - PARIS
6 mois
Voir la mission

Data Scientist - DEALING SUPPORT EXÉCUTION en Asset Management

SQL PYTHON PYSPARK
ASAP
75 - PARIS
180 jours ouvrés
Voir la mission

Ingénieur Data

JAVA SQL DATA SPRING AZURE
ASAP
92 - BOULOGNE-BILLANCOURT
11 mois
Voir la mission

Business Analyst Data / chef de projet BI Retail

SQL BI BIG DATA Google Cloud Platform
ASAP
94
10 mois
Voir la mission

Data Analyst

DATA
ASAP
75010-Paris
90 jours ouvrés
Voir la mission

Data Scientist

SQL PYTHON
ASAP
PARIS
6 mois
Voir la mission
Je trouve ma mission Dataiku
Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Résumé des emplois de Salem,
freelance DATAIKU résidant dans le Val-de-Marne (94)

  • CELINE (LVMH)
    Jan 2023 - Jan 2023

    Mission : Import et export de donnéesdans uneDataplatform sur GCP
    Rôle et responsabilité :
    - Développement Dataform (sqlx) :
    o Flux d’ingestion et de transformation de données
    o Préparation, dédoublonnage, gestion des rejets…
    - Proposer des axes d’amélioration techniques et méthodologiques (Scrum Master)
    - Assister l’équipe de recette fonctionnelle.
    - Participer auxdifférents meeting Scrum (Daily,planning, review, demo…)
    - Poste de transverse

    ● Dataform, Cloudrun, Devops(Git), Agile Scrum (JIRA, Confluence), GCP (BigQuery, CloudStorage,
  • Data Analyste& Cloud Ingénieur

    MALAKOFF_HUMANIS
    Jan 2022 - Jan 2023

    Mission : POC Migration Matillion vers Dataiku
    Rôle et responsabilité :
    - Identifier le coût d'une migration des Uses Cases de Matillion vers la solution Dataïku
    - Identifier les limitations fonctionnelles de Dataïkupar rapport à l'usage actuel de Matillion.
    - Comprendre :
    o L'usage de Matillion et les pratiques de dataprep dans l'équipe Ecosystème Data
    o L’architecture globale, de l'acheminement des données dans le DataLake AWS jusqu'à leur consommation
    o Le fonctionnellement du UC identifié pour la migration
    - Effectuer la migration dans Dataïku
    - Remised’un livrable de bilan, accompagné d'une estimation des coûts/risques de migration de tous les UC dans Dataïku, ainsi qu'un diagnostic des éventuelles limitations de Dataïku vs Matillion pour l'usage qui en est fait actuellement chez MH

    ● Python, SQL, Dataiku, Matillion, AWS (RedShift, Athena, S3,)
  • Data Devops& Cloud Ingénieur

    WIDE SUISSE
    Jan 2022 - Jan 2022

    Mission : Apport d’expertiseautour des sujets API Managment, Devops et Elasticsearch.
    Rôle et responsabilité :
    ● Création et paramétrage de ressources Azure (API Management, DevOps , Pipeline CI/CD, Azure fonction, Python) et Paramétrage Databricks pourl’utilisation de Git
    ● ELK ElasticSearch (configuration FileBeat, création de pipelines d’ingestion et parsing de données)

    ● Python, SQL, AZURE (function, Logic Apps, APIM, Storage, Devops, Database, Application Insights) ● ELK:Elasticsearch, FileBeat, Kibana
  • DATA/ CLOUD/DEVOPS ENGINEER

    SISLEY
    Jan 2021 - Jan 2022

    Mission : Intégration et modélisation de données pour la construction d’un RCU. (Déduplication, Merge, Master Data Management, etc.)
    Rôle et responsabilité :
    ● Participation à la réponse de l'appel d'offre
    ● Préconisation et validation des composants Azure nécessaire au projet
    ● Conception de l’architecture technique/data en collaboration avec l’AT et le DP :
    • Evaluation, conception et optimisation de l’architecture (Stockage, Traitement, Visualisation)
    • Rédaction de DAT
    ● Tech Lead : conception technique, encadrement, formation, suivi, …
    ● Développement Matillion, Snowflake, PostegreSql, Python, Git.
    ● Azure Cloud,Devops, CI/CD, Agile Scrum
    ● Exploitation en Production
    ● RGPD et anonymisation des données
    ● Rédaction de documents techniques et d'exploitation

    ● Git, Python, SQL, Azure (function, Logic Apps, Storage, Devops IAM, VM, Database, Application Insights), Matillion, Snowflake, Méthode agile (Scrum)
  • :DATE ENGINEER / DEV LEAD

    VIVATECH
    Jan 2021 - Jan 2021

    Mission : Intégration et modélisation de données pour la construction d’un RCU
    Rôle et responsabilité :
    ● Intégration de données Salesforce pour la construction d’un Datalake
    ● Préconisation ou validation des composants GCP nécessaires au projet
    ● Conception de l’architecture technique/data en collaboration avec l’AT :
    • Evaluation, conception et optimisation de l’architecture (Stockage, Traitement, Visualisation)
    • Rédaction de DAT
    ● Développement GCP (Big Query, Cloud Function, Cloud Storage, Python)

    ● Python, SQL, GCP (Big Query, Cloud Function, Cloud Storage, Python), Salesforce
  • DATA ENGINEER

    LECLERC
    Jan 2020 - Jan 2021

    Mission : Construction d'une base historique permettant d'avoir la vision fichier brut (un genre de datalake) de tout l'entrant individu dans une base client (RBC), et un outil utilisé quotidiennement dans son exploitation.
    Rôle et responsabilité :
    ● Développement Talend, SQLserver, Shell, Confluence

    ● Talend, SQLserver, Shell, Confluence
  • CONSULTANT BIG DATA

    FNACDARTY
    Jan 2017 - Jan 2020

    Mission : Construction d'un DATALAKE et d'un Référentiel Client Unique (RCU) à partir des données clients, ventes et magasins.
    Rôle et responsabilité :
    ● Optimisation et accompagnement de la croissance du cluster Hadoop existant, dans le cadre des projets menés en relation avec les métiers et Maitrises d’Ouvrage concernés
    ● Validation de l’implémentation des composants et du dimensionnement de l’infrastructure, en relation avec les équipes Système et Exploitation
    ● Conception et développement des scripts en Hive, Spark, Talend et autres langages (Java, Python)
    ● Assurer l’exploitabilité des développements
    ● Maintenance du dictionnaire de données
    ● Reporting de l’avancement des travaux
    ● Proposition d’améliorations sur la mise en œuvre et l’utilisation de Hadoop

    ● MAPR 5 2.4, Talend, Hive, Hbase, Unix, Spark, Python, Sqoop, Oracle, SAP, TERADATA, Salesforce, ElasticSearch, NodeJS, Hadoop, hdfs, csv
  • DEVELOPPEUR BIG DATA

    SNCF
    Jan 2016 - Jan 2017

    Mission : Construction d'un DATALAKE et d'un RCU à partir des données clients, trains et voyages. Rôle et responsabilité :
    ● Intégration de données Hdfs et Hbase en base de données Hive après analyse, typage et qualification des données
    ● Intégration de données (format plat, csv et json)
    ● Développement (spark, scala, unix, hive, hadoop)
    ● Calcul d’indicateurs pour des compagnes de fidélisation et de promotions pour les clients.
    ● Construction du RCU

    ● Hortonworks 2.4|Ambari, spark, hive, Scala, Unix, Hue, Hadoop, hbase, sbt, hdfs, git, json, csv  
  • Jan 2015 - Jan 2015

    Mission : Support technique de production niveau 3

    ● Oracle 11g, PL/SQL, Forms/report builder, Toad, windows.
  • Société Générale
    Jan 2012 - Jan 2014

    Mission : Support technique de production niveau 3 et gestion du référentiel de données internationales.

    ● AIX 5.3, RedHat 5.7, Oracle 9i/11gR2, PL SQL, KSH, Unix, windows. clearCase, ControlM, MQSeries.
Voir le profil complet de ce freelance