Le travail de freelance Data est encore un métier méconnu de tous. Pourtant, les freelances Data sont très prisés par les entreprises. Grâce à leur grande capacité d'analyse et leur forte logique, les freelances Data aident les entreprises à évoluer et à s'épanouir. Mais, c'est quoi exactement un freelance Data ?
S'agissant d'un mot anglais, Data signifie donnée. Alors, vous pouvez en déduire que les freelances Data sont des personnes qui travaillent dans la gestion et le traitement des données. Ces dernières illustrent diverses informations liées à la concurrence, à la statistique des ventes de produits et à la tendance de consommation des clients de l'entreprise.
Les freelances Data traitent les données et les convertis en flux réel d'information qui sont essentiels, voir vital pour les entreprises. En effet, ces flux d'informations sont des clés pour les prises de décision stratégique et commerciale de l'entreprise.
Aujourd'hui, le métier du digital est en pleine évolution. Tout comme les startups, le freelance Data commence peu à peu à se faire connaître dans le monde de grandes entreprises. Dans le domaine de la gestion et de l'analyse des données, vous pouvez trouver de nombreuse sorte de travail en freelancing.
Sur le marché, vous pouvez découvrir plusieurs grandes catégories comme les Data Scientists, les business Analysts, les Data Analysts, le Machine Learning et les chefs de projets.
Pour devenir un Data Scientist, il faut réaliser de longues études en informatique, en science des données, statistiques et mathématique. Avant de pouvoir candidater pour un poste de Data Scientist, il vous faut un diplôme de maîtrise en informatique des données.
Le travail du Data Scientist est l'un de nombreux métiers issus de l'analyse du Big Data. En tant que Data Scientist freelance ou Data Scientist python, votre travail consiste à analyser des données massives.
Pour être un spécialiste dans ce domaine, vous devez avoir au minimum un bac+4. En revanche, pour occuper ce poste, vous n'êtes pas forcément titulaire d'un diplôme en informatique. En principe, ce métier requiert une maîtrise en commerce et marketing.
Pour exercer ce métier en toute facilité, les business Analyst devront être observateurs, attentifs et surtout dotés d'une forte capacité d'analyse. En ayant ces facultés, ils peuvent traiter les données en leur possession et déduire par la suite des conclusions qui auront un impact réel et bénéfique à l'entreprise qui les emploie.
Comme mentionner ci-dessus, devenir un freelance Data n'est pas du tout facile. Si vous souhaitez devenir un freelance Data : Business Analyst, Data Analyst, ou un Data Scientist, vous devez d'abord faire en sorte d'obtenir votre diplôme Master, soit en informatique, soit en commerce.
Pour bien interpréter les données chiffrées, il faut avoir une grande capacité d'analyse et un sens de la logique accru.
Project « Finance District » :
Mission: Finance District supports the business areas of the CFT IT department in the design and
implementation of solutions related to data
Position: Technical Lead Big Data Engineer.
Lead tasks:
❖ Daily technical support for data engineers.
❖ Implementation of a monitoring module for the execution plan of Quartier Finance.
❖ Design of a data quality management module.
❖ Design of a production job monitoring module.
❖ Supervision of the technical and functional migration from Talend Big data to Scala/Spark.
❖ Ensuring the migration of Spark 2.1 projects to 2.4.
❖ Implementation of a data anonymization solution.
❖ Implementation of the Scala/Spark CI/CD pipeline.
❖ Ensuring the migration from Hortonworks to CDP.
Technical tasks:
• Analyzing and implementing "hot fixes" in production.
• Implementation of a Scala/Spark framework to facilitate and standardize Scala/Spark
developments.
• Developing a solution for sending files via WebHdfs.
• Tuning the performance of Scala/Spark applications for batch interval, parallelism, and memory.
• Optimization of existing algorithms in Hadoop using SparkSession, Spark-SQL, Data Frames,
and Pair RDDs.
• Manipulating large datasets using Partitions, Spark memory capabilities, Spark Broadcasts, and
efficient Joins.
• Developing audit logic to optimize the load in append mode.
• Developing solutions for pre-processing large sets of structured and semi-structured data with
different formats (text files, Avro, sequence files, JSON records).
• Use of Parquet, ORC, Avro files according to the technical need.
• Study of the choice of Spark partitions for "write HDFS" and the calculation of the coalesce to
avoid the shuffle
• Implementation of performance improvements based on job monitoring via SparkUI
• Adding "persist" via Spark and "serialization" of data as needed
• Use of RDD, DataFrame, DataSet according to the technical need.
• Development of some UDF on Spark 2.4
• Deployment and Orchestration of the project via ControlM
• Use of scalaTest to ensure unit tests and code coverage at the SonarQube level
• Development of test cases, test scenarios with TDD logic using Cucumber.
• Log recovery via Scala/Kafka & Spark Streaming from YARN for analysis and monitoring of
the application.
Project « PRORATA VAT »:
Mission: Equip accounting and fiscal business with a digital solution for calculating the "PRORATA
TVA" tax base
Position: Technical Lead Big Data Engineer.
Lead tasks:
❖ Facilitate or lead agility ceremonies.
❖ Implementation of the Data solution architecture using "Scala/Spark" and establishing a link
with visualization tools.
❖ Optimization of the performance and scalability of "Scala/Spark" data systems for jobs.
❖ Ensuring the quality and reliability of data.
❖ Synchronize with web restitution and PowerBI teams.
❖ Collaborate with security teams to ensure the security of data.
❖ Definition of standards and best practices for data projects.
Technical tasks:
• Writing technical specifications.
• Definition of big data architecture.
• Scala/Spark development of calculations for the "prorata tva" bases.
• Implementation of Scala/Spark jobs.
• Development of data extraction jobs from APIs.
• Analyze, design and build Modern data solutions using Azure PaaS service to support visualization
of data. Understand current Production state of application and determine the impact of new
implementation on existing business processes.
• Extract Transform and Load data from Sources Systems to Azure Data Storage services using a
combination of Azure Data Factory, T-SQL, Spark SQL and U-SQL Azure Data Lake
Analytics. Data Ingestion to one or more Azure Services - (Azure Data Lake, Azure Storage,
Azure SQL, Azure DW) and processing the data in In Azure Databricks.
• Created Pipelines in ADF using Linked Services/Datasets/Pipeline/ to Extract, Transform and
load data from different sources like Azure SQL, Blob storage, Azure SQL Data warehouse, writeback tool and backwards.
• Developed Spark applications using Pyspark and Spark-SQL for data extraction, transformation
and aggregation from multiple file formats for analyzing & transforming the data to uncover
insights into the customer usage patterns.
• Responsible for estimating the cluster size, monitoring and troubleshooting of the Spark
databricks cluster.
• Experienced in performance tuning of Spark Applications for setting right Batch Interval time,
correct level of Parallelism and memory tuning
Project « C3S TAX »:
Mission: Proposal for a technical data/big data and Azure Cloud architecture to meet the need for
industrialization of the C3S tax calculation.
Position: Data Architect
Architect tasks:
❖ Define an architectur...