Freelances Conceptualisation des données : Augmentez votre équipe

Je dépose une mission gratuitement
Je dépose mon CV

Qu’est-ce que OLAP ?

OLAP (Online Analytical Processing) est une application informatique qui est utile au traitement de grandes quantités de données. C’est un logiciel de traitement analytique qui donne à l’utilisateur, la largesse d’analyser les données générées sous des perspectives multiples.

Implanté dans le système informatique de l’entreprise, il modélise les données et permet d’effectuer toutes sortes de calculs complexes. En d’autres termes, la même donnée peut être traitée sous différents axes afin d’obtenir les résultats dont l’utilisateur a besoin.

Cette solution de stockage fait partie des outils d’aides à la décision. Le stockage des données qu’il collecte se fait sur une base multidimensionnelle appelée Cubes-OLAP. Le cube est un tableau multidimensionnel de données. Les informations y sont pré-résumées.

L’utilisateur peut ainsi traiter un nombre important de données, sans que cela n’affecte le temps de réponse qui est pour dire, instantané. L’organisation et la comparaison des données nécessitent en revanche, l’utilisation d’un serveur.

Qu’est-ce qu’un DataWarehouse ?

Le datawarehouse (DWH) est une base de données qui assure la collecte et le stockage des informations issues des bases de données opérationnelles. Son rôle est de collecter l’ensemble des données de l’entreprise à des fins analytiques.

Il les analyse en vue d’une amélioration qualitative et quantitative des performances de l’entreprise. En effet, conçu pour les activités de Business Intelligence, le data warehouse fournit à l’aide à la décision, un socle.

Son mode de fonctionnement est simple. Il stocke historiquement les informations, donnant ainsi à l’utilisateur un accès aux transactions qui ont eu lieu au fil du temps.

La solution data warehouse intègre un outil de transport, d’extraction, de chargement et de transformation des données. Elle comprend aussi un logiciel de traitement analytique, des outils de traitement de données et des outils d’analyse clients.

Dans un Data Warehouse, les informations sont structurées et classées par thème. Le stockage des données est fait sur le long terme, et à chaque nouvelle transaction, une mise à jour s’effectue.

Qu’est-ce que DWH DTM ?

DWH DTM signifie Data warehouse Datamart. Le Data mart est un sous-ensemble du Data warehouse.

Il complète le data warehouse. Le data warehouse est l’entrepôt de données et les data mart sont l’ensemble des comptoirs qui forme cet entrepôt.

Qu’est-ce qu’un DataMart ?

Sous-ensemble du data warehouse, le data mart (DTM) organise les données selon des usages précis. Appelé aussi magasin de données ou comptoir de données, il fournit aux utilisateurs, des données spécialisées appartenant à une catégorie bien définie. C’est une version simple du DWH.

À l’inverse du DWH qui traite les données de manière généraliste, le DTM, lui, se concentre sur une seule fonction. Il permet ainsi de répondre à des demandes spécifiques. Il ne conserve que les données qui sont utiles à l'utilisateur. Il les présente de manière agrégée, regroupée et organisée.

C'est un logiciel de stockage qui a une architecture structurée. L’exploitation de sa base de données permet de répondre à des requêtes simples. Les utilisateurs obtiennent à leurs préoccupations, des réponses ciblées, ce qui offre un gain de temps considérable à l’entreprise.

Il a pour ainsi dire, une approche spécialisée de la gestion des données. En son sein, les données sont historiées et donc non volatiles.

Qu’est-ce qu’un Data Lake ?

Référentiel de stockage, le data lake (lac de données) permet de stocker une très large quantité de données venant de diverses sources. Il conserve ces données sous leur format brut, jusqu’à ce qu’elles soient nécessaires.

Sa particularité, c’est qu’il est capable de stocker toutes sortes de données, qu’elles soient structurées, non structurées ou semi-structurées. Autrement dit, tous les types de données générées par l’entreprise peuvent être stockés dans un lac de données, en vue d’une utilisation ultérieure.

Le lac de données crée un schéma structuré entre les différentes données. Aucune n’est filtrée, ni supprimée. Elles ne sont ni hiérarchisées, ni organisées.

Lorsqu’il les importe, il les associe à des balises métadonnées et des indicateurs en vue de faciliter leur récupération. C’est une solution de stockage qui est idéale pour les entreprises qui veulent conserver un grand nombre de données.

Vous êtes freelance ?
Sécurisez votre activité grâce au portage salarial !

Les nouveaux profils conceptualisation des données

CV Consultant Factiva
Patrick

Consultant Factiva

  • JOUARS-PONTCHARTRAIN
Factiva DATAVIEWS
Bientôt disponible
CV Data Engineer
Hamza

Data Engineer

  • MARTIGUES
Azure Data Factory SQL Data lake Microsoft Power BI DAX SSMS CI/CD Databricks AGILE Microsoft PowerApps
Disponible
CV Directeur IT - Big Data - IA - DevOps
Romain

Directeur IT - Big Data - IA - DevOps

  • PARIS
BIG DATA Kubernetes DEVOPS DATA Machine Translation Deep Learning Kafka ELASTICSEARCH APACHE HADOOP JAVA
Disponible
CV Développeur Java Sénior
Alexis

Développeur Java Sénior

  • LYON
JAVA Spring Boot Microservices API RESTful GIT Kafka POSTGRESQL MONGODB Kubernetes SCRUM
Disponible
CV Ingénieur Cloud & DevOps
Saif Eddine

Ingénieur Cloud & DevOps

  • LA GARENNE-COLOMBES
Kubernetes JENKINS LINUX DOCKER GITLAB Keycloak GRAFANA Cloud AWS OPENSTACK HASHICORP TERRAFORM
Disponible
CV Ingénieur de développement JAVA
Brahim

Ingénieur de développement JAVA

  • SOPHIA ANTIPOLIS
JAVA J2EE GWT SPRING API RESTful Kafka SQL
Disponible
CV Data Engineer SQL
Joel

Data Engineer SQL

  • MONTIGNY-LÈS-CORMEILLES
DATASTAGE PX SQL SHELL UNIX CONTROL M JENKINS GIT Snowflake Microsoft Power BI PYTHON TALEND
Disponible
CV Data Engineer Senior – Talend, BI et Big Data
Laye Mory

Data Engineer Senior – Talend, BI et Big Data

  • PARIS
TALEND SQL DATAWAREHOUSE TALEND DI JAVA PYTHON BI REST Snowflake BIG DATA
Disponible
CV Chef de projet infrastructures
Gilbert

Chef de projet infrastructures

  • ROUBAIX
ITIL PROJECT MANAGEMENT OFFICE JIRA UNIX SQL WINDOWS SCRUM ORACLE GRAFANA VMWARE
Disponible
CV Consultant Monitoring, Supervision, Hypervision, Observability & Performance
Paul

Consultant Monitoring, Supervision, Hypervision, Observability & Performance

  • LE VÉSINET
ZABBIX NETCOOL TRUESIGHT BMC EVENT MANAGER GRAFANA LINUX PYTHON DOCKER GITLAB DYNATRACE
Bientôt disponible
Je trouve mon freelance

Les nouvelles missions conceptualisation des données

Product Owner / Product Manager

Data lake AGILE
10/03/2025
75015
3 mois
Voir la mission

Ingénieur Data

Snowflake Azure Synapse Azure Data Factory TALEND
15/03/2025
Paris
3 mois
Voir la mission

Développeur Full Stack

Vue.js JAVA SPRING Kafka MONGODB
15/09/2025
59 - Lille
3 mois
Voir la mission

Tech lead .net

SQL SERVER .NET ASP.NET MVC Vue.js Kafka
ASAP
92 - PUTEAUX
12 mois
Voir la mission

Consultant en monitoring

ITSM GRAFANA EasyVista
ASAP
92 - NANTERRE
12 mois
Voir la mission

Développeur Grafana

GRAFANA API RESTful Data science
ASAP
Télétravail
3 mois
Voir la mission

DevOps

DEVOPS GRAFANA KIBANA ELK ANSIBLE
ASAP
92 - NANTERRE
12 mois
Voir la mission

Chef de Projet MS Fabric

Snowflake Databricks MDM
ASAP
95 - CERGY
1 mois
Voir la mission

Product Owner Technique

JAVA SPRING WEBLOGIC SERVER AWS LAMBDA GRAFANA
ASAP
92 - COURBEVOIE
3 mois
Voir la mission

Consultant Infrastructure / lead equipe infrastructure de messaging

RabbitMQ Kafka
ASAP
78 - VÉLIZY-VILLACOUBLAY
12 mois
Voir la mission
Je trouve ma mission