LEARNING TRACK

Data warehouse designer

96,00 

Introduction

L’analyse des données est un processus qui permet d’analyser les performances d’une entreprise, qu’elles soient passées, présentes ou futures, et aide les décideurs à prendre des actions éclairées. Dans le cadre de ce processus d’analyse, les organisations passent par trois étapes. Premièrement, elles collectent des données à partir de systèmes informatiques opérationnels et de sources externes. Deuxièmement, elles transforment et préparent ces données pour l’analyse. Troisièmement, elles exécutent des requêtes sur ces données et créent des visualisations de données, c’est-à-dire des tableaux de bord Business Intelligence (BI) et des rapports pour mettre les résultats analytiques à la disposition des utilisateurs pour une prise de décision optimale. L’objectif de cette activité étant de prendre les meilleures décisions est de permettre aux entreprises par exemple d’augmenter leurs revenus, d’améliorer leur efficacité opérationnelle et d’obtenir des avantages concurrentiels par rapport à la compétition.

 

Métiers

Les deux premières étapes citées ci-dessus sont réalisées par un « Data warehouse designer », soit un concepteur d’entrepôt de données/conceptrice d’entrepôt de données.

La troisième étape est réalisée par un “Analyste BI” qui est la personne en charge du Reporting et Dashboarding. Dans certains cas, les données sont également fournies à des Data Scientist, ou encore, ils alimentent des systèmes informatiques tiers.

 

Learning Track

Ce Learning Track de 24 heures focalise sur le métier du « Data warehouse designer ». Il vous propose une immersion dans le monde du Data Engineering et du Data warehousing.

 

Vous comprendrez notamment :

 

  • L’émergence du besoin, des outils et du métier de Data Engineer
  • La différence entre les systèmes opérationnels et les systèmes analytiques
  • L’architecture fonctionnelle et la modélisation des systèmes analytique
  • L’alimentation d’un Data warehouse avec vos premiers pipelines de données, qui permettront ensuite d’alimenter les systèmes d’aide à la décision évoqués.

 

Le Learning Track est composé de 2 modules :

 

Module 1 – Introduction aux concepts et à la modélisation d’un Data warehouse (12h)

 

Module 2 – Introduction à 3 outils de type ETL – Extract Transform Load  – Hands-on (12h)

Introduction aux concepts et à la modélisation d’un Data warehouse

Introduction

L’analyse des données est un processus qui permet d’analyser les performances d’une entreprise, qu’elles soient passées, présentes ou futures, et aide les décideurs à prendre des actions éclairées. Dans le cadre de ce processus d’analyse, les organisations passent par trois étapes. Premièrement, elles collectent des données à partir de systèmes informatiques opérationnels et de sources externes. Deuxièmement, elles transforment et préparent ces données pour l'analyse. Troisièmement, elles exécutent des requêtes sur ces données et créent des visualisations de données, c'est-à-dire des tableaux de bord Business Intelligence (BI) et des rapports pour mettre les résultats analytiques à la disposition des utilisateurs pour une prise de décision optimale. L'objectif de cette activité étant de prendre les meilleures décisions est de permettre aux entreprises par exemple d'augmenter leurs revenus, d'améliorer leur efficacité opérationnelle et d'obtenir des avantages concurrentiels par rapport à la compétition.

 

Métiers

Les deux premières étapes citées ci-dessus sont réalisées par un « Data warehouse designer », soit un concepteur d’entrepôt de données/conceptrice d’entrepôt de données.

La troisième étape est réalisée par un "Analyste BI" qui est la personne en charge du Reporting et Dashboarding. Dans certains cas, les données sont également fournies à des Data Scientist, ou encore, ils alimentent des systèmes informatiques tiers.

 

Learning Track

Ce module fait partie d'un Learning Track plus vaste qui compte 24 heures réparties sur deux modules.

 

Ce module en particulier est composé de deux sessions :

  1. Cours d'introduction sur l'émergence du "Data Analytics" : Appréhender et comprendre l'avènement des systèmes d'information décisionnels
  2. Travaux dirigés sur la modélisation d'un Data warehouse : Comprendre les méthodes et les enjeux d'une modélisation multidimensionnelle

Out of stock

Introduction à trois outils de type ETL – Extract Transform Load - Travaux pratiques

Introduction

L’analyse des données est un processus qui permet d’analyser les performances d’une entreprise, qu’elles soient passées, présentes ou futures, et aide les décideurs à prendre des actions éclairées. Dans le cadre de ce processus d’analyse, les organisations passent par trois étapes. Premièrement, elles collectent des données à partir de systèmes informatiques opérationnels et de sources externes. Deuxièmement, elles transforment et préparent ces données pour l'analyse. Troisièmement, elles exécutent des requêtes sur ces données et créent des visualisations de données, c'est-à-dire des tableaux de bord Business Intelligence (BI) et des rapports pour mettre les résultats analytiques à la disposition des utilisateurs pour une prise de décision optimale. L'objectif de cette activité étant de prendre les meilleures décisions est de permettre aux entreprises par exemple d'augmenter leurs revenus, d'améliorer leur efficacité opérationnelle et d'obtenir des avantages concurrentiels par rapport à la compétition.

 

Métiers

Les deux premières étapes citées ci-dessus sont réalisées par un « Data warehouse designer », soit un concepteur d’entrepôt de données/conceptrice d’entrepôt de données.

La troisième étape est réalisée par un "Analyste BI" qui est la personne en charge du Reporting et Dashboarding. Dans certains cas, les données sont également fournies à des Data Scientist, ou encore, ils alimentent des systèmes informatiques tiers.

 

Learning Track

Ce module fait partie d'un Learning Track plus vaste qui compte 24 heures réparties sur deux modules.

 

Ce module en particulier est composé de trois sessions :

  1. Travaux pratiques - réalisation d'un pipeline data avec Talend : Appréhension d'un outil ETL pour l'alimentation d'un data warehouse / datamart
  2. Travaux pratiques - réalisation d'un pipeline data avec Datastage : Appréhension d'un outil ETL pour l'alimentation d'un data warehouse / datamart
  3. Travaux pratiques - réalisation d'un pipeline data avec Azure Data Factory : Appréhension d'un outil ETL pour l'alimentation d'un data warehouse / datamart

Out of stock

Out of stock

Sorry, the course is fully booked. If you are interested in getting notifications for available spots in case other participants cancel, please leave your name and email address below

SKU: 6460 Category:

Start date

May 3, 2023

End date

June 7, 2023

Language(s) of the training

French

Languages spoken by the coach(es)

English, French

Instructor(s)

M. Lazaar Ramzi

Contents

Objective

Learning Outcomes

Les apprenants seront capables

  • de comprendre la genèse de l’entreposage de données, le Data Warehousing (historique et technologies),
  • de construire un modèle d’entrepôt de données,
  • d’ingérer/peupler/charger un modèle d’entrepôt de données.

Schedule

Ce Learning Track a une durée totale de 24 heures et se déroule sur plusieurs semaines :

 

Module 1 :

  • Session 1/6:   03/05/2023   14:00 – 18:00 et
    Session 2/6:   10/05/2023   14:00 – 18:00
    Cours d’introduction sur l’émergence du « Data Analytics » : Appréhender et comprendre l’avènement des systèmes d’information décisionnels

 

  • Session 3/6:   17/05/2023   14:00 – 18:00
    Travaux dirigés sur la modélisation d’un Data warehouse: Comprendre les méthodes et les enjeux d’une modélisation multidimensionnelle

 

Module 2 :

  • Session 4/6:   24/05/2023   14:00 – 18:00
    Travaux pratiques – réalisation d’un pipeline data avec Talend : Appréhension d’un outil ETL pour l’alimentation d’un data warehouse / datamart

 

  • Session 5/6:   31/05/2023   14:00 – 18:00
    Travaux pratiques – réalisation d’un pipeline data avec Datastage: Appréhension d’un outil ETL pour l’alimentation d’un data warehouse / datamart

 

  • Session 6/6: 07/06/2023   14:00 – 18:00
    Travaux pratiques – réalisation d’un pipeline data avec Azure Data Factory : Appréhension d’un outil ETL pour l’alimentation d’un data warehouse / datamart

Format and Location

Cette formation a lieu en PRÉSENTIEL

Terres Rouges building
14, porte de France
L-4360 Esch/Alzette

Level

Beginner

Prerequisites

Database knowledge

Additional Info

Vous avez la possibilité de vous inscrire :

  • soit pour l’ensemble du Learning Track qui compte 2 modules (24h),
  • soit pour chaque module séparément.

Vous pouvez consulter le détail de chaque module en cliquant sur la description.

Certification

Cette formation n'a pas d'évaluation finale, un certificat de participation sera remis aux participants.

Esco Skills

Esco Occupations