Module

Introduction à trois outils de type ETL – Extract Transform Load – Travaux pratiques

48,00 

Introduction

L’analyse des données est un processus qui permet d’analyser les performances d’une entreprise, qu’elles soient passées, présentes ou futures, et aide les décideurs à prendre des actions éclairées. Dans le cadre de ce processus d’analyse, les organisations passent par trois étapes. Premièrement, elles collectent des données à partir de systèmes informatiques opérationnels et de sources externes. Deuxièmement, elles transforment et préparent ces données pour l’analyse. Troisièmement, elles exécutent des requêtes sur ces données et créent des visualisations de données, c’est-à-dire des tableaux de bord Business Intelligence (BI) et des rapports pour mettre les résultats analytiques à la disposition des utilisateurs pour une prise de décision optimale. L’objectif de cette activité étant de prendre les meilleures décisions est de permettre aux entreprises par exemple d’augmenter leurs revenus, d’améliorer leur efficacité opérationnelle et d’obtenir des avantages concurrentiels par rapport à la compétition.

 

Métiers

Les deux premières étapes citées ci-dessus sont réalisées par un « Data warehouse designer », soit un concepteur d’entrepôt de données/conceptrice d’entrepôt de données.

La troisième étape est réalisée par un “Analyste BI” qui est la personne en charge du Reporting et Dashboarding. Dans certains cas, les données sont également fournies à des Data Scientist, ou encore, ils alimentent des systèmes informatiques tiers.

 

Learning Track

Ce module fait partie d’un Learning Track plus vaste qui compte 24 heures réparties sur deux modules.

 

Ce module en particulier est composé de trois sessions :

  1. Travaux pratiques – réalisation d’un pipeline data avec Talend : Appréhension d’un outil ETL pour l’alimentation d’un data warehouse / datamart
  2. Travaux pratiques – réalisation d’un pipeline data avec Datastage : Appréhension d’un outil ETL pour l’alimentation d’un data warehouse / datamart
  3. Travaux pratiques – réalisation d’un pipeline data avec Azure Data Factory : Appréhension d’un outil ETL pour l’alimentation d’un data warehouse / datamart

Out of stock

Sorry, the course is fully booked. If you are interested in getting notifications for available spots in case other participants cancel, please leave your name and email address below

SKU: 6832 Category:

Start date

May 24, 2023

End date

June 7, 2023

Language(s) of the training

French

Languages spoken by the coach(es)

English, French

Instructor(s)

M. Lazaar Ramzi

Objective

Learning Outcomes

Les apprenants seront capables d’ingérer/peupler/charger un modèle d’entrepôt de données.

Schedule

Ce module a une durée totale de 12 heures et se déroule sur 3 jours :

  • Session 1/3:   24/05/2023     14:00 – 18:00
  • Session 2/3:   31/05/2023     14:00 – 18:00
  • Session 3/3:   07/06/2023     14:00 – 18:00

Format and Location

Cette formation a lieu en PRÉSENTIEL

Terres Rouges building
14, porte de France
L-4360 Esch/Alzette

Level

Beginner

Prerequisites

Database knowledge

Additional Info

Ce module fait partie du Learning Track nommé « Data warehouse designer ».

Vous avez la possibilité de vous inscrire :

  • soit pour l’ensemble du Learning Track qui compte 2 modules (24h),
  • soit pour chaque module séparément.

Certification

Cette formation n'a pas d'évaluation finale, un certificat de participation sera remis aux participants.

Esco Skills

Esco Occupations