Skip to content
azure
Support formation Microsoft Azure
  • Pages
    • Présentation du support
    • Organisation des formations Power BI
    • Azure Synapse Analytics
      • Composants
        • Pools SQL Serverless
        • Pools SQL dédiés
        • PySpark
        • Delta Lake
      • Extraits de codes
    • SumUp
    • Labs 203 | Azure Date Engineer
      • Lab 01 | Découvrir Azure Synapse Analytics
      • Lab 02 | Interroger des fichiers à l’aide d’un pool SQL serverless
      • Lab 03 | Transformer des fichiers à l’aide d’un pool SQL serverless
      • Lab 04 | Analyser les données dans une base de données de lac
      • Lab 05 | Analyser les données d’un lac de données avec Spark
      • Lab 06 | Transformer des données à l’aide de Spark dans Synapse Analytique
      • Lab 07 | Utiliser Delta Lake avec Spark dans Azure Synapse Analytics
      • Lab 08 | Explorer un entrepôt de données relationnelles
      • Lab 09 | Charger des données dans un entrepôt de données relationnel
      • Lab 10 | Créer un pipeline de données dans Azure Synapse Analytique
      • Lab 11 | Utiliser un notebook Apache Spark dans un pipeline
      • Lab 12-14 | Utiliser Azure Synapse Link pour Azure Cosmos DB
      • Lab 13 | Utiliser Azure Synapse Link pour SQL
      • Lab 14 | Prise en main d’Azure Stream Analytique
      • Lab 15 | Ingérer des données en temps réel avec Azure Stream Analytique et Azure Synapse Analytique
      • Lab 16 | Créer un rapport en temps réel avec Azure Stream Analytique et Microsoft Power BI
      • Lab 17-22 | Utiliser Microsoft Purview avec Azure Synapse Analytique
      • Lab 18 | Découvrir Azure Databricks
      • Lab 19 | Utiliser Spark dans Azure Databricks
      • Lab 20 | Utiliser Delta Lake dans Azure Databricks
      • Lab 21 | Utiliser un entrepôt SQL dans Azure Databricks
      • Lab 22 | Automatiser un notebook Azure Databricks avec Azure Data Factory
    • Gestion des autorisations
    • DP-203
      • Commencez avec l’ingénierie des données sur Azure
      • Présentation d'Azure Data Lake Storage Gen2
      • Utiliser un pool SQL serverless Azure Synapse pour interroger des fichiers dans un lac de données
      • Utiliser des pools SQL serverless Azure Synapse pour transformer des données dans un lac de données
      • icon picker
        Créer une base de données lake dans Azure Synapse Analytics
      • Sécuriser les données et gérer les utilisateurs dans les pools SQL serverless Azure Synapse
      • Analyser des données avec Apache Spark dans Azure Synapse Analytics
      • Transformer des données avec Spark dans Azure Synapse Analytics
      • Utiliser Delta Lake dans Azure Synapse Analytics
      • Analyser les données dans un entrepôt de données relationnelles
      • Charger des données dans un entrepôt de données relationnel
      • Gérer et superviser les activités d’un entrepôt de données dans Azure Synapse Analytics [WiP]
      • Sécuriser un entrepôt de données dans Azure Synapse Analytics [WiP]
      • Créer un pipeline de données dans Azure Synapse Analytics
      • Utiliser des notebooks Spark dans un pipeline Azure Synapse
      • Intégrer Microsoft Purview et Azure Synapse Analytics
      • Implémenter Azure Synapse Link avec Azure Cosmos DB
      • Utiliser des entrepôts SQL dans Azure Databricks
      • Untitled page
    • Sécuriser votre compte de Stockage Azure

Créer une base de données lake dans Azure Synapse Analytics

Gonzague Ducos
Les analystes de données et les ingénieurs se retrouvent souvent obligés de choisir entre :
la flexibilité de stockage des fichiers de données dans un lac de données,
avec les avantages d’un schéma structuré dans une base de données relationnelle.
Les bases de données lake dans Azure Synapse Analytics combinent ces deux approches et de tirer parti :
d’un schéma relationnel explicite de tables
de vues
de relations
découplées du stockage basé sur des fichiers.
Objectifs :
Comprendre les concepts et les composants de la base de données lake
Décrire les modèles de base de données dans Azure Synapse Analytics
Créer une base de données de lac

Comprendre les concepts de base de données lake

Une base de données lake fournit une couche de métadonnées relationnelles sur un ou plusieurs fichiers dans un lac de données, qui inclut :
des définitions pour les tables, y compris les noms de colonnes et les types de données,
des relations entre les colonnes des clés primaires et étrangères.
Les tables référencent les fichiers dans le lac de données, ce qui vous permet d’appliquer la sémantique relationnelle à l’utilisation des données et de l’interroger à l’aide de SQL.
Le stockage des fichiers de données est découplé du schéma de base de données, permettant une plus grande flexibilité que ce qu’un système de base de données relationnelle.

Schéma de base de données lake

Définir les tables qui représentent les entités pour lesquelles on stocke des données
interface de conception de base de données graphique, utilisant la plupart des meilleures pratiques pour la conception de base de données

Stockage de base de données lake

Données des tables stockées dans le lac de données sous forme de fichiers Parquet ou CSV
Fichiers peuvent être gérés indépendamment des tables de base de données

Calcul de base de données lake

pool SQL serverless Azure Synapse pour exécuter des requêtes SQL
pool Apache Spark Azure Synapse avec l’API Spark SQL

Explorer les modèles de base de données

Base de données lake à partir d’un schéma vide
Collection complète de modèles de base de données

Créer une base de données de lac

Soit vide, soit à partir de modèle, puis ajout et personnalisation des tables
Création de table en spécifiant le type et l’emplacement ou à partir des fichiers existants
Recommandé : stocker tous les fichiers de base de données dans un format cohérent dans le même dossier racine dans le lac de données
Le Concepteur permet :
Spécifier des paramètres de nom et de stockage pour chaque table.
Spécifier des noms, l’utilisation des clés, la nullabilité et les types de données pour chaque colonne.
Définissez des relations entre les colonnes clés dans les tables

Utiliser une base de données lake


Utilisation d’un pool SQL serverless

USE RetailDB;
GO
SELECT CustomerID, FirstName, LastName
FROM Customer
ORDER BY LastName;

Utilisation d’un pool Apache Spark

%%sql
INSERT INTO `RetailDB`.`Customer` VALUES (123, 'John', 'Yang')
SELECT * FROM `RetailDB`.`Customer` WHERE CustomerID = 123

Want to print your doc?
This is not the way.
Try clicking the ··· in the right corner or using a keyboard shortcut (
CtrlP
) instead.