Skip to content
azure
Support formation Microsoft Azure
  • Pages
    • Présentation du support
    • Organisation des formations Power BI
    • Azure Synapse Analytics
      • Composants
        • Pools SQL Serverless
        • Pools SQL dédiés
        • PySpark
        • Delta Lake
      • Extraits de codes
    • SumUp
    • Labs 203 | Azure Date Engineer
      • Lab 01 | Découvrir Azure Synapse Analytics
      • Lab 02 | Interroger des fichiers à l’aide d’un pool SQL serverless
      • Lab 03 | Transformer des fichiers à l’aide d’un pool SQL serverless
      • Lab 04 | Analyser les données dans une base de données de lac
      • Lab 05 | Analyser les données d’un lac de données avec Spark
      • Lab 06 | Transformer des données à l’aide de Spark dans Synapse Analytique
      • Lab 07 | Utiliser Delta Lake avec Spark dans Azure Synapse Analytics
      • Lab 08 | Explorer un entrepôt de données relationnelles
      • Lab 09 | Charger des données dans un entrepôt de données relationnel
      • Lab 10 | Créer un pipeline de données dans Azure Synapse Analytique
      • Lab 11 | Utiliser un notebook Apache Spark dans un pipeline
      • Lab 12-14 | Utiliser Azure Synapse Link pour Azure Cosmos DB
      • Lab 13 | Utiliser Azure Synapse Link pour SQL
      • Lab 14 | Prise en main d’Azure Stream Analytique
      • Lab 15 | Ingérer des données en temps réel avec Azure Stream Analytique et Azure Synapse Analytique
      • Lab 16 | Créer un rapport en temps réel avec Azure Stream Analytique et Microsoft Power BI
      • Lab 17-22 | Utiliser Microsoft Purview avec Azure Synapse Analytique
      • Lab 18 | Découvrir Azure Databricks
      • Lab 19 | Utiliser Spark dans Azure Databricks
      • Lab 20 | Utiliser Delta Lake dans Azure Databricks
      • Lab 21 | Utiliser un entrepôt SQL dans Azure Databricks
      • Lab 22 | Automatiser un notebook Azure Databricks avec Azure Data Factory
    • Gestion des autorisations
    • DP-203
      • Commencez avec l’ingénierie des données sur Azure
      • Présentation d'Azure Data Lake Storage Gen2
      • Utiliser un pool SQL serverless Azure Synapse pour interroger des fichiers dans un lac de données
      • Utiliser des pools SQL serverless Azure Synapse pour transformer des données dans un lac de données
      • Créer une base de données lake dans Azure Synapse Analytics
      • Sécuriser les données et gérer les utilisateurs dans les pools SQL serverless Azure Synapse
      • Analyser des données avec Apache Spark dans Azure Synapse Analytics
      • Transformer des données avec Spark dans Azure Synapse Analytics
      • Utiliser Delta Lake dans Azure Synapse Analytics
      • Analyser les données dans un entrepôt de données relationnelles
      • Charger des données dans un entrepôt de données relationnel
      • Gérer et superviser les activités d’un entrepôt de données dans Azure Synapse Analytics [WiP]
      • Sécuriser un entrepôt de données dans Azure Synapse Analytics [WiP]
      • Créer un pipeline de données dans Azure Synapse Analytics
      • Utiliser des notebooks Spark dans un pipeline Azure Synapse
      • Intégrer Microsoft Purview et Azure Synapse Analytics
      • Implémenter Azure Synapse Link avec Azure Cosmos DB
      • Utiliser des entrepôts SQL dans Azure Databricks
      • Untitled page
    • Sécuriser votre compte de Stockage Azure

Sécuriser votre compte de Stockage Azure

Gonzague Ducos

Explorer les fonctionnalités de sécurité de Stockage Azure

Protection des données au repos

SSE (Storage Service Encryption) avec chiffrement AES 256 bits
Pour Azure VM : chiffrer des disques durs virtuels (VHD) avec Azure Disk Encryption
Azure Key Vault stocke automatiquement les clés pour faciliter le contrôle et la gestion des clés et secrets de chiffrement des disques

Protection des données en transit

Activer la sécurité au niveau du transport entre Azure et le client
Exiger toujours HTTPS
SMB 3.0

Prise en charge de l’accès entre domaines du navigateur (CORS - Cross-Origin Resource Sharing)

Prend en charge l’accès entre domaines
Les applications web garantissent qu’elles chargent uniquement du contenu autorisé à partir de sources autorisées
Prise en charge du mécanisme CORS : indicateur facultatif qui peut être activé sur les comptes de stockage. Ajoute les en-têtes appropriés.

Contrôle des utilisateurs capables d’accéder aux données

A chaque requête HTTP(S), le service vérifie que le client dispose des autorisations nécessaires pour accéder aux données. Vous pouvez choisir parmi plusieurs options d’accès. L’option la plus souple est sans doute l’accès en fonction du rôle.
Stockage Azure prend en charge l’ID Microsoft Entra et le contrôle d’accès en fonction du rôle (RBAC)
Attribuer des rôles RBAC étendus au compte de stockage
Utiliser AD pour autoriser les opérations de gestion des ressources, comme la configuration.
AD est pris en charge pour les opérations de données sur le stockage d’objets blob et le stockage File d’attente.
Attribuer des rôles RBAC à :
un principal de sécurité
une identité managée.
pour des ressources Azure en les limitant à :
un abonnement,
un groupe de ressources,
un compte de stockage,
un conteneur
une file d’attente spécifique.

Audit de l’accès au stockage

Auditer l’accès à Stockage Azure en utilisant le service Storage Analytics intégré.

Comprendre les clés de compte de stockage


Want to print your doc?
This is not the way.
Try clicking the ··· in the right corner or using a keyboard shortcut (
CtrlP
) instead.