Free cookie consent management tool by TermsFeed Policy Generator

#142 Cómo asignar columnas dinámicas en Azure Data Factory

Asignación dinámica de columnas en Azure Data Factory para ajustar la coincidencia entre las columnas de origen y de destino

Azure Data Factory (ADF) es un servicio de orquestación de datos en la nube que permite crear, programar y administrar canalizaciones de datos. Vamos a cubrir cada uno de los temas mencionados:

1. Almacenamiento de archivos en Azure Data Lake:

  • Tutorial:
    1. Acceso a Azure Data Lake Storage Gen2 en Azure Portal.
    2. Cree o seleccione un contenedor para almacenar los archivos.
    3. Cargue los archivos en el contenedor.

https://dadosabertos.mec.gov.br/pnp?start=0

  • Ejemplo: Puede cargar archivos CSV, JSON, Parquet y otros archivos en Azure Data Lake Storage Gen2.

2. Establezca la matriz de variables de tipo de datos:

  • Paso a paso:

    1. En el editor de canalizaciones de Azure Data Factory, haga clic en "Variables" en el menú lateral.
    2. Cree una nueva variable y establezca el tipo en "Matriz".
    3. Introduzca los valores deseados para la matriz.
  • Ejemplo:

    {
        "name": "ArrayOfValues",
        "type": "Matriz",
        "valor": [
            "Valor1",
            "Valor2",
            "Valor3"
        ]
    }
    

3. Establecer parámetros en el conjunto de datos:

  • Paso a paso:

    1. En el editor del conjunto de datos, haga clic en "Parámetros".
    2. Agregue los parámetros necesarios, como el nombre del archivo, la ruta, etc.
  • Ejemplo:

    {
        "nombre": "nombreDeArchivo",
        "type": "Cadena"
    }
    

4. Extracción de datos de Azure Data Lake:

  • Tutorial:

    1. en el editor de canalización, agregue una actividad de copia.
    2. Configure el origen como Azure Data Lake y el destino como desee.
  • Ejemplo:

    "source": {
        "type": "AzureDataLakeStoreSource",
        "storeSettings": {
            "type": "AzureDataLakeStoreReadSettings",
            "recursivo": verdadero
        }
    }
    

5. Uso de la actividad de búsqueda de archivos JSON:

  • paso a paso:

    1. agregue una actividad de lectura de datos a la canalización en Azure Data Factory.
    2. Configure el origen como Azure Data Lake Storage o Blob Storage, donde se encuentra el archivo JSON.
    3. Especifique el formato de archivo como JSON y proporcione la ruta de acceso al archivo JSON.
    4. Configure las propiedades de la actividad según sus necesidades, como el filtrado de datos, la proyección de columnas, etc.
  • Ejemplo:

    "actividades": [
        {
            "name": "ReadJSONActivity",
            "type": "Copiar",
            "entradas": [
                {
                    "referenceName": "AzureDataLakeStorageLinkedService",
                    "type": "DatasetReference",
                    "parámetros": {
                        "fileName": "example.json"
                    }
                }
            ],
            "salidas": [
                {
                    "referenceName": "OutputDataset",
                    "type": "DatasetReference"
                }
            ],
            "typeProperties": {
                "fuente": {
                    "type": "JsonSource"
                },
                "fregadero": {
                    "type": "AzureBlobSink"
                },
                "enableStaging": false
            }
        }
    ]
    

6. Almacenamiento de datos en Azure SQL Database:

  • Tutorial:

    1. Agregue una actividad de copia a la canalización.
    2. Configure el origen como desee y el destino como Azure SQL Database.
  • Ejemplo:

    "sink": {
        "type": "SqlServerSink",
        "writeBatchSize": 10000,
        "writeBatchTimeout": "00:05:00"
    }
    

7. Asignar columnas mediante contenido dinámico:

  • Paso a paso:

    1. Durante la configuración de la actividad de copia, asigne columnas mediante expresiones dinámicas.
  • Ejemplo:

    {"type": "TabularTranslator",
    "asignaciones": [
      {"source": {"name": "Año"},"sink": {"name": "Año"}},
      {"source": {"name": "OU"},"sink": {"name": "OU"}},
      {"source": {"name": "Acción"},"sink": {"name": "Acción de Gobierno"}},
      {"source": {"name": "GND"},"sink": {"name": "GND"}},
      {"source": {"name": "Gastos liquidados"},"sink": {"name": "Liquidaciones totales"}}
    ]}
    

Estos pasos y ejemplos ilustran cómo realizar diversas operaciones con Azure Data Factory, desde el almacenamiento y la extracción de datos hasta la asignación de columnas y el uso de actividades específicas.

Este contenido contiene
  • Conteúdo video
  • Idioma Português
  • Duración 20m 41s
  • Subtítulos Não

  • Tiempo de leer 3 min 14 seg

avatar
Fabio Santos

Científico de datos y consultor de soluciones digitales y analíticas


  • Compartir

Youtube Channel

@fabioms

Suscríbase ahora