Apresentamos nesse vídeo como executar pipeline dentro de uma interação loop para modular e reaproveitar tarefas executadas, nesse caso, a extração de vários arquivos compactados no Github para Azure Data Lake.
1. Criar Parâmetro do Pipeline (PARAMETERS, TYPE, STRING):
"parameters": { "ExemploParametro": { "type": "String", "defaultValue": "ValorPadrao" } }
2. Adicionar Conteúdo Dinâmico (RELATIVE URL, DYNAMIC CONTENT):
"relativeUrl": { "value": "@{pipeline().parameters.ExemploParametro}", "type": "Expression" }
3. Criar Variável do Pipeline (VARIABLES, TYPE, ARRAY):
"variables": { "ExemploVariavel": { "type": "Array" } }
4. Executar Pipeline em Loop (FOREACH ACTIVITY, INVOKED PIPELINE):
"activities": [ { "name": "AtividadeForeach", "type": "ForEach", "foreach": "@pipeline().parameters.ItensParaIterar", "activities": [ { "name": "PipelineInvocado", "type": "ExecutePipeline", "parameters": { "ExemploParametro": "@item()" } } ] } ]
Esses conceitos no Azure Data Factory fornecem flexibilidade e dinamismo ao criar e executar pipelines, permitindo a adaptação a diferentes cenários e requisitos.
Data Scientist and Consultant for Digital and Analytics Solutions
@fabioms