Nesse vídeo apresentamos como copiar os dados existentes do banco de dados SAP HANA para um arquivo em formato Parquet no Azure Data Lake Storage utilizando o Azure Data Factory.
1. Como instalar o driver ODBC do SAP HANA (ODBC, HANA CLIENT):
2. Criar Serviço Vinculado para recurso Azure Data Lake Storage (LINKED SERVICE):
3. Criar Serviço Vinculado para o recurso de banco de dados do SAP HANA (DATABASE):
4. Criar facilmente o Pipeline utilizando a ferramenta passo a passo Copiar Dados (INGEST, BUILT-IN COPY TASK):
5. Agendamento de execução do pipeline (RUN ONCE NOW, SCHEDULE, TUMBLING WINDOW):
6. Selecionar a tabela da fonte de dados de origem SAP HANA (SOURCE DATA STORE, TABLES):
7. Definir o arquivo em formato Parquet para salvar os dados de origem no Azure Data Lake Storage (DESTINATION DATA STORE, FILENAME, PARQUET):
8. Mapear as colunas de destino (COPY DATA, MAPPING, IMPORT SCHEMA):
9. Publicar os objetos criados (PUBLISH):
10. Executar Pipeline por gatilho (ADD TRIGGER, TRIGGER NOW):
11. Monitorar a finalização de execução do pipeline (MONITOR, STATUS):
12. Exibir o arquivo em formato Parquet criado na estrutura do Azure Data Lake (CONTAINER, FOLDER):
Esses passos cobrem desde a instalação do driver ODBC até a execução e monitoramento bem-sucedidos do pipeline no Azure Data Factory. Adapte os detalhes conforme necessário para o seu ambiente específico.
Data Scientist and Consultant for Digital and Analytics Solutions
@fabioms