Iremos conhecer as técnicas:
1. Definir região e carga de trabalho (REGION, WORKLOAD):
- Escolha a região geográfica em que o ambiente do Azure Databricks será provisionado e defina a carga de trabalho (por exemplo, Spark) que será executada no cluster.
2. Definir a camada de serviço (SERVICE TIER):
- Escolha entre as camadas Premium e Standard do serviço, considerando os recursos e o desempenho necessários para a carga de trabalho.
3. Definir o tipo de instância da máquina virtual (CATEGORY, INSTANCE SERIES):
- Escolha o tipo e a série da instância de máquina virtual que atendam aos requisitos de desempenho do cluster.
4. Pagamento antecipado por reserva de recurso (SAVING OPTIONS, RESERVED RESOURCE):
- Avalie as opções de economia, como reservar recursos antecipadamente para obter descontos significativos.
5. Custo mensal da máquina virtual do Azure Databricks (ESTIMATED MONTHLY COST):
- Estime o custo mensal com base nas escolhas feitas para região, carga de trabalho, camada de serviço e tipo de instância.
6. Criar cluster no Azure Databricks (CLUSTER MODE):
- Provisão de um cluster no ambiente do Azure Databricks para executar cargas de trabalho de processamento distribuído, como Spark.
7. Criar primeiro notebook de linguagem Python (NOTEBOOK):
- Desenvolva um notebook utilizando a linguagem Python para realizar tarefas de análise de dados, machine learning ou outras operações. Exemplo de código Python para iniciantes:
# Exemplo de código Python para somar dois números
num1 = 5
num2 = 10
soma = num1 + num2
# Exibir o resultado
print("A soma de {} e {} é: {}".format(num1, num2, soma))
Este é um exemplo simples para começar a trabalhar com um notebook Python no ambiente do Azure Databricks. É possível realizar operações mais avançadas conforme a familiaridade com o ambiente e as necessidades do projeto aumentam.