Skip to main content

HPA e VPA - Autoscaler

Autoscaling deploy (Horizontal e Vertical)
  • Criar uma aplicação básica
  • Escalar a aplicação usando Horizontal Pod Autoscaler (HPA)
  • Escalar a aplicação usando Vertical Pod Autoscaler (HPA)
  • Teste de desempenho usando o Locust
Topologia do Laboratório:

image.png

Estrutura inicial

1) Criando o diretório dos arquivos .yaml de deployment dos Pods.

mkdir ~/scaler && cd ~/scaler

2) Instalando o serviço de coleta de métricas:

Antes de começarmos a explorar o Horizontal Pod Autoscaler (HPA), é essencial termos o Metrics Server instalado em nosso cluster Kubernetes. O Metrics Server é um agregador de métricas de recursos de sistema, que coleta métricas como uso de CPU e memória dos nós e pods no cluster. Essas métricas são vitais para o funcionamento do HPA, pois são usadas para determinar quando e como escalar os recursos.

 

O HPA utiliza métricas de uso de recursos para tomar decisões inteligentes sobre o escalonamento dos pods. Por exemplo, se a utilização da CPU de um pod exceder um determinado limite, o HPA pode decidir aumentar o número de réplicas desse pod. Da mesma forma, se a utilização da CPU for muito baixa, o HPA pode decidir reduzir o número de réplicas. Para fazer isso de forma eficaz, o HPA precisa ter acesso a métricas precisas e atualizadas, que são fornecidas pelo Metrics Server.

Nota: Vamos usar o gerenciador de pacotes HELM ( https://helm.sh/ ).  

Instalar o Helm

curl -fsSL https://raw.githubusercontent.com/helm/helm/main/scripts/get-helm-3 | bash

Adicionar o Repositório

helm repo add metrics-server https://kubernetes-sigs.github.io/metrics-server/

Instalar o serviço de métricas

helm upgrade --install \
    --set args={--kubelet-insecure-tls} metrics-server metrics-server/metrics-server \
    --namespace kube-system

Nota: Aguarde uns minutos até a criação dos Pods do serviço de métrica.

3) Verificar se tudo OK:

kubectl get pods -n kube-system | grep metrics-server

Nota: Com o serviço de métricas funcionando, será possível usar o comando top para verificar o consumo de recurso pelos objetos:

kubectl top nodes
kubectl top pods
Servidor de Aplicação

4) Antes de usar o HPA, vamos criar um deployment simples usando qualquer imagem apenas para teste.

vi app-tfd1.yaml
# Deployment
apiVersion: apps/v1                    # Versão da API que define um Deployment
kind: Deployment                       # Tipo de recurso que estamos definindo
metadata:
  name: app-tfd1                       # Nome do nosso Deployment
spec:
  replicas: 3                          # Número inicial de réplicas
  selector:
    matchLabels:
      app: app-tfd1                    # Label que identifica os pods deste Deployment
  template:
    metadata:
      labels:
        app: app-tfd1                  # Label aplicada aos pods
    spec:
      containers:
      - name: app-tfd1                 # Nome do contêiner
        image: brunofischer/app-tfd1   # Imagem do contêiner
        ports:
        - containerPort: 80            # Porta exposta pelo contêiner
        resources:
          limits:
            cpu: 100m                  # Limite de CPU
          requests:
            cpu: 25m                  # Requisição de CPU

---
# Service
apiVersion: v1
kind: Service
metadata:
  name: app-tfd1-service

spec:
  ports:
  - port: 80
    targetPort: 80
  selector:
    app: app-tfd1
  type: LoadBalancer
  loadBalancerIP: 10.9.66.150

5) Subir o deployment e o service da aplicação:

kubectl apply -f app-tfd1.yaml

6) Verifique se o deploy foi finalizado e o POD está rodando (Running). 

kubectl get pods
Locust (Stress Test)

Será instalado uma ferramenta para testes de stress chamada Locust ( https://locust.io/ ). Com ela vamos testar o stress do deployment doda nginxaplicação para validarmos o HPA.

7) Arquivo locust.yaml

vi locust.yaml
# ConfigMap
apiVersion: v1
kind: ConfigMap
metadata:
  name: locust-config
data:
  locustfile.py: |
    from locust import HttpUser, task, between
    class Fischer(HttpUser):
        wait_time = between(1, 2)
        @task(1)
        def testar(self):
            self.client.get("/")
            
---
# Deployment
apiVersion: apps/v1
kind: Deployment
metadata:
  name: locust
spec:
  replicas: 1
  selector:
    matchLabels:
      app: locust
  template:
    metadata:
      labels:
        app: locust
    spec:
      containers:
      - name: locust
        image: locustio/locust
        command: ["locust", "-f", "/etc/locust/locustfile.py"]
        volumeMounts:
        - name: locust-config
          mountPath: /etc/locust
      volumes:
      - name: locust-config
        configMap:
          name: locust-config

---
# Service
apiVersion: v1
kind: Service
metadata:
  name: locust-service

spec:
  ports:
  - port: 80
    targetPort: 8089
  selector:
    app: locust
  type: LoadBalancer
  loadBalancerIP: 10.9.66.151

8) Subir o deployment do serviço locust

kubectl apply -f locust.yaml

9) Verifique se o deploy foi finalizado e o POD está rodando (Running). 

kubectl get pods
Horizontal Pod Autoscaler (HPA)

Agora, com o deployment pronto, vamos dar o próximo passo na criação do nosso HPA. Neste exemplo, criamos um HPA que monitora a utilização da CPU do nosso deployment app-tfd1. O HPA se esforçará para manter a utilização da CPU em torno de 50%, ajustando o número de réplicas entre 3 e 10 conforme necessário.

1) Especificações do HPA:

vi app-tfd1-hpa.yaml
# Definição do HPA para o nginx-deployment

apiVersion: autoscaling/v2       # Versão da API que define um HPA
kind: HorizontalPodAutoscaler    # Tipo de recurso que estamos definindo
metadata:
  name: app-tfd1-hpa             # Nome do nosso HPA
spec:
  scaleTargetRef:
    apiVersion: apps/v1          # A versão da API do recurso alvo
    kind: Deployment             # O tipo de recurso alvo
    name: app-tfd1               # O nome do recurso alvo
  minReplicas: 3                 # Número mínimo de réplicas
  maxReplicas: 10                # Número máximo de réplicas
  metrics:
  - type: Resource               # Tipo de métrica (recurso do sistema)
    resource:
      name: cpu                  # Nome da métrica (CPU neste caso)
      target:
        type: Utilization        # Tipo de alvo (utilização)
        averageUtilization: 50   # Valor alvo (50% de utilização)
  behavior:
    scaleUp:
      stabilizationWindowSeconds: 0    # Período de estabilização para escalonamento para cima
    scaleDown:
      stabilizationWindowSeconds: 30   # Período de estabilização para escalonamento para baixo

2) Aplicar as configurações do HPA:

kubectl apply -f app-tfd1-hpa.yaml

3) Verificar se o serviço do HPA está ativo:

kubectl get hpa

4) Fazer o teste através do navegador.

Nota: Antes de abrir o navegado para o teste, deixamos o comando abaixo rodando para acompanhar a criação dos Pods.
A opção -w ficará observando as mudanças (watching)

kubectl get deploy/app-tfd1 -w

image.png

  • Máximo de usuários simultâneos: 1000
  • Incremento de 10 em 10. 
  • Host: http://10.9.66.150 (serviço da aplicação de exemplo).

5) Resultados dos Testes (HPA)

A medida que as requisições começaram a demandar uso de CPU, superior ao estabelecidos no HPA, houve incremento de PODs. Ainda, 30 segundos após a finalização do teste de stress, a quantidade de PODs foi  reduzida gradualmente até o número mínimo definido no HPA.

image.png

image.png

Vertical Pod Autoscaler (VPA)

A seguir, vamos remover o HPA criado anteriormente e criar uma regra de VPA (Vertical Pod Autoscaler). O VPA irá monitora a utilização da CPU e Memória do nosso deployment app-tfd1. Porém, agora, ao invés de aumentar a quantidade de Pods, o VPA garantirá incremento de CPU e Memória aos 03 pods já existentes.

1) Excluir o HPA:

kubectl delete -f app-tfd1-hpa.yaml

2) Instalação os componentes do VPA:

Antes de criar objetos VPA, primeiro precisamos instalar o VPA em nosso cluster usando as etapas abaixo:

git clone https://github.com/kubernetes/autoscaler.git
cd autoscaler/vertical-pod-autoscaler
./hack/vpa-up.sh
cd ~/scaler
kubectl get pods -n kube-system | grep vpa

3) Especificações do VPA:

vi app-tfd1-vpa.yaml
apiVersion: "autoscaling.k8s.io/v1"  # Define a versão da API do VerticalPodAutoscaler
kind: VerticalPodAutoscaler          # Define o tipo de objeto: VerticalPodAutoscaler
metadata:
  name: app-tfd1-vpa                 # Define o nome do objeto VPA
spec:
  targetRef:
    apiVersion: "apps/v1"            # Define a versão da API do objeto alvo (Deployment)
    kind: Deployment                 # Define o tipo do objeto alvo (Deployment)
    name: app-tfd1                   # Define o nome do Deployment alvo
  updatePolicy:
    updateMode: Auto                 # Define o modo de atualização: automático (ajuste contínuo)
  resourcePolicy:
    containerPolicies:
    - containerName: '*'             # Aplica a política para todos os containers
      minAllowed:                    # Define os recursos mínimos permitidos
        cpu: 100m                    # Mínimo de CPU: 100 milicores
        memory: 50Mi                 # Memória mínima: 50 Megabytes
      maxAllowed:                    # Define os recursos máximos permitidos
        cpu: 200m                    # Máximo de CPU: 200 milicores
        memory: 500Mi                # Memória máxima: 500 Megabytes
      controlledResources: ["cpu", "memory"]  # Define os recursos a serem controlados (CPU e memória)

3) Aplicar as configurações do VPA:

kubectl apply -f app-tfd1-vpa.yaml

4) Verificar se o serviço do HPA está ativo e quanto de CPU e Memoria cada Pods do Deployment app-tfd1 estão consumindo de recursos:

kubectl get vpa
kubectl top pod

5) Resultados dos Testes (HPA)

A medida que as requisições começaram a demandar uso de CPU, superior ao estabelecidos no VPA, houve o ajuste automático do limite de uso de CPU e Memória.