dezembro 21, 2025
14 min de leitura

Perguntas para Entrevista de Engenheiro de Nuvem Sênior AWS: Guia Completo

interview
career-advice
job-search
Perguntas para Entrevista de Engenheiro de Nuvem Sênior AWS: Guia Completo
MB

Milad Bonakdar

Autor

Domine conceitos avançados da AWS com perguntas abrangentes para entrevistas, abrangendo design de arquitetura, escalonamento automático, rede avançada, otimização de custos e segurança para funções de engenheiro de nuvem sênior.


Introdução

Espera-se que engenheiros de nuvem AWS seniores projetem arquiteturas escaláveis, otimizem custos, implementem segurança avançada e resolvam desafios complexos na nuvem. Essa função exige profundo conhecimento dos serviços da AWS, melhores práticas de arquitetura e experiência prática com sistemas de produção.

Este guia aborda as principais perguntas de entrevista para engenheiros de nuvem AWS seniores, com foco em arquitetura, serviços avançados e soluções estratégicas de nuvem.


Arquitetura e Design

1. Projete um aplicativo web de várias camadas altamente disponível na AWS.

Resposta: Uma arquitetura de várias camadas pronta para produção requer redundância, escalabilidade e segurança:

Loading diagram...

Componentes Principais:

1. DNS e CDN:

# Route 53 para DNS com verificações de saúde
aws route53 create-health-check \
  --health-check-config IPAddress=203.0.113.1,Port=443,Type=HTTPS

# CloudFront para entrega de conteúdo global
aws cloudfront create-distribution \
  --origin-domain-name myapp.example.com

2. Balanceamento de Carga e Auto Scaling:

# Criar Application Load Balancer
aws elbv2 create-load-balancer \
  --name my-alb \
  --subnets subnet-12345 subnet-67890 \
  --security-groups sg-12345

# Criar Auto Scaling Group
aws autoscaling create-auto-scaling-group \
  --auto-scaling-group-name my-asg \
  --launch-template LaunchTemplateName=my-template \
  --min-size 2 \
  --max-size 10 \
  --desired-capacity 4 \
  --target-group-arns arn:aws:elasticloadbalancing:...

3. Banco de Dados e Caching:

  • RDS Multi-AZ para alta disponibilidade
  • Réplicas de leitura para escalabilidade de leitura
  • ElastiCache para caching de sessão/dados

Princípios de Design:

  • Implante em várias AZs
  • Use serviços gerenciados sempre que possível
  • Implemente auto scaling
  • Separe as camadas com grupos de segurança
  • Use S3 para conteúdo estático

Frequência: Muito Comum Dificuldade: Difícil


2. Explique o VPC Peering e quando usá-lo.

Resposta: VPC Peering conecta duas VPCs de forma privada usando a rede AWS.

Características:

  • Conectividade privada (sem internet)
  • Sem ponto único de falha
  • Sem gargalo de largura de banda
  • Suporta peering entre regiões
  • Não transitivo (A↔B, B↔C não significa A↔C)

Casos de Uso:

  • Conectar VPCs de produção e gerenciamento
  • Compartilhar recursos entre VPCs
  • Arquiteturas multi-conta
  • Conectividade de nuvem híbrida
# Criar conexão de peering de VPC
aws ec2 create-vpc-peering-connection \
  --vpc-id vpc-1a2b3c4d \
  --peer-vpc-id vpc-5e6f7g8h \
  --peer-region us-west-2

# Aceitar conexão de peering
aws ec2 accept-vpc-peering-connection \
  --vpc-peering-connection-id pcx-1234567890abcdef0

# Atualizar tabelas de rotas
aws ec2 create-route \
  --route-table-id rtb-12345 \
  --destination-cidr-block 10.1.0.0/16 \
  --vpc-peering-connection-id pcx-1234567890abcdef0

Alternativas:

  • Transit Gateway: Hub-and-spoke, roteamento transitivo
  • PrivateLink: Conectividade serviço a serviço
  • VPN: Conectividade criptografada

Frequência: Comum Dificuldade: Média


Computação Avançada

3. Como funciona o Auto Scaling e como você o otimiza?

Resposta: O Auto Scaling ajusta automaticamente a capacidade com base na demanda.

Políticas de Escalonamento:

1. Rastreamento de Alvo:

{
  "TargetValue": 70.0,
  "PredefinedMetricSpecification": {
    "PredefinedMetricType": "ASGAverageCPUUtilization"
  }
}

2. Escalonamento Step:

{
  "AdjustmentType": "PercentChangeInCapacity",
  "MetricAggregationType": "Average",
  "StepAdjustments": [
    {
      "MetricIntervalLowerBound": 0,
      "MetricIntervalUpperBound": 10,
      "ScalingAdjustment": 10
    },
    {
      "MetricIntervalLowerBound": 10,
      "ScalingAdjustment": 30
    }
  ]
}

3. Escalonamento Agendado:

aws autoscaling put-scheduled-update-group-action \
  --auto-scaling-group-name my-asg \
  --scheduled-action-name scale-up-morning \
  --recurrence "0 8 * * *" \
  --desired-capacity 10

Estratégias de Otimização:

  • Use o escalonamento preditivo para padrões conhecidos
  • Defina períodos de cooldown apropriados
  • Monitore as métricas de escalonamento
  • Use tipos de instância mistos
  • Implemente hooks de ciclo de vida para desligamento gracioso

Frequência: Muito Comum Dificuldade: Média-Difícil


Serverless e Serviços Avançados

4. Quando você usaria Lambda vs EC2?

Resposta: Escolha com base nas características da carga de trabalho:

Use Lambda quando:

  • Cargas de trabalho orientadas a eventos
  • Tarefas de curta duração (< 15 minutos)
  • Tráfego variável/imprevisível
  • Quer zero gerenciamento de servidor
  • Otimização de custos para uso esporádico

Use EC2 quando:

  • Processos de longa duração
  • Precisa de controle total do SO
  • Requisitos de software específicos
  • Carga alta consistente
  • Aplicações stateful

Exemplo Lambda:

import json
import boto3

def lambda_handler(event, context):
    """
    Processar evento de upload do S3
    """
    s3 = boto3.client('s3')
    
    # Obter bucket e chave do evento
    bucket = event['Records'][0]['s3']['bucket']['name']
    key = event['Records'][0]['s3']['object']['key']
    
    # Processar arquivo
    response = s3.get_object(Bucket=bucket, Key=key)
    content = response['Body'].read()
    
    # Fazer algo com o conteúdo
    process_data(content)
    
    return {
        'statusCode': 200,
        'body': json.dumps('Processamento completo')
    }

Comparação de Custos:

  • Lambda: Pague por solicitação + duração
  • EC2: Pague pelo tempo de atividade (mesmo ocioso)

Frequência: Comum Dificuldade: Média


Otimização de Custos

5. Como você otimiza os custos da AWS?

Resposta: A otimização de custos requer monitoramento e ajuste contínuos:

Estratégias:

1. Dimensionamento Correto:

# Usar AWS Compute Optimizer
aws compute-optimizer get-ec2-instance-recommendations \
  --instance-arns arn:aws:ec2:us-east-1:123456789012:instance/i-1234567890abcdef0

2. Reserved Instances e Savings Plans:

  • Compromissos de 1 ano ou 3 anos
  • Até 72% de economia vs on-demand
  • Use para cargas de trabalho previsíveis

3. Spot Instances:

# Iniciar instâncias spot
aws ec2 request-spot-instances \
  --spot-price "0.05" \
  --instance-count 5 \
  --type "one-time" \
  --launch-specification file://specification.json

4. Políticas de Ciclo de Vida do S3:

{
  "Rules": [
    {
      "Id": "Mover para IA após 30 dias",
      "Status": "Enabled",
      "Transitions": [
        {
          "Days": 30,
          "StorageClass": "STANDARD_IA"
        },
        {
          "Days": 90,
          "StorageClass": "GLACIER"
        }
      ]
    }
  ]
}

5. Auto Scaling:

  • Reduza a escala durante os horários de folga
  • Use o escalonamento preditivo

6. Monitoramento:

  • AWS Cost Explorer
  • Alertas de orçamento
  • Marque os recursos para alocação de custos

Frequência: Muito Comum Dificuldade: Média


Segurança e Compliance

6. Como você implementa defesa em profundidade na AWS?

Resposta: Abordagem de segurança multicamadas:

Camadas:

1. Segurança de Rede:

# VPC com sub-redes privadas
# Grupos de segurança (permitir apenas as portas necessárias)
# NACLs para controle em nível de sub-rede
# WAF para proteção de aplicações

# Exemplo: Restringir SSH apenas para o host bastion
aws ec2 authorize-security-group-ingress \
  --group-id sg-app-servers \
  --protocol tcp \
  --port 22 \
  --source-group sg-bastion

2. Identidade e Acesso:

{
  "Version": "2012-10-17",
  "Statement": [
    {
      "Effect": "Allow",
      "Action": "s3:GetObject",
      "Resource": "arn:aws:s3:::my-bucket/*",
      "Condition": {
        "IpAddress": {
          "aws:SourceIp": "203.0.113.0/24"
        }
      }
    }
  ]
}

3. Proteção de Dados:

  • Criptografia em repouso (KMS)
  • Criptografia em trânsito (TLS)
  • Políticas de bucket S3
  • Criptografia RDS

4. Monitoramento e Logging:

# Habilitar CloudTrail
aws cloudtrail create-trail \
  --name my-trail \
  --s3-bucket-name my-bucket

# Habilitar VPC Flow Logs
aws ec2 create-flow-logs \
  --resource-type VPC \
  --resource-ids vpc-12345 \
  --traffic-type ALL \
  --log-destination-type s3 \
  --log-destination arn:aws:s3:::my-bucket

5. Compliance:

  • AWS Config para monitoramento de compliance
  • Security Hub para descobertas centralizadas
  • GuardDuty para detecção de ameaças

Frequência: Muito Comum Dificuldade: Difícil


Serviços de Banco de Dados

7. Explique RDS Multi-AZ vs Read Replicas e quando usar cada um.

Resposta: Ambos fornecem redundância, mas servem a propósitos diferentes:

Implantação Multi-AZ:

  • Propósito: Alta disponibilidade e recuperação de desastres
  • Replicação síncrona para standby em diferentes AZ
  • Failover automático (1-2 minutos)
  • Mesmo endpoint após o failover
  • Nenhum benefício de desempenho para leituras
  • Dobra o custo (instância standby)
# Criar instância RDS Multi-AZ
aws rds create-db-instance \
  --db-instance-identifier mydb \
  --db-instance-class db.t3.medium \
  --engine postgres \
  --master-username admin \
  --master-user-password MyPassword123 \
  --allocated-storage 100 \
  --multi-az \
  --backup-retention-period 7

Read Replicas:

  • Propósito: Escalar operações de leitura
  • Replicação assíncrona
  • Múltiplas réplicas possíveis (até 15 para Aurora)
  • Endpoints diferentes para cada réplica
  • Pode estar em diferentes regiões
  • Pode ser promovido para DB standalone
# Criar réplica de leitura
aws rds create-db-instance-read-replica \
  --db-instance-identifier mydb-replica-1 \
  --source-db-instance-identifier mydb \
  --db-instance-class db.t3.medium \
  --availability-zone us-east-1b

# Promover réplica de leitura para standalone
aws rds promote-read-replica \
  --db-instance-identifier mydb-replica-1

Tabela de Comparação:

RecursoMulti-AZRead Replica
ReplicaçãoSíncronaAssíncrona
PropósitoHA/DREscalonamento de leitura
FailoverAutomáticoPromoção manual
EndpointMesmoDiferente
RegiõesMesma região apenasSuporte entre regiões
PerformanceSem benefício de leituraMelhora o desempenho de leitura
Caso de UsoBancos de dados de produçãoAnalytics, relatórios

Melhor Prática: Use ambos juntos

  • Multi-AZ para alta disponibilidade
  • Read replicas para escalonamento de leitura

Frequência: Muito Comum Dificuldade: Média-Difícil


8. Como você implementa a migração de banco de dados com tempo de inatividade mínimo?

Resposta: Estratégias de migração de banco de dados para sistemas de produção:

Estratégia 1: AWS DMS (Database Migration Service)

# Criar instância de replicação
aws dms create-replication-instance \
  --replication-instance-identifier my-replication-instance \
  --replication-instance-class dms.t3.medium \
  --allocated-storage 100

# Criar endpoint de origem
aws dms create-endpoint \
  --endpoint-identifier source-db \
  --endpoint-type source \
  --engine-name postgres \
  --server-name source-db.example.com \
  --port 5432 \
  --username admin \
  --password MyPassword123

# Criar endpoint de destino
aws dms create-endpoint \
  --endpoint-identifier target-db \
  --endpoint-type target \
  --engine-name aurora-postgresql \
  --server-name target-db.cluster-xxx.us-east-1.rds.amazonaws.com \
  --port 5432 \
  --username admin \
  --password MyPassword123

# Criar tarefa de migração
aws dms create-replication-task \
  --replication-task-identifier migration-task \
  --source-endpoint-arn arn:aws:dms:us-east-1:123456789012:endpoint:source-db \
  --target-endpoint-arn arn:aws:dms:us-east-1:123456789012:endpoint:target-db \
  --replication-instance-arn arn:aws:dms:us-east-1:123456789012:rep:my-replication-instance \
  --migration-type full-load-and-cdc \
  --table-mappings file://table-mappings.json

Fases de Migração:

1. Full Load:

  • Copiar dados existentes
  • Pode levar horas/dias
  • Aplicação ainda usa a origem

2. CDC (Change Data Capture):

  • Replicar alterações contínuas
  • Mantém o destino sincronizado
  • Lag mínimo (segundos)

3. Cutover:

# Script de cutover de migração
import boto3
import time

def perform_cutover():
    """
    Cutover para novo banco de dados com tempo de inatividade mínimo
    """
    # 1. Habilitar modo de manutenção
    enable_maintenance_mode()
    
    # 2. Esperar que o lag de replicação seja zero
    wait_for_replication_sync()
    
    # 3. Atualizar a configuração da aplicação
    update_database_endpoint(
        old_endpoint='source-db.example.com',
        new_endpoint='target-db.cluster-xxx.us-east-1.rds.amazonaws.com'
    )
    
    # 4. Reiniciar a aplicação
    restart_application()
    
    # 5. Verificar a conectividade
    verify_database_connection()
    
    # 6. Desabilitar o modo de manutenção
    disable_maintenance_mode()
    
    print("Cutover completo!")

def wait_for_replication_sync(max_lag_seconds=5):
    """Esperar que o lag de replicação seja mínimo"""
    dms = boto3.client('dms')
    
    while True:
        response = dms.describe_replication_tasks(
            Filters=[{'Name': 'replication-task-id', 'Values': ['migration-task']}]
        )
        
        lag = response['ReplicationTasks'][0]['ReplicationTaskStats']['FullLoadProgressPercent']
        
        if lag < max_lag_seconds:
            print(f"Lag de replicação: {lag}s - Pronto para cutover")
            break
        
        print(f"Lag de replicação: {lag}s - Esperando...")
        time.sleep(10)

Estratégia 2: Blue-Green Deployment

# Criar clone Aurora (instantâneo, copy-on-write)
aws rds restore-db-cluster-to-point-in-time \
  --source-db-cluster-identifier production-cluster \
  --db-cluster-identifier staging-cluster \
  --restore-type copy-on-write \
  --use-latest-restorable-time

# Testar no staging
# Quando pronto, trocar DNS/endpoints

Comparação de Downtime:

  • DMS: < 1 minuto (apenas cutover)
  • Blue-Green: < 30 segundos (troca de DNS)
  • Dump/restore tradicional: Horas a dias

Frequência: Comum Dificuldade: Difícil


Monitoramento e Troubleshooting

9. Como você soluciona problemas de altos custos da AWS?

Resposta: A otimização de custos requer análise sistemática:

Etapas de Investigação:

1. Use o Cost Explorer:

# Obter detalhamento de custos por serviço
aws ce get-cost-and-usage \
  --time-period Start=2024-11-01,End=2024-11-30 \
  --granularity MONTHLY \
  --metrics BlendedCost \
  --group-by Type=DIMENSION,Key=SERVICE

# Obter custo por tags de recursos
aws ce get-cost-and-usage \
  --time-period Start=2024-11-01,End=2024-11-30 \
  --granularity DAILY \
  --metrics BlendedCost \
  --group-by Type=TAG,Key=Environment

2. Identificar Anomalias de Custo:

import boto3
from datetime import datetime, timedelta

def analyze_cost_anomalies():
    """
    Identificar picos de custo incomuns
    """
    ce = boto3.client('ce')
    
    # Obter os últimos 30 dias de custos
    end_date = datetime.now()
    start_date = end_date - timedelta(days=30)
    
    response = ce.get_cost_and_usage(
        TimePeriod={
            'Start': start_date.strftime('%Y-%m-%d'),
            'End': end_date.strftime('%Y-%m-%d')
        },
        Granularity='DAILY',
        Metrics=['BlendedCost'],
        GroupBy=[{'Type': 'SERVICE', 'Key': 'SERVICE'}]
    )
    
    # Analisar cada serviço
    for result in response['ResultsByTime']:
        date = result['TimePeriod']['Start']
        for group in result['Groups']:
            service = group['Keys'][0]
            cost = float(group['Metrics']['BlendedCost']['Amount'])
            
            # Sinalizar custos > $100/dia
            if cost > 100:
                print(f"⚠️  {date}: {service} = ${cost:.2f}")
    
    return response

# Causadores comuns de custo
cost_culprits = {
    'EC2': [
        'Instâncias superdimensionadas',
        'Instâncias ociosas',
        'Volumes EBS não anexados',
        'Snapshots antigos'
    ],
    'RDS': [
        'Multi-AZ quando não necessário',
        'Instâncias superdimensionadas',
        'Retenção excessiva de backup'
    ],
    'S3': [
        'Classe de armazenamento errada',
        'Sem políticas de ciclo de vida',
        'Solicitações excessivas'
    ],
    'Data Transfer': [
        'Tráfego entre regiões',
        'Uso do NAT Gateway',
        'CloudFront não utilizado'
    ]
}

3. Script de Limpeza de Recursos:

#!/bin/bash
# Encontrar e relatar recursos não utilizados

echo "=== Volumes EBS não anexados ==="
aws ec2 describe-volumes \
  --filters Name=status,Values=available \
  --query 'Volumes[*].[VolumeId,Size,CreateTime]' \
  --output table

echo "=== Instâncias EC2 ociosas (< 5% CPU por 7 dias) ==="
# Use CloudWatch para identificar
aws cloudwatch get-metric-statistics \
  --namespace AWS/EC2 \
  --metric-name CPUUtilization \
  --dimensions Name=InstanceId,Value=i-1234567890abcdef0 \
  --start-time $(date -u -d '7 days ago' +%Y-%m-%dT%H:%M:%S) \
  --end-time $(date -u +%Y-%m-%dT%H:%M:%S) \
  --period 86400 \
  --statistics Average

echo "=== IPs Elásticos não anexados ==="
aws ec2 describe-addresses \
  --filters "Name=domain,Values=vpc" \
  --query 'Addresses[?AssociationId==null].[PublicIp,AllocationId]' \
  --output table

echo "=== Snapshots antigos (> 90 dias) ==="
aws ec2 describe-snapshots \
  --owner-ids self \
  --query 'Snapshots[?StartTime<=`'$(date -u -d '90 days ago' +%Y-%m-%d)'`].[SnapshotId,StartTime,VolumeSize]' \
  --output table

4. Configurar Alertas de Custo:

# Criar alerta de orçamento
aws budgets create-budget \
  --account-id 123456789012 \
  --budget file://budget.json \
  --notifications-with-subscribers file://notifications.json

# budget.json
{
  "BudgetName": "Monthly-Budget",
  "BudgetLimit": {
    "Amount": "1000",
    "Unit": "USD"
  },
  "TimeUnit": "MONTHLY",
  "BudgetType": "COST"
}

Ganhos Rápidos:

  • Excluir volumes EBS não anexados
  • Parar/encerrar instâncias EC2 ociosas
  • Usar S3 Intelligent-Tiering
  • Habilitar políticas de ciclo de vida do S3
  • Usar instâncias Spot para cargas de trabalho não críticas
  • Dimensionar corretamente as instâncias superprovisionadas

Frequência: Muito Comum Dificuldade: Média


Networking Avançado

10. Explique o AWS Transit Gateway e seus casos de uso.

Resposta: Transit Gateway é um serviço de topologia de rede hub-and-spoke que simplifica a arquitetura de rede.

Sem Transit Gateway:

Loading diagram...

Problema: Conexões N² (topologia de malha)

Com Transit Gateway:

Loading diagram...

Solução: Hub-and-spoke (conexões N)

Recursos Principais:

  • Roteamento transitivo: A→TGW→B→TGW→C funciona
  • Gerenciamento centralizado
  • Suporta até 5.000 VPCs
  • Peering entre regiões
  • Tabelas de rotas para controle de tráfego

Configuração:

# Criar Transit Gateway
aws ec2 create-transit-gateway \
  --description "Main Transit Gateway" \
  --options AmazonSideAsn=64512,AutoAcceptSharedAttachments=enable

# Anexar VPC
aws ec2 create-transit-gateway-vpc-attachment \
  --transit-gateway-id tgw-1234567890abcdef0 \
  --vpc-id vpc-1234567890abcdef0 \
  --subnet-ids subnet-1234567890abcdef0 subnet-0987654321fedcba0

# Criar rota na tabela de rotas da VPC
aws ec2 create-route \
  --route-table-id rtb-1234567890abcdef0 \
  --destination-cidr-block 10.0.0.0/8 \
  --transit-gateway-id tgw-1234567890abcdef0

# Criar tabela de rotas do Transit Gateway
aws ec2 create-transit-gateway-route-table \
  --transit-gateway-id tgw-1234567890abcdef0

# Adicionar rota
aws ec2 create-transit-gateway-route \
  --destination-cidr-block 10.1.0.0/16 \
  --transit-gateway-route-table-id tgw-rtb-1234567890abcdef0 \
  --transit-gateway-attachment-id tgw-attach-1234567890abcdef0

Casos de Uso:

1. Arquitetura Multi-VPC:

# Exemplo: Egress centralizado
vpc_architecture = {
    'production_vpcs': ['vpc-prod-1', 'vpc-prod-2', 'vpc-prod-3'],
    'shared_services': 'vpc-shared',  # NAT, proxies, etc.
    'on_premises': 'vpn-connection'
}

# Todas as VPCs de produção roteiam o tráfego da internet através da VPC de serviços compartilhados
# Controles de segurança centralizados, logging, NAT

2. Segmentação de Rede:

# Tabelas de rotas separadas para diferentes ambientes
# Produção não pode alcançar o desenvolvimento
# O desenvolvimento pode alcançar os serviços compartilhados

3. Conectividade Multi-Região:

# Criar Transit Gateway em us-east-1
aws ec2 create-transit-gateway --region us-east-1

# Criar Transit Gateway em eu-west-1
aws ec2 create-transit-gateway --region eu-west-1

# Emparelhá-los
aws ec2 create-transit-gateway-peering-attachment \
  --transit-gateway-id tgw-us-east-1 \
  --peer-transit-gateway-id tgw-eu-west-1 \
  --peer-region eu-west-1

Considerações de Custo:

  • $0,05/hora por anexo
  • $0,02/GB de dados processados
  • Pode ser caro em escala

Alternativas:

  • VPC Peering: Mais simples, mais barato para poucas VPCs
  • PrivateLink: Conectividade serviço a serviço
  • VPN: Conexões diretas

Frequência: Comum Dificuldade: Difícil


Conclusão

As entrevistas de engenheiro de nuvem AWS sênior exigem profundo conhecimento técnico e experiência prática. Concentre-se em:

  1. Arquitetura: Designs de várias camadas, alta disponibilidade, recuperação de desastres
  2. Networking Avançado: VPC peering, Transit Gateway, PrivateLink
  3. Computação: Otimização de Auto Scaling, decisões Lambda vs EC2
  4. Otimização de Custos: Dimensionamento correto, instâncias reservadas, políticas de ciclo de vida
  5. Segurança: Defesa em profundidade, melhores práticas de IAM, criptografia
  6. Excelência Operacional: Monitoramento, logging, automação

Demonstre experiência no mundo real com sistemas de produção, iniciativas de otimização de custos e implementações de segurança. Boa sorte!

Newsletter subscription

Dicas de carreira semanais que realmente funcionam

Receba as últimas ideias diretamente na sua caixa de entrada

Decorative doodle

Destaque-se para Recrutadores e Conquiste o Emprego dos Seus Sonhos

Junte-se a milhares que transformaram suas carreiras com currículos impulsionados por IA que passam no ATS e impressionam gerentes de contratação.

Comece a criar agora

Compartilhar esta publicação

Seja Contratado 50% Mais Rápido

Candidatos que usam currículos profissionais aprimorados por IA conseguem vagas em uma média de 5 semanas comparado às 10 padrão. Pare de esperar e comece a fazer entrevistas.