Perguntas de Entrevista para Cientista de Dados Sênior sobre ML, Produto e MLOps

Milad Bonakdar
Autor
Prepare-se para entrevistas sênior com perguntas práticas sobre tradeoffs de ML, engenharia de atributos, implantação, monitoramento, testes A/B e decisões de negócio.
Introdução
Em uma entrevista para cientista de dados sênior, prepare-se para explicar não só como os modelos funcionam, mas como você os escolhe, coloca em produção, monitora e comunica. Boas respostas conectam tradeoffs estatísticos a métricas de produto, qualidade dos dados, restrições de implantação e decisões das partes interessadas.
Use este guia para praticar os temas que costumam separar candidatos seniores de perfis intermediários: viés e variância, desenho de atributos, dados desbalanceados, monitoramento de modelos, testes A/B, MLOps e fundamentos de deep learning. Ao responder, acrescente um exemplo de projeto, o risco que você controlou e a métrica que acompanharia após o lançamento.
Aprendizado de Máquina Avançado (6 Perguntas)
1. Explique o tradeoff bias-variance.
Resposta: O tradeoff bias-variance descreve a relação entre a complexidade do modelo e o erro de previsão.
- Bias (Viés): Erro de simplificar demais as suposições (underfitting)
- Variance (Variância): Erro de sensibilidade às flutuações dos dados de treinamento (overfitting)
- Tradeoff: Diminuir o bias aumenta a variância e vice-versa
- Objetivo: Encontrar o equilíbrio ideal que minimize o erro total
Raridade: Muito Comum Dificuldade: Difícil
2. O que é regularização e explique a regularização L1 vs L2.
Resposta: A regularização adiciona um termo de penalidade à função de perda para evitar o overfitting.
- L1 (Lasso):
- Penalidade: Soma dos valores absolutos dos coeficientes
- Efeito: Modelos esparsos (alguns coeficientes tornam-se exatamente 0)
- Uso: Seleção de recursos
- L2 (Ridge):
- Penalidade: Soma dos coeficientes quadrados
- Efeito: Diminui os coeficientes em direção a 0 (mas não exatamente 0)
- Uso: Quando todos os recursos são potencialmente relevantes
- Elastic Net: Combina L1 e L2
Raridade: Muito Comum Dificuldade: Média
3. Explique os métodos de ensemble: Bagging vs Boosting.
Resposta: Os métodos de ensemble combinam vários modelos para melhorar o desempenho.
- Bagging (Bootstrap Aggregating):
- Treinar modelos em paralelo em subconjuntos aleatórios
- Reduz a variância
- Exemplo: Random Forest
- Boosting:
- Treinar modelos sequencialmente, cada um corrigindo erros anteriores
- Reduz o bias
- Exemplos: AdaBoost, Gradient Boosting, XGBoost
Raridade: Muito Comum Dificuldade: Difícil
4. O que é validação cruzada e por que o k-fold é melhor do que a divisão treino-teste?
Resposta: A validação cruzada avalia o desempenho do modelo de forma mais robusta do que uma única divisão treino-teste.
- K-Fold CV:
- Divide os dados em k folds
- Treina k vezes, cada vez usando um fold diferente como validação
- Calcula a média dos resultados
- Benefícios:
- Estimativa de desempenho mais confiável
- Usa todos os dados para treinamento e validação
- Reduz a variância na estimativa de desempenho
- Variações: Stratified K-Fold, Leave-One-Out, Time Series Split
Raridade: Muito Comum Dificuldade: Média
5. Explique as técnicas de redução de dimensionalidade (PCA, t-SNE).
Resposta: A redução de dimensionalidade reduz o número de recursos, preservando as informações.
- PCA (Principal Component Analysis):
- Transformação linear
- Encontra direções de máxima variância
- Preserva a estrutura global
- Rápido, interpretável
- t-SNE (t-Distributed Stochastic Neighbor Embedding):
- Transformação não linear
- Preserva a estrutura local
- Bom para visualização
- Mais lento, não para extração de recursos
Raridade: Comum Dificuldade: Difícil
6. O que é a curva ROC e AUC? Quando você a usaria?
Resposta: A curva ROC (Receiver Operating Characteristic) plota a taxa de verdadeiros positivos versus a taxa de falsos positivos em vários limiares.
- AUC (Area Under Curve): Métrica única que resume o ROC
- AUC = 1.0: Classificador perfeito
- AUC = 0.5: Classificador aleatório
- AUC < 0.5: Pior que aleatório
- Casos de uso:
- Comparar modelos
- Conjuntos de dados desequilibrados
- Quando você precisa escolher um limite
Raridade: Muito Comum Dificuldade: Média
Engenharia de Recursos (4 Perguntas)
7. Quais técnicas você usa para engenharia de recursos?
Resposta: A engenharia de recursos cria novos recursos a partir de dados existentes para melhorar o desempenho do modelo.
- Técnicas:
- Codificação: One-hot, label, target encoding
- Escalonamento: StandardScaler, MinMaxScaler
- Binning: Discretizar variáveis contínuas
- Recursos polinomiais: Termos de interação
- Específicos do domínio: Recursos de data, recursos de texto
- Agregações: Estatísticas de grupo
Raridade: Muito Comum Dificuldade: Média
8. Como você lida com conjuntos de dados desequilibrados?
Resposta: Conjuntos de dados desequilibrados têm distribuições de classe desiguais, o que pode influenciar os modelos.
- Técnicas:
- Reamostragem:
- Oversampling da classe minoritária (SMOTE)
- Undersampling da classe majoritária
- Pesos de classe: Penalizar a classificação incorreta da classe minoritária
- Métodos de ensemble: Random Forest balanceado
- Avaliação: Use precisão, recall, F1, não apenas precisão
- Detecção de anomalias: Tratar a minoria como anomalia
- Reamostragem:
Raridade: Muito Comum Dificuldade: Média
9. Explique as técnicas de seleção de recursos.
Resposta: A seleção de recursos identifica os recursos mais relevantes para a modelagem.
- Métodos:
- Métodos de filtro: Testes estatísticos (correlação, qui-quadrado)
- Métodos de wrapper: Eliminação recursiva de recursos (RFE)
- Métodos incorporados: Lasso, importância de recursos baseada em árvore
- Redução de dimensionalidade: PCA (diferente da seleção)
Raridade: Comum Dificuldade: Média
10. Como você lida com variáveis categóricas com alta cardinalidade?
Resposta: Variáveis categóricas de alta cardinalidade têm muitos valores únicos.
- Técnicas:
- Codificação de destino: Substituir pela média do destino
- Codificação de frequência: Substituir pela frequência
- Incorporação: Aprender representações densas (redes neurais)
- Agrupamento: Combinar categorias raras em "Outros"
- Hashing: Hash para número fixo de buckets
Raridade: Comum Dificuldade: Difícil
Implementação e Produção de Modelos (4 Perguntas)
11. Como você implementa um modelo de aprendizado de máquina em produção?
Resposta: A implementação de modelos torna os modelos disponíveis para uso no mundo real.
- Etapas:
- Serialização do modelo: Salvar o modelo (pickle, joblib, ONNX)
- Desenvolvimento de API: Criar API REST (Flask, FastAPI)
- Containerização: Docker para consistência
- Implementação: Plataformas de nuvem (AWS, GCP, Azure)
- Monitoramento: Rastrear desempenho, drift
- CI/CD: Testes e implementação automatizados
Raridade: Muito Comum Dificuldade: Difícil
12. O que é monitoramento de modelo e por que é importante?
Resposta: O monitoramento do modelo rastreia o desempenho do modelo em produção.
- O que monitorar:
- Métricas de desempenho: Precisão, precisão, recall
- Data Drift: Alterações na distribuição de entrada
- Concept Drift: Alterações na relação de destino
- Métricas do sistema: Latência, taxa de transferência, erros
- Ações:
- Alertas quando o desempenho se degrada
- Retreinar com novos dados
- Testes A/B de novos modelos
Raridade: Comum Dificuldade: Média
13. Explique o teste A/B no contexto do aprendizado de máquina.
Resposta: O teste A/B compara duas versões (controle versus tratamento) para determinar qual tem melhor desempenho.
- Processo:
- Dividir o tráfego aleatoriamente
- Servir modelos diferentes para cada grupo
- Coletar métricas
- Teste estatístico para determinar o vencedor
- Métricas: Taxa de conversão, receita, engajamento
- Testes estatísticos: teste t, qui-quadrado, métodos Bayesianos
Raridade: Comum Dificuldade: Difícil
14. O que é MLOps e por que é importante?
Resposta: MLOps (Machine Learning Operations) aplica princípios de DevOps a sistemas de ML.
- Componentes:
- Controle de versão: Código, dados, modelos
- Testes automatizados: Testes de unidade, integração, modelo
- Pipelines CI/CD: Implantação automatizada
- Monitoramento: Desempenho, detecção de drift
- Reprodutibilidade: Rastreamento de experimentos
- Ferramentas: MLflow, Kubeflow, DVC, Weights & Biases


