Interviewfragen für Senior Data Scientists zu ML, Produkt und MLOps

Milad Bonakdar
Autor
Bereiten Sie sich mit praxisnahen Fragen zu ML-Abwägungen, Feature Engineering, Modellbereitstellung, Monitoring, A/B-Tests und Stakeholder-Entscheidungen vor.
Einführung
Bereiten Sie sich für ein Senior-Data-Scientist-Interview nicht nur darauf vor, Modelle zu erklären, sondern auch, wie Sie sie auswählen, produktiv machen, überwachen und verständlich begründen. Starke Antworten verbinden statistische Abwägungen mit Produktmetriken, Datenqualität, Deployment-Grenzen und Stakeholder-Entscheidungen.
Nutzen Sie diesen Leitfaden, um die Themen zu üben, die Senior-Kandidaten oft von Mid-Level-Kandidaten unterscheiden: Bias und Varianz, Feature Design, unausgewogene Daten, Modellmonitoring, A/B-Tests, MLOps und Deep-Learning-Grundlagen. Ergänzen Sie Ihre Antworten mit einem kurzen Projektbeispiel, dem kontrollierten Risiko und der Metrik, die Sie nach dem Launch beobachten würden.
Fortgeschrittenes maschinelles Lernen (6 Fragen)
1. Erläutern Sie den Bias-Variance-Tradeoff.
Antwort: Der Bias-Variance-Tradeoff beschreibt die Beziehung zwischen Modellkomplexität und Vorhersagefehler.
- Bias (Verzerrung): Fehler durch zu vereinfachende Annahmen (Underfitting)
- Variance (Varianz): Fehler durch Empfindlichkeit gegenüber Schwankungen der Trainingsdaten (Overfitting)
- Tradeoff (Abwägung): Die Verringerung des Bias erhöht die Varianz und umgekehrt
- Ziel: Finden Sie ein optimales Gleichgewicht, das den Gesamtfehler minimiert
Seltenheit: Sehr häufig Schwierigkeit: Schwer
2. Was ist Regularisierung und erklären Sie L1- vs. L2-Regularisierung.
Antwort: Die Regularisierung fügt der Verlustfunktion einen Strafterm hinzu, um Overfitting zu verhindern.
- L1 (Lasso):
- Strafe: Summe der Absolutwerte der Koeffizienten
- Effekt: Sparse Modelle (einige Koeffizienten werden genau 0)
- Verwendung: Feature-Auswahl
- L2 (Ridge):
- Strafe: Summe der quadrierten Koeffizienten
- Effekt: Schrumpft Koeffizienten in Richtung 0 (aber nicht genau 0)
- Verwendung: Wenn alle Features potenziell relevant sind
- Elastic Net: Kombiniert L1 und L2
Seltenheit: Sehr häufig Schwierigkeit: Mittel
3. Erläutern Sie Ensemble-Methoden: Bagging vs. Boosting.
Antwort: Ensemble-Methoden kombinieren mehrere Modelle, um die Leistung zu verbessern.
- Bagging (Bootstrap Aggregating):
- Trainieren Sie Modelle parallel auf zufälligen Teilmengen
- Reduziert die Varianz
- Beispiel: Random Forest
- Boosting:
- Trainieren Sie Modelle sequenziell, wobei jedes vorherige Fehler korrigiert
- Reduziert den Bias
- Beispiele: AdaBoost, Gradient Boosting, XGBoost
Seltenheit: Sehr häufig Schwierigkeit: Schwer
4. Was ist Kreuzvalidierung und warum ist K-Fold besser als Train-Test-Split?
Antwort: Die Kreuzvalidierung bewertet die Modellleistung robuster als eine einzelne Train-Test-Aufteilung.
- K-Fold CV:
- Teilt die Daten in k Folds auf
- Trainiert k Mal, wobei jedes Mal ein anderer Fold als Validierung verwendet wird
- Mittelt die Ergebnisse
- Vorteile:
- Zuverlässigere Leistungsschätzung
- Verwendet alle Daten sowohl für das Training als auch für die Validierung
- Reduziert die Varianz in der Leistungsschätzung
- Variationen: Stratified K-Fold, Leave-One-Out, Time Series Split
Seltenheit: Sehr häufig Schwierigkeit: Mittel
5. Erläutern Sie Techniken zur Dimensionsreduktion (PCA, t-SNE).
Antwort: Die Dimensionsreduktion reduziert die Anzahl der Features unter Beibehaltung von Informationen.
- PCA (Principal Component Analysis):
- Lineare Transformation
- Findet Richtungen maximaler Varianz
- Bewahrt die globale Struktur
- Schnell, interpretierbar
- t-SNE (t-Distributed Stochastic Neighbor Embedding):
- Nichtlineare Transformation
- Bewahrt die lokale Struktur
- Gut zur Visualisierung
- Langsamer, nicht zur Feature-Extraktion
Seltenheit: Häufig Schwierigkeit: Schwer
6. Was ist die ROC-Kurve und AUC? Wann würden Sie sie verwenden?
Antwort: Die ROC-Kurve (Receiver Operating Characteristic) stellt die True Positive Rate vs. False Positive Rate bei verschiedenen Schwellenwerten dar.
- AUC (Area Under Curve): Einzelne Metrik, die ROC zusammenfasst
- AUC = 1.0: Perfekter Klassifikator
- AUC = 0.5: Zufälliger Klassifikator
- AUC < 0.5: Schlechter als zufällig
- Anwendungsfälle:
- Vergleich von Modellen
- Imbalancierte Datensätze
- Wenn Sie einen Schwellenwert auswählen müssen
Seltenheit: Sehr häufig Schwierigkeit: Mittel
Feature Engineering (4 Fragen)
7. Welche Techniken verwenden Sie für das Feature Engineering?
Antwort: Feature Engineering erstellt neue Features aus vorhandenen Daten, um die Modellleistung zu verbessern.
- Techniken:
- Codierung: One-Hot-, Label-, Zielcodierung
- Skalierung: StandardScaler, MinMaxScaler
- Binning: Diskretisieren Sie kontinuierliche Variablen
- Polynomielle Features: Interaktionsterme
- Domänenspezifisch: Datums-Features, Text-Features
- Aggregationen: Gruppenstatistiken
Seltenheit: Sehr häufig Schwierigkeit: Mittel
8. Wie gehen Sie mit imbalancierten Datensätzen um?
Antwort: Imbalancierte Datensätze weisen ungleiche Klassenverteilungen auf, die Modelle verzerren können.
- Techniken:
- Resampling:
- Oversampling der Minderheitsklasse (SMOTE)
- Undersampling der Mehrheitsklasse
- Klassengewichte: Bestrafen Sie die Fehlklassifizierung der Minderheitsklasse
- Ensemble-Methoden: Balanced Random Forest
- Bewertung: Verwenden Sie Präzision, Recall, F1, nicht nur Genauigkeit
- Anomalieerkennung: Behandeln Sie Minderheiten als Anomalie
- Resampling:
Seltenheit: Sehr häufig Schwierigkeit: Mittel
9. Erläutern Sie Techniken zur Feature-Auswahl.
Antwort: Die Feature-Auswahl identifiziert die relevantesten Features für die Modellierung.
- Methoden:
- Filtermethoden: Statistische Tests (Korrelation, Chi-Quadrat)
- Wrapper-Methoden: Rekursive Feature-Eliminierung (RFE)
- Eingebettete Methoden: Lasso, baumbasierte Feature-Wichtigkeit
- Dimensionsreduktion: PCA (unterscheidet sich von der Auswahl)
Seltenheit: Häufig Schwierigkeit: Mittel
10. Wie gehen Sie mit kategorialen Variablen mit hoher Kardinalität um?
Antwort: Kategoriale Variablen mit hoher Kardinalität haben viele eindeutige Werte.
- Techniken:
- Zielcodierung: Ersetzen Sie sie durch den Zielmittelwert
- Frequenzcodierung: Ersetzen Sie sie durch die Frequenz
- Embedding: Lernen Sie dichte Darstellungen (neuronale Netze)
- Gruppierung: Kombinieren Sie seltene Kategorien in "Sonstige"
- Hashing: Hashen Sie auf eine feste Anzahl von Buckets
Seltenheit: Häufig Schwierigkeit: Schwer
Modellbereitstellung und Produktion (4 Fragen)
11. Wie stellen Sie ein Machine-Learning-Modell in der Produktion bereit?
Antwort: Die Modellbereitstellung stellt Modelle für die reale Nutzung zur Verfügung.
- Schritte:
- Modellserialisierung: Speichern Sie das Modell (Pickle, Joblib, ONNX)
- API-Entwicklung: Erstellen Sie eine REST-API (Flask, FastAPI)
- Containerisierung: Docker für Konsistenz
- Bereitstellung: Cloud-Plattformen (AWS, GCP, Azure)
- Überwachung: Verfolgen Sie Leistung und Drift
- CI/CD: Automatisierte Tests und Bereitstellung
Seltenheit: Sehr häufig Schwierigkeit: Schwer
12. Was ist Modellüberwachung und warum ist sie wichtig?
Antwort: Die Modellüberwachung verfolgt die Modellleistung in der Produktion.
- Was ist zu überwachen:
- Leistungsmetriken: Genauigkeit, Präzision, Recall
- Datendrift: Änderungen der Eingabeverteilung
- Konzeptdrift: Änderungen der Zielbeziehung
- Systemmetriken: Latenz, Durchsatz, Fehler
- Aktionen:
- Benachrichtigungen bei Leistungsverschlechterung
- Retrain mit neuen Daten
- A/B-Tests neuer Modelle
Seltenheit: Häufig Schwierigkeit: Mittel
13. Erläutern Sie A/B-Tests im Kontext des maschinellen Lernens.
Antwort: A/B-Tests vergleichen zwei Versionen (Kontrolle vs. Behandlung), um festzustellen, welche besser abschneidet.
- Prozess:
- Teilen Sie den Datenverkehr zufällig auf
- Stellen Sie jeder Gruppe verschiedene Modelle bereit
- Sammeln Sie Metriken
- Statistischer Test zur Bestimmung des Gewinners
- Metriken: Konversionsrate, Umsatz, Engagement
- Statistische Tests: T-Test, Chi-Quadrat, Bayes'sche Methoden
Seltenheit: Häufig Schwierigkeit: Schwer
14. Was ist MLOps und warum ist es wichtig?
Antwort: MLOps (Machine Learning Operations) wendet DevOps-Prinzipien auf ML-Systeme an.
- Komponenten:
- Versionskontrolle: Code, Daten, Modelle
- Automatisierte Tests: Unit-, Integrations-, Modelltests
- CI/CD-Pipelines: Automatisierte Bereitstellung
- Überwachung: Leistung, Drifterkennung
- Reproduzierbarkeit: Experimentverfolgung
- Tools: MLflow, Kubeflow, DVC, Weights & Biases


