CC

Offizieller MLA-C01 Pr\u00FCfungsleitfaden

Pr\u00FCfungsformat, Bereiche und Vorbereitungstipps

AWS-zertifizierter Machine Learning-Ingenieur - Associate (MLA-C01) Prüfungsführer

Einführung

Die Prüfung AWS-zertifizierter Machine Learning-Ingenieur - Associate (MLA-C01) validiert die Fähigkeit eines Kandidaten, Machine Learning (ML)-Lösungen und -Pipelines im AWS Cloud-Umfeld zu erstellen, zu operationalisieren, bereitzustellen und zu warten.

Die Prüfung validiert auch die Fähigkeit eines Kandidaten, folgende Aufgaben auszuführen:

  • Daten für das ML-Modellieren eingeben, transformieren, validieren und vorbereiten.
  • Allgemeine Modellierungsansätze auswählen, Modelle trainieren, Hyperparameter abstimmen, Modellleistung analysieren und Modellversionen verwalten.
  • Bereitstellungsinfrastruktur und Endpunkte wählen, Rechenressourcen bereitstellen und die Skalierung entsprechend den Anforderungen konfigurieren.
  • Kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD)-Pipelines einrichten, um die Orchestrierung von ML-Arbeitsabläufen zu automatisieren.
  • Modelle, Daten und Infrastruktur überwachen, um Probleme zu erkennen.
  • ML-Systeme und -Ressourcen durch Zugriffskontrollen, Compliance-Funktionen und bewährte Vorgehensweisen absichern.

Beschreibung des Zielprofils

Der Zielkandidat sollte mindestens 1 Jahr Erfahrung mit der Verwendung von Amazon SageMaker und anderen AWS-Diensten für das ML-Engineering haben. Der Zielkandidat sollte auch mindestens 1 Jahr Erfahrung in einer verwandten Rolle wie einem Backend-Softwareentwickler, DevOps-Entwickler, Daten-Ingenieur oder Datenwissenschaftler haben.

Empfohlene allgemeine IT-Kenntnisse

Der Zielkandidat sollte über folgende allgemeine IT-Kenntnisse verfügen:

  • Grundlegendes Verständnis gängiger ML-Algorithmen und ihrer Anwendungsfälle
  • Grundlagen der Daten-Erfassung, einschließlich Kenntnisse gängiger Datenformate, Erfassung und Transformation für ML-Datenpipelines
  • Kenntnisse im Abfragen und Transformieren von Daten
  • Kenntnisse bewährter Software-Engineering-Praktiken für modulare, wiederverwendbare Codeentwicklung, -bereitstellung und -fehlersuche
  • Vertrautheit mit der Bereitstellung und Überwachung von Cloud- und lokalen ML-Ressourcen
  • Erfahrung mit CI/CD-Pipelines und Infrastructure as Code (IaC)
  • Erfahrung mit Codeaufbewahrungen für Versionskontrolle und CI/CD-Pipelines

Empfohlene AWS-Kenntnisse

Der Zielkandidat sollte über folgende AWS-Kenntnisse verfügen:

  • Kenntnisse der SageMaker-Funktionen und -Algorithmen für den Modellaufbau und die Modellbereitstellung
  • Kenntnisse der AWS-Datenspeicher- und -Verarbeitungsdienste zur Datenvorbereitung für das Modellieren
  • Vertrautheit mit der Bereitstellung von Anwendungen und Infrastrukturen auf AWS
  • Kenntnisse der Überwachungstools für das Protokollieren und Fehlerbeheben von ML-Systemen
  • Kenntnisse der AWS-Dienste für die Automatisierung und Orchestrierung von CI/CD-Pipelines
  • Verständnis bewährter AWS-Sicherheitspraktiken für Identitäts- und Zugriffsmanagement, Verschlüsselung und Datenschutz

Aufgaben, die nicht zum Profil des Zielprofils gehören

Die folgende Liste enthält Aufgaben, die der Zielkandidat voraussichtlich nicht erfüllen kann. Diese Liste ist nicht vollständig. Diese Aufgaben sind für die Prüfung nicht relevant:

  • Entwerfen und Konzipieren ganzheitlicher End-to-End-ML-Lösungen
  • Aufstellen bewährter Vorgehensweisen und Anleitung von ML-Strategien
  • Umgang mit der Integration einer Vielzahl von Diensten oder neuen Tools und Technologien
  • Tiefere Arbeit in zwei oder mehr ML-Domänen (z.B. Verarbeitung natürlicher Sprache [NLP], Computervision)
  • Modellquantisierung und Analyse der Auswirkungen auf die Genauigkeit

Weitere Informationen zu relevanten und nicht relevanten AWS-Diensten und -Funktionen finden Sie im Anhang.

Prüfungsinhalt

Fragetypen

Die Prüfung enthält einen oder mehrere der folgenden Fragetypen:

  • Einfachauswahl: Hat eine richtige Antwort und drei falsche Antworten (Ablenker).
  • Mehrfachauswahl: Hat zwei oder mehr richtige Antworten aus fünf oder mehr Antwortoptionen. Sie müssen alle richtigen Antworten auswählen, um die Frage richtig zu beantworten.
  • Sortierung: Enthält eine Liste von 3-5 Antworten, um eine bestimmte Aufgabe zu erfüllen. Sie müssen die richtigen Antworten auswählen und in der richtigen Reihenfolge anordnen, um die Frage richtig zu beantworten.
  • Zuordnung: Hat eine Liste von Antworten, die Sie 3-7 Aufforderungen zuordnen müssen. Sie müssen alle Paare richtig zuordnen, um die Frage richtig zu beantworten.
  • Fallstudie: Hat ein Szenario mit zwei oder mehr Fragen zu diesem Szenario. Das Szenario ist für jede Frage in der Fallstudie gleich. Jede Frage in der Fallstudie wird separat bewertet. Sie erhalten für jede Frage, die Sie in der Fallstudie richtig beantworten, Punkte.

Nicht beantwortete Fragen in der Prüfung werden als falsch gewertet. Es gibt keine Strafe für Raten. Die Prüfung enthält 50 Fragen, die in Ihre Bewertung einfließen.¹

Nicht bewerteter Inhalt

Die Prüfung enthält 15 nicht bewertete Fragen, die nicht in Ihre Bewertung einfließen. AWS sammelt Informationen zur Leistung bei diesen nicht bewerteten Fragen, um diese Fragen in Zukunft als bewertete Fragen zu verwenden. Diese nicht bewerteten Fragen sind in der Prüfung nicht gekennzeichnet.

¹ Gilt nicht für die Betaversion der Prüfung. Weitere Informationen zu Betaprüfungen finden Sie auf der AWS-Zertifizierungswebsite.

Prüfungsergebnisse

Bei der Prüfung "AWS-zertifizierter Machine Learning-Ingenieur - Associate (MLA-C01)" gibt es eine Bestehen- oder Nichtbestehen-Bewertung. Die Prüfung wird anhand eines Mindeststandards bewertet, der von AWS-Fachleuten festgelegt wird, die die besten Zertifizierungspraktiken und -richtlinien befolgen.

Ihre Ergebnisse für die Prüfung werden als skalierter Wert von 100-1.000 angegeben. Die Mindestbestandsnote beträgt 720. Ihre Punktzahl zeigt, wie Sie insgesamt in der Prüfung abgeschnitten haben und ob Sie bestanden haben. Skalierte Bewertungsmodelle helfen, Punktzahlen über mehrere Prüfungsformen hinweg anzugleichen, die möglicherweise leicht unterschiedliche Schwierigkeitsgrade haben.

Ihr Ergebnisbericht könnte eine Tabelle mit Einstufungen Ihrer Leistung auf Abschnittsebene enthalten. Die Prüfung verwendet ein kompensatorisches Bewertungsmodell, d.h. Sie müssen in jedem Abschnitt keine Mindestpunktzahl erreichen. Sie müssen nur die Gesamtprüfung bestehen.

Jeder Abschnitt der Prüfung hat ein bestimmtes Gewicht, so dass einige Abschnitte mehr Fragen haben als andere. Die Tabelle mit den Einstufungen enthält allgemeine Informationen, die Ihre Stärken und Schwächen hervorheben. Seien Sie bei der Interpretation von Rückmeldungen auf Abschnittsebene vorsichtig.

Gliederung des Inhalts

Dieser Prüfungsführer enthält Gewichtungen, Inhaltsbereiche und Aufgabenstellungen für die Prüfung. Dieser Leitfaden enthält keine umfassende Liste der Prüfungsinhalte. Es steht jedoch zusätzlicher Kontext für jede Aufgabenstellung zur Verfügung, um Sie bei der Prüfungsvorbereitung zu unterstützen.

Die Prüfung hat die folgenden Inhaltsbereiche und Gewichtungen:

  • Domäne 1: Datenvorbereitung für Machine Learning (ML) (28 % des bewerteten Inhalts)
  • Domäne 2: Entwicklung von ML-Modellen (26 % des bewerteten Inhalts)
  • Domäne 3: Bereitstellung und Orchestrierung von ML-Arbeitsabläufen (22 % des bewerteten Inhalts)
  • Domäne 4: Überwachung, Wartung und Sicherheit von ML-Lösungen (24 % des bewerteten Inhalts)

Domäne 1: Datenvorbereitung für Machine Learning (ML)

Aufgabenstellung 1.1: Daten erfassen und speichern.

Kenntnis von:

  • Datenformate und Erfassungsmechanismen (z.B. validierte und nicht validierte Formate, Apache Parquet, JSON, CSV, Apache ORC, Apache Avro, RecordIO)
  • Verwendung der wichtigsten AWS-Datenquellen (z.B. Amazon S3, Amazon Elastic File System [Amazon EFS], Amazon FSx für NetApp ONTAP)
  • Verwendung von AWS-Streaming-Datenquellen zum Erfassen von Daten (z.B. Amazon Kinesis, Apache Flink, Apache Kafka)
  • AWS-Speicheroptionen, einschließlich Anwendungsfälle und Kompromisse

Fähigkeiten in:

  • Extrahieren von Daten aus Speichern (z.B. Amazon S3, Amazon Elastic Block Store [Amazon EBS], Amazon EFS, Amazon RDS, Amazon DynamoDB) durch Verwendung relevanter AWS-Serviceoptionen (z.B. Amazon S3 Transfer Acceleration, Amazon EBS Provisioned IOPS)
  • Auswählen geeigneter Datenformate (z.B. Parquet, JSON, CSV, ORC) basierend auf Datenzugriffsmustern
  • Erfassen von Daten in Amazon SageMaker Data Wrangler und SageMaker Feature Store
  • Zusammenführen von Daten aus mehreren Quellen (z.B. durch Verwendung von Programmiertechniken, AWS Glue, Apache Spark)
  • Behandeln und Beheben von Problemen bei der Datenerfassung und -speicherung, die Kapazität und Skalierbarkeit betreffen
  • Treffen erster Speicherentscheidungen auf Basis von Kosten, Leistung und Datenstruktur

Aufgabenstellung 1.2: Daten transformieren und Feature Engineering durchführen.

Kenntnis von:

  • Techniken zur Datenbereinigung und -transformation (z.B. Erkennen und Behandeln von Ausreißern, Auffüllen fehlender Daten, Kombinieren, Deduplizieren)
  • Techniken des Feature Engineering (z.B. Datenskalierung und -standardisierung, Feature-Splitting, Binning, Logarithmentransformation, Normalisierung)
  • Codierungstechniken (z.B. One-Hot-Codierung, Binärcodierung, Label-Codierung, Tokenisierung)
  • Tools zum Erkunden, Visualisieren oder Transformieren von Daten und Features (z.B. SageMaker Data Wrangler, AWS Glue, AWS Glue DataBrew)
  • Dienste, die Streaming-Daten transformieren (z.B. AWS Lambda, Spark)
  • Datenannotations- und Beschriftungsdienste, die hochwertige beschriftete Datensätze erstellen

Fähigkeiten in:

  • Transformieren von Daten mit Hilfe von AWS-Tools (z.B. AWS Glue, AWS Glue DataBrew, Spark, der auf Amazon EMR läuft, SageMaker Data Wrangler)
  • Erstellen und Verwalten von Features mit Hilfe von AWS-Tools (z.B. SageMaker Feature Store)
  • Validieren und Beschriften von Daten mit Hilfe von AWS-Diensten (z.B. SageMaker Ground Truth, Amazon Mechanical Turk)

Aufgabenstellung 1.3: Datenintegrität sicherstellen und Daten für das Modellieren vorbereiten.

Kenntnis von:

  • Bias-Metriken vor dem Training für numerische, Text- und Bilddaten (z.B. Klassenungleichgewicht [CI], Unterschied im Anteil der Beschriftungen [DPL])
  • Strategien zur Behebung von CI in numerischen, Text- und Bilddatensätzen (z.B. Generieren von Synthetikdaten, Resampling)
  • Techniken zur Verschlüsselung von Daten
  • Dateneinstufung, Anonymisierung und Maskierung
  • Auswirkungen von Compliance-Anforderungen (z.B. personenbezogene Daten [PII], geschützte Gesundheitsinformationen [PHI], Datensitzung)

Fähigkeiten in:

  • Validierung der Datenqualität (z.B. mit Hilfe von AWS Glue DataBrew und AWS Glue Data Quality)
  • Erkennen und Mindern von Datenbias-Quellen (z.B. Auswahlverzerrung, Messverzerrung) durch Verwendung von AWS-Tools (z.B. SageMaker Clarify)
  • Vorbereiten von Daten zur Reduzierung von Vorhersageverzerrungen (z.B. durch Datensatzsplitting, Shuffling und Augmentierung)
  • Konfigurieren von Daten zum Laden in die Modelltrainingsfressource (z.B. Amazon EFS, Amazon FSx)

Domäne 2: Entwicklung von ML-Modellen

Aufgabenstellung 2.1: Einen Modellierungsansatz wählen.

Kenntnis von:

  • Fähigkeiten und geeignete Verwendung von ML-Algorithmen zur Lösung von Geschäftsproblemen
  • Verwendung von AWS-KI-Diensten (z.B. Amazon Translate, Amazon Transcribe, Amazon Rekognition, Amazon Bedrock) zur Lösung spezifischer Geschäftsprobleme
  • Berücksichtigung der Interpretierbarkeit bei der Modell- oder Algorithmenauswahl
  • SageMaker-integrierte Algorithmen und wann man sie anwenden sollte

Fähigkeiten in:

  • Bewertung der verfügbaren Daten und Komplexität des Problems, um die Machbarkeit einer ML-Lösung zu bestimmen
  • Vergleichen und Auswählen geeigneter ML-Modelle oder -Algorithmen zur Lösung spezifischer Probleme
  • Auswählen integrierter Algorithmen, Basismodelle und Lösungsvorlagen (z.B. in SageMaker JumpStart und Amazon Bedrock)
  • Auswählen von Modellen oder Algorithmen basierend auf Kosten
  • Auswählen von KI-Diensten zur Lösung gängiger Geschäftsanforderungen

Aufgabenstellung 2.2: Modelle trainieren und verfeinern.

Kenntnis von:

  • Elementen im Trainingsprozess (z.B. Epoche, Schritte, Batch-Größe)
  • Methoden zur Verkürzung der Modelltrainingszeit (z.B. frühes Stoppen, verteiltes Training)
  • Faktoren, die die Modellgröße beeinflussen
  • Methoden zur Verbesserung der Modellleistung
  • Vorteile von Regularisierungstechniken (z.B. Dropout, Gewichtsverfall, L1 und L2)
  • Hyperparameter-Abstimmungstechniken (z.B. zufällige Suche, Bayes-Optimierung)
  • Modellhyperparameter und ihre Auswirkungen auf die Modellleistung (z.B. Anzahl der Bäume in einem baumbasierten Modell, Anzahl der Schichten in einem neuronalen Netzwerk)
  • Methoden zur Integration von außerhalb von SageMaker erstellten Modellen in SageMaker

Fähigkeiten in:

  • Verwendung von SageMaker-integrierten Algorithmen und gängigen ML-Bibliotheken zur Entwicklung von ML-Modellen
  • Verwendung des SageMaker-Scriptmodus mit von SageMaker unterstützten Frameworks zum Trainieren von Modellen (z.B. TensorFlow, PyTorch)
  • Verwendung benutzerdefinierter Datensätze zum Feinabstimmen von Vortrainingsmodellen (z.B. Amazon Bedrock, SageMaker JumpStart)
  • Durchführen von Hyperparameter-Abstimmung (z.B. durch Verwendung der automatischen Modelleinstellung von SageMaker [AMT])
  • Integration automatisierter Hyperparameter-Optimierungsfunktionen
  • Verhindern von Überanpassung, Unteranpassung und katastrophaler Vergessenheit von Modellen (z.B. durch Verwendung von Regularisierungstechniken, Feature-Auswahl)
  • Kombinieren mehrerer Trainingsmodelle zur Leistungsverbesserung (z.B. Ensembling, Stacking, Boosting)
  • Reduzieren der Modellgröße (z.B. durch Ändern von Datentypen, Reduzieren, Aktualisieren der Feature-Auswahl, Kompression)
  • Verwalten von Modellversionen für Wiederholbarkeit und Prüfungsfähigkeit (z.B. durch Verwendung des SageMaker-Modellregisters)

Aufgabenstellung 2.3: Modellleistung analysieren.

Kenntnis von:

  • Modellbewertungstechniken und -metriken (z.B. Konfusionsmatrix, Heatmaps, F1-Score, Genauigkeit, Präzision, Trefferquote, Root Mean Square Error [RMSE], Receiver Operating Characteristic [ROC], Area Under the ROC Curve [AUC])
  • Methoden zum Erstellen von Leistungsgrundlagen
  • Methoden zum Erkennen von Überanpassung und Unteranpassung von Modellen
  • In SageMaker Clarify verfügbare Metriken, um Einblicke in ML-Trainingsdaten und -Modelle zu gewinnen
  • Konvergenzprobleme

Fähigkeiten in:

  • Auswählen und Interpretieren von Bewertungsmetriken und Erkennen von Modellverzerrungen
  • Abwägen zwischen Modellleistung, Trainingszeit und Kosten
  • Durchführen reproduzierbarer Experimente unter Verwendung von AWS-Diensten
  • Vergleichen der Leistung einer Shadow-Variante mit der Leistung einer Produktionsvariante
  • Verwendung von SageMaker Clarify zur Interpretation von Modellausgaben
  • Verwendung von SageMaker Model Debugger zum Debuggen der Modellkonvergenz

Domäne 3: Bereitstellung und Orchestrierung von ML-Arbeitsabläufen

Aufgabenstellung 3.1: Infrastruktur für die Bereitstellung auswählen, basierend auf der bestehenden Architektur und den Anforderungen.

Kenntnis von:

  • Bewährte Verfahren für die Bereitstellung (z.B. Versionierung, Rollback-Strategien)
  • AWS-Bereitstellungsdienste (z.B. SageMaker)
  • Methoden zum Bereitstellen von ML-Modellen in Echtzeit und in Batches
  • Bereitstellung von Rechenressourcen in Produktions- und Testumgebungen (z.B. CPU, GPU)
  • Modell- und Endpunktanforderungen für Bereitstellungsendpunkte (z.B. serverlose Endpunkte, Echtzeitendpunkte, asynchrone Endpunkte, Batch-Inferenz)
  • Auswahl geeigneter Container (z.B. bereitgestellte oder benutzerdefinierte)
  • Methoden zur Optimierung von Modellen auf Edge-Geräten (z.B. SageMaker Neo)

Fähigkeiten in:

  • Bewertung von Leistungs-, Kosten- und Latenz-Kompromissen
  • Auswählen der richtigen Rechenumgebung für Training und Inferenz auf Basis der Anforderungen (z.B. GPU- oder CPU-Spezifikationen, Prozessorfamilie, Netzwerkbandbreite)
  • Auswählen des richtigen Bereitstellungsorchestrierungssystems (z.B. Apache Airflow, SageMaker Pipelines)
  • Auswählen von Mehrmodell- oder Mehrcontainer-Bereitstellungen
  • Auswählen des richtigen Bereitstellungsziels (z.B. SageMaker-Endpunkte, Kubernetes, Amazon Elastic Container Service [Amazon ECS], Amazon Elastic Kubernetes Service [Amazon EKS], Lambda)
  • Auswählen von Modellbereitstellungsstrategien (z.B. Echtzeit, Batch)

Aufgabenstellung 3.2: Infrastruktur erstellen und skripten, basierend auf der bestehenden Architektur und den Anforderungen.

Kenntnis von:

  • Unterschied zwischen bedarfsgesteuerten und bereitgestellten Ressourcen
  • Vergleich von Skalierungsrichtlinien
  • Kompromisse und Anwendungsfälle von Infrastructure as Code (IaC)-Optionen (z.B. AWS CloudFormation, AWS Cloud Development Kit [AWS CDK])
  • Containerisierungskonzepte und AWS-Containerdienste
  • Verwendung von SageMaker-Endpoint-Autoskalierungsrichtlinien, um Skalierbarkeitsanforderungen zu erfüllen (z.B. basierend auf Nachfrage, Zeit)

Fähigkeiten in:

  • Anwendung bewährter Verfahren zur Ermöglichung wartbarer, skalierbarer und kosteneffizienter ML-Lösungen (z.B. automatische Skalierung auf SageMaker-Endpunkten, dynamisches Hinzufügen von Spot-Instanzen, unter Verwendung von Amazon EC2-Instanzen, unter Verwendung von Lambda hinter den Endpunkten)
  • Automatisieren der Bereitstellung von Rechenressourcen, einschließlich Kommunikation zwischen Stacks (z.B. durch Verwendung von CloudFormation, AWS CDK)
  • Erstellen und Warten von Containern (z.B. Amazon Elastic Container Registry [Amazon ECR], Amazon EKS, Amazon ECS, durch Verwendung von Bring Your Own Container [BYOC] mit SageMaker)
  • Konfigurieren von SageMaker-Endpunkten innerhalb des VPC-Netzwerks
  • Bereitstellen und Hosten von Modellen mithilfe des SageMaker-SDK
  • Auswählen bestimmter Metriken für die automatische Skalierung (z.B. Modelllatenz, CPU-Auslastung, Aufrufe pro Instanz)

Aufgabenstellung 3.3: Automatisierte Orchestrierungstools verwenden, um kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD)-Pipelines einzurichten.

Kenntnis von:

  • Fähigkeiten und Kontingente für AWS CodePipeline, AWS CodeBuild und AWS CodeDeploy
  • Automatisierung und Integration der Datenerfassung mit Orchestrierungsdiensten
  • Versionskontrollsysteme und grundlegende Verwendung (z.B. Git)
  • CI/CD-Prinzipien und wie sie in ML-Workflows passen
  • Bereitstellungsstrategien und Rückgängigmachung von Aktionen (z.B. Blau/Grün, Kanarienvogel, linear)
  • Wie Codeaufbewahrungen und Pipelines zusammenarbeiten

Fähigkeiten in:

  • Konfigurieren und Behandeln von Problemen mit CodeBuild, CodeDeploy und CodePipeline, einschließlich Stufen
  • Anwenden kontinuierlicher Bereitstellungsflussstrukturen zum Aufrufen von Pipelines (z.B. Gitflow, GitHub Flow)
  • Verwendung von AWS-Diensten zur Automatisierung der Orchestrierung (z.B. zum Bereitstellen von ML-Modellen, Automatisieren des Modellaufbaus)
  • Konfigurieren von Training und Inferenz-Jobs (z.B. durch Verwendung von Amazon EventBridge-Regeln, SageMaker Pipelines, CodePipeline)
  • Erstellen automatisierter Tests in CI/CD-Pipelines (z.B. Integrationstests, Komponententests, End-to-End-Tests)
  • Erstellen und Integrieren von Mechanismen zum erneuten Trainieren von Modellen

Domäne 4: Überwachung, Wartung und Sicherheit von ML-Lösungen

Aufgabenstellung 4.1: Modell-Inferenz überwachen.

Kenntnis von:

  • Drift in ML-Modellen
  • Techniken zur Überwachung der Datenqualität und Modellleistung
  • Designprinzipien für ML-Linsen, die für die Überwachung relevant sind

Fähigkeiten in:

  • Überwachen von Modellen in der Produktion (z.B. durch Verwendung von SageMaker Model Monitor)
  • Überwachen von Arbeitsabläufen, um Anomalien oder Fehler in der Datenverarbeitung oder Modellinferenz zu erkennen
  • Erkennen von Änderungen in der Datenverteilung, die die Modellleistung beeinflussen können (z.B. durch Verwendung von SageMaker Clarify)
  • Überwachen der Modellleistung in der Produktion durch Verwendung von A/B-Tests

Aufgabenstellung 4.2: Infrastruktur und Kosten überwachen und optimieren.

Kenntnis von:

  • Wichtige Leistungskennzahlen für ML-Infrastruktur (z.B. Auslastung, Durchsatz, Verfügbarkeit, Skalierbarkeit, Fehlertoleranz)
  • Überwachungs- und Observabilitätstools zur Behebung von Latenz- und Leistungsproblemen (z.B. AWS X-Ray, Amazon CloudWatch Lambda Insights, Amazon CloudWatch Logs Insights)
  • Verwendung von AWS CloudTrail zum Protokollieren, Überwachen und Auslösen von Wiedertrainingaktivitäten
  • Unterschiede zwischen Instanztypen und deren Auswirkungen auf die Leistung (z.B. speicheroptimiert, rechenoptimiert, allgemein einsetzbar, inferenzoptimiert)
  • Fähigkeiten von Kostenanalysetools (z.B. AWS Cost Explorer, AWS Billing and Cost Management, AWS Trusted Advisor)
  • Techniken zur Kostenverfolgung und -zuordnung (z.B. Ressourcen-Tagging)

Fähigkeiten in:

  • Konfigurieren und Verwenden von Tools zur Fehlersuche und Analyse von Ressourcen (z.B. CloudWatch Logs, CloudWatch-Alarme)
  • Erstellen von CloudTrail-Trails
  • Einrichten von Dashboards zur Überwachung von Leistungskennzahlen (z.B. unter Verwendung von Amazon QuickSight, CloudWatch-Dashboards)
  • Überwachen der Infrastruktur (z.B. durch Verwendung von EventBridge-Ereignissen)
  • Anpassen von Instanzfamilien und -größen (z.B. durch Verwendung von SageMaker Inference Recommender und AWS Compute Optimizer)
  • Überwachen und Beheben von Latenz- und Skalierungsproblemen
  • Vorbereiten der Infrastruktur für die Kostenverfolgung (z.B. durch Anwenden einer Tagging-Strategie)
  • Behandeln von Kapazitätsanliegen, die Kosten und Leistung betreffen (z.B. bereitgestellte Nebenläufigkeit, Dienstkontingente, automatische Skalierung)
  • Optimieren von Kosten und Festlegen von Kostenbudgets durch Verwendung geeigneter Kostenmanagement-Tools (z.B. AWS Cost Explorer, AWS Trusted Advisor, AWS Budgets)
  • Optimieren der Infrastrukturkosten durch Auswahl von Kaufoptionen (z.B. Spot-Instanzen, On-Demand-Instanzen, reservierte Instanzen, SageMaker-Sparoptionen)

Aufgabenstellung 4.3: AWS-Ressourcen absichern.

Kenntnis von:

  • IAM-Rollen, -Richtlinien und -Gruppen, die den Zugriff auf AWS-Dienste steuern (z.B. AWS Identity and Access Management [IAM], Bucket-Richtlinien, SageMaker Role Manager)
  • SageMaker-