CC

Offizieller DEA-C01 Pr\u00FCfungsleitfaden

Pr\u00FCfungsformat, Bereiche und Vorbereitungstipps

AWS Certified Data Engineer - Associate (DEA-C01) Prüfungsanleitung

Version 1.0 DEA-C01

Einleitung

Die AWS Certified Data Engineer - Associate (DEA-C01) Prüfung validiert die Fähigkeit eines Kandidaten, Datenpipelines zu implementieren und Leistungsengpässe sowie Kostenfragen entsprechend den Best Practices zu überwachen, zu beheben und zu optimieren.

Die Prüfung validiert auch die Fähigkeit eines Kandidaten, die folgenden Aufgaben auszuführen:

  • Daten einlesen und transformieren sowie Datenpipelines orchestrieren unter Anwendung von Programmierkenntnissen.
  • Einen optimalen Datenspeicher auswählen, Datenmodelle entwerfen, Datenschemas katalogisieren und Datenlebenszyklen verwalten.
  • Datenpipelines operationalisieren, warten und überwachen. Daten analysieren und Datenqualität sicherstellen.
  • Geeignete Authentifizierung, Autorisierung, Datenverschlüsselung, Datenschutz und Governance implementieren. Protokollierung aktivieren.

Beschreibung des Zielprofils des Kandidaten

Der Ziellkandidat sollte über die Erfahrung eines Data Engineers mit 2-3 Jahren Berufserfahrung verfügen. Der Ziellkandidat sollte die Auswirkungen von Volumen, Vielfalt und Geschwindigkeit auf das Einlesen, die Transformation, Modellierung, Sicherheit, Governance, den Datenschutz, das Schemadesign und das optimale Design des Datenspeichers verstehen. Außerdem sollte der Ziellkandidat mindestens 1-2 Jahre praktische Erfahrung mit AWS-Diensten haben.

Empfohlenes allgemeines IT-Wissen

Der Ziellkandidat sollte über folgendes allgemeine IT-Wissen verfügen:

  • Einrichtung und Wartung von Extract, Transform, und Load (ETL)-Pipelines vom Einlesen bis zum Ziel
  • Anwendung allgemeiner, aber sprachunabhängiger Programmierkenntnisse, wie sie für die Pipeline erforderlich sind
  • Verwendung von Git-Befehlen für die Versionskontrolle
  • Verwendung von Data Lakes zum Speichern von Daten
  • Allgemeine Konzepte für Netzwerke, Speicherung und Rechenleistung

Empfohlenes AWS-Wissen

Der Ziellkandidat sollte über folgendes AWS-Wissen verfügen:

  • Verwendung von AWS-Diensten, um die in der Einleitung dieser Prüfungsanleitung aufgeführten Aufgaben zu erfüllen
  • Verständnis der AWS-Dienste für Verschlüsselung, Governance, Schutz und Protokollierung aller Daten, die Teil von Datenpipelines sind
  • Fähigkeit, AWS-Dienste zu vergleichen, um Kosten-, Leistungs- und funktionale Unterschiede zwischen Diensten zu verstehen
  • Strukturierung und Ausführung von SQL-Abfragen auf AWS-Diensten
  • Verständnis der Analyse von Daten, der Überprüfung der Datenqualität und der Sicherstellung der Datenkonsistenz mit Hilfe von AWS-Diensten

Aufgaben, die außerhalb des Geltungsbereichs des Zielprofils des Kandidaten liegen

Die folgende Liste enthält Aufgaben, die vom Ziellkandidat nicht erwartet werden. Diese Liste ist nicht erschöpfend. Diese Aufgaben liegen außerhalb des Geltungsbereichs der Prüfung:

  • Durchführung von künstlicher Intelligenz und maschinellem Lernen (KI/ML)-Aufgaben.
  • Demonstration von Kenntnissen in der spezifischen Syntax von Programmiersprachen.
  • Ableitung von Geschäftsschlüssen aus Daten.

Eine Liste der im Geltungsbereich liegenden und der außerhalb des Geltungsbereichs liegenden AWS-Dienste und -Funktionen finden Sie im Anhang.

Prüfungsinhalt

Antworttypen

Es gibt zwei Arten von Fragen in der Prüfung:

  • Multiple Choice: Mit einer richtigen Antwort und drei falschen Antworten (Ablenker)
  • Multiple Response: Mit zwei oder mehr richtigen Antworten aus fünf oder mehr Antwortoptionen

Wählen Sie eine oder mehrere Antworten aus, die die Aussage am besten vervollständigen oder die Frage am besten beantworten. Ablenker sind falsche Antwortoptionen, die ein Kandidat mit unvollständigem Wissen oder Können auswählen könnte. Ablenker sind in der Regel plausible Antworten, die dem Prüfungsinhalt entsprechen.

Unbeantwortet gelassene Fragen werden als falsch gewertet; es gibt keine Strafe für Raten. Die Prüfung umfasst 50 Fragen, die in die Bewertung einfließen.

Nicht gewertete Inhalte

Die Prüfung umfasst 15 nicht gewertete Fragen, die nicht in die Bewertung einfließen. AWS sammelt Informationen zur Leistung bei diesen nicht bewerteten Fragen, um diese Fragen für den zukünftigen Einsatz als Prüfungsfragen zu evaluieren. Diese nicht bewerteten Fragen werden in der Prüfung nicht gekennzeichnet.

Prüfungsergebnisse

Die AWS Certified Data Engineer - Associate (DEA-C01) Prüfung hat eine Bestehen-Nicht-Bestehen-Kennzeichnung. Die Prüfung wird gegen einen von AWS-Fachleuten festgelegten Mindeststandard bewertet, der Zertifizierungsbranchenstandards und -richtlinien folgt.

Ihre Ergebnisse für die Prüfung werden als skalierte Punktzahl von 100 bis 1.000 angegeben. Die Mindestbestehensgrenze liegt bei 720 Punkten. Ihre Punktzahl zeigt, wie Sie insgesamt in der Prüfung abgeschnitten haben und ob Sie bestanden haben. Skalierte Bewertungsmodelle helfen, Punktzahlen über mehrere Prüfungsformen hinweg, die möglicherweise leicht unterschiedliche Schwierigkeitsgrade haben, zu vergleichen.

Ihr Ergebnisbericht könnte eine Tabelle mit Leistungsklassifizierungen auf Abschnittsebene enthalten. Die Prüfung verwendet ein kompensatorisches Bewertungsmodell, d.h. Sie müssen in jedem Abschnitt keine Mindestpunktzahl erreichen. Sie müssen nur die gesamte Prüfung bestehen.

Jeder Abschnitt der Prüfung hat eine spezielle Gewichtung, so dass einige Abschnitte mehr Fragen haben als andere. Die Tabelle mit den Leistungsklassifizierungen enthält allgemeine Informationen, die Ihre Stärken und Schwächen hervorheben. Interpretieren Sie Rückmeldungen auf Abschnittsebene mit Vorsicht.

Prüfungsübersicht

Diese Prüfungsanleitung enthält Gewichtungen, Inhaltsbereiche und Aufgabenbeschreibungen für die Prüfung. Diese Anleitung enthält keine vollständige Liste der Inhalte der Prüfung. Es ist jedoch zusätzlicher Kontext für jede Aufgabenbeschreibung verfügbar, um Ihnen bei der Vorbereitung auf die Prüfung zu helfen.

Die Prüfung hat die folgenden Inhaltsbereiche und Gewichtungen:

  • Bereich 1: Dateneinspeisung und -transformation (34% des gewerteten Inhalts)
  • Bereich 2: Datenspeicherverwaltung (26% des gewerteten Inhalts)
  • Bereich 3: Datenoperationen und -unterstützung (22% des gewerteten Inhalts)
  • Bereich 4: Datensicherheit und -governance (18% des gewerteten Inhalts)

Bereich 1: Dateneinspeisung und -transformation

Aufgabenbeschreibung 1.1: Dateneinspeisung durchführen.

Kenntnisse in:

  • Durchsatz- und Latenzmerkmalen für AWS-Dienste, die Daten einspeisen
  • Mustern der Dateneinspeisung (z.B. Häufigkeit und Datenverlauf)
  • Streaming-Dateneinspeisung
  • Batch-Dateneinspeisung (z.B. geplante Einspeisung, ereignisgesteuerte Einspeisung)
  • Wiedergabefähigkeit von Dateneinspeisung-Pipelines
  • Zustandsbehafteten und zustandsfreien Datentransaktionen

Fähigkeiten in:

  • Lesen von Daten aus Streaming-Quellen (z.B. Amazon Kinesis, Amazon Managed Streaming for Apache Kafka [Amazon MSK], Amazon DynamoDB Streams, AWS Database Migration Service [AWS DMS], AWS Glue, Amazon Redshift)
  • Lesen von Daten aus Batch-Quellen (z.B. Amazon S3, AWS Glue, Amazon EMR, AWS DMS, Amazon Redshift, AWS Lambda, Amazon AppFlow)
  • Implementierung geeigneter Konfigurationsoptionen für Batch-Einspeisung
  • Nutzen von Daten-APIs
  • Einrichten von Schedulern mit Amazon EventBridge, Apache Airflow oder zeitbasierten Zeitplänen für Jobs und Crawler
  • Einrichten von Ereignistriggers (z.B. Amazon S3-Ereignisbenachrichtigungen, EventBridge)
  • Aufruf einer Lambda-Funktion aus Amazon Kinesis
  • Erstellen von Allowlists für IP-Adressen, um Verbindungen zu Datenquellen zuzulassen
  • Implementierung von Drosselung und Überwindung von Ratenbegrenzungen (z.B. DynamoDB, Amazon RDS, Kinesis)
  • Verwaltung von Fan-In und Fan-Out für die Verteilung von Streaming-Daten

Aufgabenbeschreibung 1.2: Daten transformieren und verarbeiten.

Kenntnisse in:

  • Erstellung von ETL-Pipelines basierend auf Geschäftsanforderungen
  • Volumen, Geschwindigkeit und Vielfalt von Daten (z.B. strukturierte Daten, unstrukturierte Daten)
  • Cloud Computing und verteiltem Computing
  • Verwendung von Apache Spark zur Datenverarbeitung
  • Zwischenspeicherorten für Daten

Fähigkeiten in:

  • Optimierung des Containerverbrauchs für Leistungsanforderungen (z.B. Amazon Elastic Kubernetes Service [Amazon EKS], Amazon Elastic Container Service [Amazon ECS])
  • Verbindung zu verschiedenen Datenquellen (z.B. Java Database Connectivity [JDBC], Open Database Connectivity [ODBC])
  • Integration von Daten aus mehreren Quellen
  • Optimierung der Kosten bei der Datenverarbeitung
  • Implementierung von Datentransformationsdiensten basierend auf Anforderungen (z.B. Amazon EMR, AWS Glue, Lambda, Amazon Redshift)
  • Transformation von Daten zwischen Formaten (z.B. von .csv zu Apache Parquet)
  • Fehlerbehebung und Debuggen von häufigen Transformationsfehlern und Leistungsproblemen
  • Erstellung von Daten-APIs, um Daten für andere Systeme verfügbar zu machen, unter Verwendung von AWS-Diensten

Aufgabenbeschreibung 1.3: Datenpipelines orchestrieren.

Kenntnisse in:

  • Integration verschiedener AWS-Dienste zur Erstellung von ETL-Pipelines
  • Ereignisgesteuerter Architektur
  • Konfiguration von AWS-Diensten für Datenpipelines basierend auf Zeitplänen oder Abhängigkeiten
  • Serverlose Workflows

Fähigkeiten in:

  • Verwendung von Orchestrierungsdiensten zum Aufbau von Workflows für Daten-ETL-Pipelines (z.B. Lambda, EventBridge, Amazon Managed Workflows for Apache Airflow [Amazon MWAA], AWS Step Functions, AWS Glue Workflows)
  • Aufbau von Datenpipelines für Leistung, Verfügbarkeit, Skalierbarkeit, Belastbarkeit und Fehlertoleranz
  • Implementierung und Wartung serverloser Workflows
  • Verwendung von Benachrichtigungsdiensten zum Senden von Warnungen (z.B. Amazon Simple Notification Service [Amazon SNS], Amazon Simple Queue Service [Amazon SQS])

Aufgabenbeschreibung 1.4: Programmierkenntnisse anwenden.

Kenntnisse in:

  • Continuous Integration und Continuous Delivery (CI/CD) (Implementierung, Testen und Bereitstellung von Datenpipelines)
  • SQL-Abfragen (für Abfragen von Datenquellen und Datentransformationen)
  • Infrastructure as Code (IaC) für wiederholbare Bereitstellungen (z.B. AWS Cloud Development Kit [AWS CDK], AWS CloudFormation)
  • Verteiltem Computing
  • Datenstrukturen und Algorithmen (z.B. Graphdatenstrukturen und Baumstrukturen)
  • SQL-Abfrageoptimierung

Fähigkeiten in:

  • Optimierung des Codes zur Reduzierung der Laufzeit für Dateneinspeisung und -transformation
  • Konfiguration von Lambda-Funktionen, um Nebenläufigkeit und Leistung zu erfüllen
  • Durchführung von SQL-Abfragen zur Transformation von Daten (z.B. gespeicherte Prozeduren in Amazon Redshift)
  • Strukturierung von SQL-Abfragen, um Datenpipelineanforderungen zu erfüllen
  • Verwendung von Git-Befehlen zum Ausführen von Aktionen wie Erstellen, Aktualisieren, Klonen und Verzweigen von Repositorys
  • Verwendung des AWS Serverless Application Model (AWS SAM) zum Packen und Bereitstellen serverloser Datenpipelines (z.B. Lambda-Funktionen, Step Functions, DynamoDB-Tabellen)
  • Verwendung und Einbinden von Speichervolumen innerhalb von Lambda-Funktionen

Bereich 2: Datenspeicherverwaltung

Aufgabenbeschreibung 2.1: Einen Datenspeicher auswählen.

Kenntnisse in:

  • Speicherplattformen und ihren Eigenschaften
  • Speicherdiensten und Konfigurationen für spezifische Leistungsanforderungen
  • Datenspeicherformaten (z.B. .csv, .txt, Parquet)
  • Ausrichtung des Datenspeicherung auf Datenmigrations-Anforderungen
  • Bestimmung der geeigneten Speicherlösung für spezifische Zugriffsmuster
  • Verwaltung von Sperren, um den Zugriff auf Daten zu ver