CC

\uACF5\uC2DD DEA-C01 \uC2DC\uD5D8 \uAC00\uC774\uB4DC

\uC2DC\uD5D8 \uD615\uC2DD, \uC601\uC5ED \uBC0F \uC900\uBE44 \uD301

AWS 데이터 엔지니어 - 어소시에이트(DEA-C01) 시험 안내서

버전 1.0 DEA-C01

소개

AWS 데이터 엔지니어 - 어소시에이트(DEA-C01) 시험은 후보자의 데이터 파이프라인 구현 능력, 그리고 모범 사례에 따라 비용과 성능 문제를 모니터링, 문제 해결, 최적화하는 능력을 검증합니다.

이 시험은 또한 후보자의 다음과 같은 작업 수행 능력을 검증합니다:

  • 데이터 수집 및 변환, 프로그래밍 개념을 적용하여 데이터 파이프라인 편성
  • 최적의 데이터 저장소 선택, 데이터 모델 설계, 데이터 스키마 카탈로그 작성, 데이터 수명 주기 관리
  • 데이터 파이프라인 운영, 유지 관리, 모니터링. 데이터 분석 및 데이터 품질 보장
  • 인증, 권한 부여, 데이터 암호화, 개인 정보 보호, 거버넌스 구현. 로깅 활성화

대상 후보자 설명

대상 후보자는 데이터 엔지니어링 경력이 2-3년 정도 있어야 합니다. 대상 후보자는 데이터 양, 다양성, 속도가 데이터 수집, 변환, 모델링, 보안, 거버넌스, 개인 정보 보호, 스키마 설계, 최적의 데이터 저장소 설계에 미치는 영향을 이해해야 합니다. 또한 대상 후보자는 AWS 서비스 사용 경험이 1-2년 이상 있어야 합니다.

권장되는 일반 IT 지식

대상 후보자는 다음과 같은 일반 IT 지식을 가지고 있어야 합니다:

  • 수집에서 대상까지의 ETL(Extract, Transform, Load) 파이프라인 설정 및 유지 관리
  • 파이프라인에 필요한 언어 중립적 프로그래밍 개념 적용
  • Git 명령어를 이용한 소스 제어
  • 데이터 레이크를 이용한 데이터 저장
  • 네트워킹, 스토리지, 컴퓨팅에 대한 일반 개념

권장되는 AWS 지식

대상 후보자는 다음과 같은 AWS 지식을 가지고 있어야 합니다:

  • 이 시험 안내서 소개 섹션에 나열된 작업을 수행하기 위한 AWS 서비스 사용 방법
  • 데이터 파이프라인의 모든 데이터에 대한 암호화, 거버넌스, 보호, 로깅을 위한 AWS 서비스 이해
  • 비용, 성능, 기능 차이를 이해하여 AWS 서비스 간 비교 능력
  • SQL 쿼리 작성 및 AWS 서비스에서 SQL 쿼리 실행 방법
  • AWS 서비스를 활용하여 데이터 분석, 데이터 품질 검증, 데이터 일관성 보장 방법 이해

대상 후보자의 범위를 벗어나는 직무 과제

다음은 대상 후보자가 수행할 것으로 예상되지 않는 직무 과제 목록입니다. 이 목록은 포괄적이지 않습니다. 이러한 과제는 시험 범위를 벗어납니다:

  • 인공 지능 및 기계 학습(AI/ML) 작업 수행
  • 프로그래밍 언어별 구문 지식 보여주기
  • 데이터를 기반으로 비즈니스 결론 도출

부록에는 시험 범위에 포함되는 AWS 서비스와 기능, 그리고 범위를 벗어나는 AWS 서비스와 기능이 나와 있습니다.

시험 내용

응답 유형

시험에는 다음 두 가지 유형의 문제가 있습니다:

  • 선다형: 하나의 올바른 응답과 세 개의 잘못된 응답(방해 요소)으로 구성
  • 복수 선택형: 다섯 개 이상의 응답 옵션 중 두 개 이상의 올바른 응답으로 구성

하나 이상의 응답을 선택하여 문장을 완성하거나 질문에 답합니다. 방해 요소는 불완전한 지식이나 기술을 가진 후보자가 선택할 수 있는 응답 옵션입니다. 방해 요소는 일반적으로 내용 영역과 잘 어울리는 타당한 응답입니다.

답변하지 않은 문제는 오답으로 처리되며, 추측에 대한 패널티는 없습니다. 시험에는 점수에 반영되는 50개의 문제가 포함되어 있습니다.

점수에 반영되지 않는 문제

시험에는 점수에 반영되지 않는 15개의 문제가 포함되어 있습니다. AWS는 이러한 점수에 반영되지 않는 문제의 성능을 평가하여 향후 점수에 반영되는 문제로 사용할 수 있습니다. 이러한 점수에 반영되지 않는 문제는 시험에서 식별되지 않습니다.

시험 결과

AWS 데이터 엔지니어 - 어소시에이트(DEA-C01) 시험은 합격 또는 불합격으로 결정됩니다. 이 시험은 AWS 전문가가 인증 업계의 모범 사례와 지침을 따라 수립한 최소 기준으로 채점됩니다.

시험 결과는 100-1,000의 척도 점수로 보고됩니다. 합격 점수는 720점입니다. 귀하의 점수는 전체 시험 성적을 나타내며 합격 여부를 보여줍니다. 척도 점수 모델은 다소 다른 난이도 수준의 시험 양식 간 점수를 균등화하는 데 도움이 됩니다.

성적 보고서에는 각 섹션별 성과 분류 테이블이 포함될 수 있습니다. 이 시험은 보상형 채점 모델을 사용하므로 각 섹션에서 합격 점수를 받을 필요는 없습니다. 전체 시험에서만 합격하면 됩니다.

시험의 각 섹션은 특정 가중치를 가지고 있어 섹션마다 문제 수가 다릅니다. 성과 분류 테이블에는 귀하의 강점과 약점을 강조하는 일반 정보가 포함되어 있습니다. 섹션별 피드백을 해석할 때는 주의해야 합니다.

내용 개요

이 시험 안내서에는 시험의 가중치, 내용 영역, 과제 문구가 포함되어 있습니다. 이 안내서에는 시험 내용의 완전한 목록이 제공되지 않습니다. 그러나 각 과제 문구에 대한 추가 컨텍스트를 제공하여 시험 준비에 도움이 됩니다.

이 시험의 내용 영역과 가중치는 다음과 같습니다:

  • 영역 1: 데이터 수집 및 변환(득점 콘텐츠의 34%)
  • 영역 2: 데이터 저장소 관리(득점 콘텐츠의 26%)
  • 영역 3: 데이터 운영 및 지원(득점 콘텐츠의 22%)
  • 영역 4: 데이터 보안 및 거버넌스(득점 콘텐츠의 18%)

영역 1: 데이터 수집 및 변환

과제 문구 1.1: 데이터 수집을 수행한다.

지식:

  • AWS 데이터 수집 서비스의 처리량 및 대기 시간 특성
  • 데이터 수집 패턴(예: 빈도 및 데이터 기록)
  • 스트리밍 데이터 수집
  • 일괄 데이터 수집(예: 예약 수집, 이벤트 기반 수집)
  • 데이터 수집 파이프라인의 재현 가능성
  • 상태 저장 및 무상태 데이터 트랜잭션

기술:

  • 스트리밍 소스(예: Amazon Kinesis, Amazon Managed Streaming for Apache Kafka, Amazon DynamoDB Streams, AWS Database Migration Service, AWS Glue, Amazon Redshift)에서 데이터 읽기
  • 일괄 소스(예: Amazon S3, AWS Glue, Amazon EMR, AWS DMS, Amazon Redshift, AWS Lambda, Amazon AppFlow)에서 데이터 읽기
  • 일괄 수집을 위한 적절한 구성 옵션 구현
  • API에서 데이터 사용
  • Amazon EventBridge, Apache Airflow, 시간 기반 일정을 사용하여 예약 프로그래밍 설정
  • 이벤트 트리거 설정(예: Amazon S3 이벤트 알림, EventBridge)
  • Amazon Kinesis에서 Lambda 함수 호출
  • IP 주소 허용 목록 생성하여 데이터 소스에 대한 연결 허용
  • 제한 및 속도 제한 극복(예: DynamoDB, Amazon RDS, Kinesis)
  • 스트리밍 데이터 배포에서 팬인 및 팬아웃 관리

과제 문구 1.2: 데이터를 변환하고 처리한다.

지식:

  • 비즈니스 요구 사항에 따른 ETL 파이프라인 생성
  • 데이터의 양, 속도, 다양성(예: 구조화된 데이터, 비정형 데이터)
  • 클라우드 컴퓨팅 및 분산 컴퓨팅
  • Apache Spark를 사용하여 데이터 처리하는 방법
  • 중간 데이터 스테이징 위치

기술:

  • 성능 요구 사항에 맞게 컨테이너 사용 최적화(예: Amazon Elastic Kubernetes Service, Amazon Elastic Container Service)
  • 다양한 데이터 소스에 연결(예: JDBC, ODBC)
  • 여러 소스의 데이터 통합
  • 데이터 처리 비용 최적화
  • 요구 사항에 따라 데이터 변환 서비스 구현(예: Amazon EMR, AWS Glue, Lambda, Amazon Redshift)
  • 형식 간 데이터 변환(예: .csv에서 Apache Parquet로)
  • 일반적인 변환 실패 및 성능 문제 문제 해결 및 디버깅
  • 다른 시스템에서 사용할 수 있는 데이터 API 생성

과제 문구 1.3: 데이터 파이프라인을 편성한다.

지식:

  • 다양한 AWS 서비스를 통합하여 ETL 파이프라인 구축하는 방법
  • 이벤트 주도 아키텍처
  • 일정 또는 종속성을 기반으로 AWS 서비스를 구성하는 방법
  • Serverless 워크플로

기술:

  • 데이터 ETL 파이프라인을 위한 워크플로를 구축하기 위해 오케스트레이션 서비스 사용(예: Lambda, EventBridge, Amazon Managed Workflows for Apache Airflow, AWS Step Functions, AWS Glue 워크플로)
  • 성능, 가용성, 확장성, 복원력, 내결함성을 갖춘 데이터 파이프라인 구축 및 유지 관리
  • Serverless 워크플로 구현 및 유지 관리
  • 알림 서비스를 사용하여 경고 전송(예: Amazon Simple Notification Service, Amazon Simple Queue Service)

과제 문구 1.4: 프로그래밍 개념을 적용한다.

지식:

  • 데이터 파이프라인의 지속적인 통합 및 지속적인 배포(CI/CD)(구현, 테스트, 배포)
  • SQL 쿼리(데이터 소스 쿼리 및 데이터 변환)
  • 반복 가능한 배포를 위한 인프라 코드(예: AWS Cloud Development Kit, AWS CloudFormation)
  • 분산 컴퓨팅
  • 데이터 구조 및 알고리즘(예: 그래프 데이터 구조 및 트리 데이터 구조)
  • SQL 쿼리 최적화

기술: