CC

Guia oficial do exame DEA-C01

Formato do exame, dom\u00EDnios e dicas de prepara\u00E7\u00E3o

Guia de Exame da AWS Certified Data Engineer - Associate (DEA-C01)

Versão 1.0 DEA-C01

Introdução

O exame AWS Certified Data Engineer - Associate (DEA-C01) valida a capacidade de um candidato de implementar pipelines de dados e monitorar, solucionar problemas e otimizar questões de custo e desempenho de acordo com as melhores práticas.

O exame também valida a capacidade de um candidato de concluir as seguintes tarefas:

  • Ingerir e transformar dados, e orquestrar pipelines de dados, aplicando conceitos de programação.
  • Escolher um armazenamento de dados ideal, projetar modelos de dados, catalogar esquemas de dados e gerenciar ciclos de vida de dados.
  • Operacionalizar, manter e monitorar pipelines de dados. Analisar dados e garantir a qualidade dos dados.
  • Implementar autenticação, autorização, criptografia de dados, privacidade e governança apropriadas. Habilitar o registro em log.

Descrição do Candidato-Alvo

O candidato-alvo deve ter o equivalente a 2-3 anos de experiência em engenharia de dados. O candidato-alvo deve entender os efeitos do volume, variedade e velocidade na ingestão, transformação, modelagem, segurança, governança, privacidade, design de esquema e design de armazenamento de dados ideal. Além disso, o candidato-alvo deve ter pelo menos 1-2 anos de experiência prática com os serviços da AWS.

Conhecimentos Gerais de TI Recomendados

O candidato-alvo deve ter os seguintes conhecimentos gerais de TI:

  • Configuração e manutenção de pipelines de extração, transformação e carregamento (ETL) da ingestão ao destino
  • Aplicação de conceitos de programação de alto nível, mas independentes de linguagem, conforme exigido pelo pipeline
  • Como usar comandos Git para controle de versão
  • Como usar data lakes para armazenar dados
  • Conceitos gerais para redes, armazenamento e computação

Conhecimentos da AWS Recomendados

O candidato-alvo deve ter os seguintes conhecimentos da AWS:

  • Como usar os serviços da AWS para realizar as tarefas listadas na seção Introdução deste guia de exame
  • Compreensão dos serviços da AWS para criptografia, governança, proteção e registro em log de todos os dados que fazem parte de pipelines de dados
  • Habilidade de comparar serviços da AWS para entender as diferenças de custo, desempenho e funcionalidade entre os serviços
  • Como estruturar consultas SQL e como executar consultas SQL em serviços da AWS
  • Compreensão de como analisar dados, verificar a qualidade dos dados e garantir a consistência dos dados usando serviços da AWS

Tarefas de Trabalho Fora do Escopo para o Candidato-Alvo

A seguinte lista contém tarefas de trabalho que o candidato-alvo não se espera que possa realizar. Esta lista não é exaustiva. Essas tarefas estão fora do escopo do exame:

  • Realizar tarefas de inteligência artificial e aprendizado de máquina (IA/ML).
  • Demonstrar conhecimento da sintaxe específica da linguagem de programação.
  • Tirar conclusões de negócios com base nos dados.

Consulte o Anexo para obter uma lista de serviços e recursos da AWS dentro do escopo e uma lista de serviços e recursos da AWS fora do escopo.

Conteúdo do Exame

Tipos de Respostas

Existem dois tipos de perguntas no exame:

  • Múltipla escolha: Tem uma resposta correta e três respostas incorretas (distratores)
  • Múltipla resposta: Tem duas ou mais respostas corretas entre cinco ou mais opções de resposta

Selecione uma ou mais respostas que melhor completem a afirmação ou respondam à pergunta. Os distratores, ou respostas incorretas, são opções de resposta que um candidato com conhecimento ou habilidade incompletos pode escolher. Os distratores geralmente são respostas plausíveis que correspondem à área de conteúdo.

As perguntas não respondidas são pontuadas como incorretas; não há penalidade por chutar. O exame inclui 50 perguntas que afetam sua pontuação.

Conteúdo Não Pontuado

O exame inclui 15 perguntas não pontuadas que não afetam sua pontuação. A AWS coleta informações sobre o desempenho nessas perguntas não pontuadas para avaliar essas perguntas para uso futuro como perguntas pontuadas. Essas perguntas não pontuadas não são identificadas no exame.

Resultados do Exame

O exame AWS Certified Data Engineer - Associate (DEA-C01) tem uma designação de aprovado ou reprovado. O exame é pontuado em relação a um padrão mínimo estabelecido por profissionais da AWS que seguem as melhores práticas e diretrizes da indústria de certificação.

Seus resultados para o exame são relatados como uma pontuação escalada de 100 a 1.000. A pontuação mínima de aprovação é 720. Sua pontuação mostra como você se saiu no exame como um todo e se você passou. Modelos de pontuação escalada ajudam a equalizar as pontuações em diferentes formas de exame que podem ter níveis de dificuldade ligeiramente diferentes.

Seu relatório de pontuação pode conter uma tabela de classificações do seu desempenho em cada nível de seção. O exame usa um modelo de pontuação compensatória, o que significa que você não precisa atingir uma pontuação de aprovação em cada seção. Você precisa passar apenas no exame geral.

Cada seção do exame tem uma ponderação específica, então algumas seções têm mais perguntas do que outras. A tabela de classificações contém informações gerais que destacam seus pontos fortes e fracos. Use cautela ao interpretar o feedback em nível de seção.

Estrutura de Conteúdo

Este guia de exame inclui ponderações, domínios de conteúdo e declarações de tarefa para o exame. Este guia não fornece uma lista abrangente do conteúdo no exame. No entanto, um contexto adicional para cada declaração de tarefa está disponível para ajudá-lo a se preparar para o exame.

O exame tem os seguintes domínios de conteúdo e ponderações:

  • Domínio 1: Ingestão e Transformação de Dados (34% do conteúdo pontuado)
  • Domínio 2: Gerenciamento de Armazenamento de Dados (26% do conteúdo pontuado)
  • Domínio 3: Operações e Suporte de Dados (22% do conteúdo pontuado)
  • Domínio 4: Segurança e Governança de Dados (18% do conteúdo pontuado)

Domínio 1: Ingestão e Transformação de Dados

Declaração de Tarefa 1.1: Realizar a ingestão de dados.

Conhecimento de:

  • Características de vazão e latência para serviços da AWS que ingerem dados
  • Padrões de ingestão de dados (por exemplo, frequência e histórico de dados)
  • Ingestão de dados de streaming
  • Ingestão de dados em lote (por exemplo, ingestão agendada, ingestão acionada por evento)
  • Capacidade de reprodução de pipelines de ingestão de dados
  • Transações de dados estáticas e dinâmicas

Habilidades em:

  • Ler dados de fontes de streaming (por exemplo, Amazon Kinesis, Amazon Managed Streaming for Apache Kafka [Amazon MSK], Amazon DynamoDB Streams, AWS Database Migration Service [AWS DMS], AWS Glue, Amazon Redshift)
  • Ler dados de fontes em lote (por exemplo, Amazon S3, AWS Glue, Amazon EMR, AWS DMS, Amazon Redshift, AWS Lambda, Amazon AppFlow)
  • Implementar opções de configuração apropriadas para ingestão em lote
  • Consumir APIs de dados
  • Configurar agendadores usando Amazon EventBridge, Apache Airflow ou agendamentos baseados em horário para trabalhos e crawlers
  • Configurar gatilhos de evento (por exemplo, Notificações de Eventos do Amazon S3, EventBridge)
  • Chamar uma função Lambda do Amazon Kinesis
  • Criar listas de permissão para endereços IP para permitir conexões com as fontes de dados
  • Implementar limitação e superar limites de taxa (por exemplo, DynamoDB, Amazon RDS, Kinesis)
  • Gerenciar fan-in e fan-out para distribuição de dados de streaming

Declaração de Tarefa 1.2: Transformar e processar dados.

Conhecimento de:

  • Criação de pipelines ETL com base nos requisitos de negócios
  • Volume, velocidade e variedade de dados (por exemplo, dados estruturados, dados não estruturados)
  • Computação em nuvem e computação distribuída
  • Como usar o Apache Spark para processar dados
  • Locais de armazenamento intermediário de dados

Habilidades em:

  • Otimizar o uso de contêineres para atender às necessidades de desempenho (por exemplo, Amazon Elastic Kubernetes Service [Amazon EKS], Amazon Elastic Container Service [Amazon ECS])
  • Conectar-se a diferentes fontes de dados (por exemplo, Java Database Connectivity [JDBC], Open Database Connectivity [ODBC])
  • Integrar dados de várias fontes
  • Otimizar custos durante o processamento de dados
  • Implementar serviços de transformação de dados com base nos requisitos (por exemplo, Amazon EMR, AWS Glue, Lambda, Amazon Redshift)
  • Transformar dados entre formatos (por exemplo, de .csv para Apache Parquet)
  • Solucionar problemas e depurar falhas e problemas de desempenho comuns na transformação
  • Criar APIs de dados para disponibilizar dados para outros sistemas usando serviços da AWS

Declaração de Tarefa 1.3: Orquestrar pipelines de dados.

Conhecimento de:

  • Como integrar vários serviços da AWS para criar pipelines ETL
  • Arquitetura orientada a eventos
  • Como configurar serviços da AWS para pipelines de dados com base em agendamentos ou dependências
  • Fluxos de trabalho sem servidor

Habilidades em:

  • Usar serviços de orquestração para criar fluxos de trabalho para pipelines de ETL de dados (por exemplo, Lambda, EventBridge, Amazon Managed Workflows for Apache Airflow [Amazon MWAA], AWS Step Functions, AWS Glue workflows)
  • Construir pipelines de dados para desempenho, disponibilidade, escalabilidade, resistência e tolerância a falhas
  • Implementar e manter fluxos de trabalho sem servidor
  • Usar serviços de notificação para enviar alertas (por exemplo, Amazon Simple Notification Service [Amazon SNS], Amazon Simple Queue Service [Amazon SQS])

Declaração de Tarefa 1.4: Aplicar conceitos de programação.

Conhecimento de:

  • Integração e entrega contínuas (CI/CD) (implementação, teste e implantação de pipelines de dados)
  • Consultas SQL (para consultas de origem de dados e transformações de dados)
  • Infraestrutura como código (IaC) para implantações repetíveis (por exemplo, AWS Cloud Development Kit [AWS CDK], AWS CloudFormation)
  • Computação distribuída
  • Estruturas de dados e algoritmos (por exemplo, estruturas de dados de gráfico e estruturas de dados de árvore)
  • Otimização de consultas SQL

Habilidades em:

  • Otimizar o código para reduzir o tempo de execução para ingestão e transformação de dados
  • Configurar funções Lambda para atender às necessidades de concorrência e desempenho
  • Executar consultas SQL para transformar dados (por exemplo, procedimentos armazenados do Amazon Redshift)
  • Estruturar consultas SQL para atender aos requisitos do pipeline de dados
  • Usar comandos Git para executar ações como criar, atualizar, clonar e ramificar repositórios
  • Usar o AWS Serverless Application Model (AWS SAM) para empacotar e implantar pipelines de dados sem servidor (por exemplo, funções Lambda, Step Functions, tabelas DynamoDB)
  • Usar e montar volumes de armazenamento de dentro de funções Lambda

Domínio 2: Gerenciamento de Armazenamento de Dados

Declaração de Tarefa 2.1: Escolher um armazenamento de dados.

Conhecimento de:

  • Plataformas de armazenamento e suas características
  • Serviços e configurações de armazenamento para demandas de desempenho específicas
  • Formatos de armazenamento de dados (por exemplo, .csv, .txt, Parquet)
  • Como alinhar o armazenamento de dados com os requisitos de migração de dados
  • Como determinar a solução de armazenamento apropriada para padrões de acesso específicos
  • Como gerenciar bloqueios para impedir o acesso a dados (por exemplo, Amazon Redshift, Amazon RDS)

Habilidades em:

  • Implementar os serviços de armazenamento apropriados para requisitos específicos de custo e desempenho (por exemplo, Amazon Redshift, Amazon EMR, AWS Lake Formation, Amazon RDS, DynamoDB, Amazon Kinesis Data Streams, Amazon MSK)
  • Configurar os serviços de armazenamento apropriados para padrões de acesso e requisitos específicos (por exemplo, Amazon Redshift, Amazon EMR, Lake Formation, Amazon RDS, DynamoDB)
  • Aplicar serviços de armazenamento a casos de uso apropriados (por exemplo, Amazon S3)
  • Integrar ferramentas de migração a sistemas de processamento de dados (por exemplo, AWS Transfer Family)
  • Implementar métodos de migração de dados ou acesso remoto (por exemplo, consultas federadas do Amazon Redshift, visualizações materializadas do Amazon Redshift, Amazon Redshift Spectrum)

Declaração de Tarefa 2.2: Entender sistemas de catálogo de dados.

Conhecimento de:

  • Como criar um catálogo de dados
  • Classificação de dados com base nos requisitos
  • Componentes de metadados e catálogos de dados

Habilidades em:

  • Usar catálogos de dados para consumir dados da fonte dos dados
  • Criar e fazer referência a um catálogo de dados (por exemplo, AWS Glue Data Catalog, metastore do Apache Hive)
  • Descobrir esquemas e usar crawlers do AWS Glue para preencher catálogos de dados
  • Sincronizar partições com um catálogo de dados
  • Criar novas conexões de origem ou destino para catalogação (por exemplo, AWS Glue)

Declaração de Tarefa 2.3: Gerenciar o ciclo de vida dos dados.

Conhecimento de:

  • Soluções de armazenamento apropriadas para atender aos requisitos de dados quentes e frios
  • Como otimizar o custo de armazenamento com base no ciclo de vida dos dados
  • Como excluir dados para atender aos requisitos legais e de negócios
  • Políticas de retenção de dados e estratégias de arquivamento
  • Como proteger os dados com a resiliência e disponibilidade apropriadas

Habilidades em:

  • Realizar operações de carregamento e descarga para mover dados entre Amazon S3 e Amazon Redshift
  • Gerenciar políticas de ciclo de vida do S3 para alterar o nível de armazenamento dos dados do S3
  • Expirar dados quando atingirem uma idade específica usando políticas de ciclo de vida do S3
  • Gerenciar versão do S3 e TTL do DynamoDB

Declaração de Tarefa 2.4: Projetar modelos de dados e evolução de esquemas.

Conhecimento de:

  • Conceitos de modelagem de dados
  • Como garantir a precisão e a confiabilidade dos dados usando o rastreamento da linhagem de dados
  • Melhores práticas para indexação, estratégias de particionamento, compactação e outras técnicas de otimização de dados
  • Como modelar dados estruturados, semi-estruturados e não estruturados
  • Técnicas de evolução de esquema

Habilidades em:

  • Projetar esquemas para Amazon Redshift, DynamoDB e Lake Formation
  • Abordar as mudanças nas características dos dados
  • Executar a conversão de esquema (por exemplo, usando a Ferramenta de Conversão de Esquema da AWS [AWS SCT] e a Conversão de Esquema do AWS DMS)
  • Estabelecer o rastreamento da linhagem de dados usando ferramentas da AWS (por exemplo, rastreamento de linhagem ML do Amazon SageMaker)

Domínio 3: Operações e Suporte de Dados

Declaração de Tarefa 3.1: Automatizar o processamento de dados usando serviços da AWS.

Conhecimento de:

  • Como manter e solucionar problemas no processamento de dados para resultados repetíveis nos negócios
  • Chamadas de API para processamento de dados
  • Quais serviços aceitam scripts (por exemplo, Amazon EMR, Amazon Redshift, AWS Glue)

Habilidades em:

  • Orquestrar pipelines de dados (por exemplo, Amazon MWAA, Step Functions)
  • Solucionar problemas em fluxos de trabalho gerenciados pela Amazon
  • Chamar SDKs para acessar recursos da Amazon a partir do código
  • Usar os recursos dos serviços da AWS para processar dados (por exemplo, Amazon EMR, Amazon Redshift, AWS Glue)
  • Consumir e manter APIs de dados
  • Preparar a transformação de dados (por exemplo, AWS Glue DataBrew)
  • Consultar dados (por exemplo, Amazon Athena)
  • Usar Lambda para automatizar o processamento de dados
  • Gerenciar eventos e agendadores (por exemplo, EventBridge)

Declaração de Tarefa 3.2: Analisar dados usando serviços da AWS.

Conhecimento de:

  • Compensações entre serviços provisionados e serviços sem servidor
  • Consultas SQL (por exemplo, instruções SELECT com vários qualificadores ou cláusulas JOIN)
  • Como visualizar dados para análise
  • Quando e como aplicar técnicas de limpeza
  • Agregação de dados, média móvel, agrupamento e pivotamento

Habilidades em:

  • Visualizar dados usando serviços e ferramentas da AWS (por exemplo, AWS Glue DataBrew, Amazon QuickSight)
  • Verificar e limpar dados (por exemplo, Lambda, Athena, QuickSight, Jupyter Notebooks, Amazon SageMaker Data Wrangler)
  • Usar Athena para consultar dados ou criar visualizações
  • Usar blocos de anotações do Athena que usam Apache Spark para explorar dados

Declaração de Tarefa 3.3: Manter e monitorar pipelines de dados.

Conhecimento de:

  • Como registrar em log os dados do aplicativo
  • Melhores práticas para ajuste de desempenho
  • Como registrar em log o acesso aos serviços da AWS
  • Amazon Macie, AWS CloudTrail e Amazon CloudWatch

Habilidades em:

  • Extrair logs para auditorias
  • Implantar soluções de registro em log e monitoramento para facilitar a auditoria e a rastreabilidade
  • Usar notificações durante o monitoramento para enviar alertas
  • Solucionar problemas de desempenho
  • Usar CloudTrail para rastrear chamadas de API
  • Solucionar problemas e manter pipelines (por exemplo, AWS Glue, Amazon EMR)
  • Usar Amazon CloudWatch Logs para registrar em log os dados do aplicativo (com foco em configuração e automação)
  • Analisar logs com serviços da AWS (por exemplo, Athena, Amazon EMR, Amazon OpenSearch Service, CloudWatch Logs Insights, logs de aplicativos de big data)

Declaração de Tarefa 3.4: Garantir a qualidade dos dados.

Conhecimento de:

  • Técnicas de amostragem de dados
  • Como implementar mecanismos de desvio de dados
  • Validação de dados (integridade, consistência, precisão e integridade dos dados)
  • Análise de perfil de dados

Habilidades em:

  • Executar verificações de qualidade de dados durante o processamento de dados (por exemplo, verificar campos vazios)
  • Definir regras de qualidade de dados (por exemplo, AWS Glue DataBrew)
  • Investigar a consistência dos dados (por exemplo, AWS Glue DataBrew)

Domínio 4: Segurança e Governança de Dados

Declaração de Tarefa 4.1: Aplicar mecanismos de autenticação.

Conhecimento de:

  • Conceitos de rede de segurança da VPC
  • Diferenças entre serviços gerenciados e serviços não gerenciados
  • Métodos de autenticação (baseados em senha, baseados em certificado e baseados em função)
  • Diferenças entre políticas gerenciadas pela AWS e políticas gerenciadas pelo cliente

Habilidades em:

  • Atualizar grupos de segurança da VPC
  • Criar e atualizar grupos, funções, endpoints e serviços do IAM
  • Criar e girar credenciais para o gerenciamento de senhas (por exemplo, AWS Secrets Manager)
  • Configurar funções do IAM para acesso (por exemplo, Lambda, Amazon API Gateway, AWS CLI, CloudFormation)
  • Aplicar políticas do IAM a funções, endpoints e serviços (por exemplo, Pontos de Acesso do S3, AWS PrivateLink)

Declaração de Tarefa 4.2: Aplicar mecanismos de autorização.

Conhecimento de:

  • Métodos de autorização (baseados em função, baseados em política, baseados em tags e baseados em atributos)
  • Princípio do menor privilégio conforme aplicado à segurança da AWS
  • Controle de acesso baseado em função e padrões de acesso esperados
  • Métodos para proteger dados contra acesso não autorizado em todos os serviços

Habilidades em:

  • Criar políticas personalizadas do IAM quando uma política gerenciada não atender às necessidades
  • Armazenar credenciais de aplicativos e bancos de dados (por exemplo, Secrets Manager, AWS Systems Manager Parameter Store)
  • Fornecer acesso e autoridade a usuários, grupos e funções de banco de dados em um banco de dados (por exemplo, para o Amazon Redshift)
  • Gerenciar permissões por meio do Lake Formation (para Amazon Redshift, Amazon EMR, Athena e Amazon S3)

Declaração de Tarefa 4.3: Garantir criptografia e mascaramento de dados.

Conhecimento de:

  • Opções de criptografia de dados disponíveis nos serviços de análise da AWS (por exemplo, Amazon Redshift, Amazon EMR, AWS Glue)
  • Diferenças entre criptografia do lado do cliente e criptografia do lado do servidor
  • Proteção de dados sensíveis
  • Anonimização, mascaramento e salting de chaves de dados

Habilidades em:

  • Aplicar mascaramento e anonimização de dados de acordo com leis de conformidade ou políticas da empresa
  • Usar chaves de criptografia para criptografar ou descriptografar dados (por exemplo, AWS Key Management Service [AWS KMS])
  • Configurar a criptografia entre limites de conta da AWS
  • Habilitar a criptografia em trânsito para os dados.

Declaração de Tarefa 4.4: Preparar logs para auditoria.

Conhecimento de:

  • Como registrar em log os dados do aplicativo
  • Como registrar em log o acesso aos serviços da AWS
  • Logs centralizados da AWS

Habilidades em:

  • Usar CloudTrail para rastrear chamadas de API
  • Usar CloudWatch Logs para armazenar logs de aplicativos
  • Usar o AWS CloudTrail Lake para consultas de registro em log centralizado
  • Analisar logs usando serviços da AWS (por exemplo, Athena, CloudWatch Logs Insights, Amazon OpenSearch Service)
  • Integrar vários serviços da AWS para realizar o registro em log (por exemplo, Amazon EMR em casos de grandes volumes de dados de log)

Declaração de Tarefa 4.5: Entender privacidade e governança de dados.

Conhecimento de:

  • Como proteger informações de identificação pessoal (PII)
  • Soberania de dados

Habilidades em:

  • Conceder permissões para compartilhamento de dados (por exemplo, compartilhamento de dados para o Amazon Redshift)
  • Implementar identificação de PII (por exemplo, Macie com Lake Formation)
  • Implementar estratégias de privacidade de dados para evitar backups ou replicações de dados para Regiões da AWS não permitidas
  • Gerenciar alterações de configuração ocorridas em uma conta (por exemplo, AWS Config)

Anexo

Serviços e Recursos da AWS Dentro do Escopo

A seguinte lista contém serviços e recursos da AWS que estão dentro do escopo do exame. Esta lista não é exaustiva e está sujeita a alterações. As ofertas da AWS aparecem em categorias que se alinham com as principais funções das ofertas:

Análise:

  • Amazon Athena
  • Amazon EMR
  • AWS Glue
  • AWS Glue DataBrew
  • AWS Lake Formation
  • Amazon Kinesis Data Firehose
  • Amazon Kinesis Data Streams
  • Serviço Gerenciado da Amazon para Apache Flink
  • Serviço Gerenciado de Streaming da Amazon para Apache Kafka (Amazon MSK)
  • Serviço Amazon OpenSearch
  • Amazon QuickSight

Integração de Aplicativos:

  • Amazon AppFlow
  • Amazon EventBridge
  • Serviço Gerenciado de Fluxos de Trabalho da Amazon para Apache Airflow (Amazon MWAA)
  • Amazon Simple Notification Service (Amazon SNS)
  • Amazon Simple Queue Service (Amazon SQS)
  • AWS Step Functions

Gerenciamento Financeiro na Nuvem:

  • AWS Budgets
  • AWS Cost Explorer

Computação:

  • AWS Batch
  • Amazon EC2
  • AWS Lambda
  • AWS Serverless Application Model (AWS SAM)

Contêineres:

  • Amazon Elastic Container Registry (Amazon ECR)
  • Amazon Elastic Container Service (Amazon ECS)
  • Amazon Elastic Kubernetes Service (Amazon EKS)

Banco de Dados:

  • Amazon DocumentDB (compatível com MongoDB)
  • Amazon DynamoDB
  • Amazon Keyspaces (para Apache Cassandra)
  • Amazon MemoryDB for Redis
  • Amazon Neptune
  • Amazon RDS
  • Amazon Redshift

Ferramentas de Desenvolvedor:

  • AWS CLI
  • AWS Cloud9
  • AWS Cloud Development Kit (AWS CDK)
  • AWS CodeBuild
  • AWS CodeCommit
  • AWS CodeDeploy
  • AWS CodePipeline

Web e Aplicativo Móvel:

  • Amazon API Gateway

Machine Learning:

  • Amazon SageMaker

Gerenciamento e Governança:

  • AWS CloudFormation
  • AWS CloudTrail
  • Amazon CloudWatch
  • Amazon CloudWatch Logs
  • AWS Config
  • Amazon Managed Grafana
  • AWS Systems Manager
  • AWS Well-Architected Tool

Migração e Transferência:

  • AWS Application Discovery Service
  • AWS Application Migration Service
  • AWS Database Migration Service (AWS DMS)
  • AWS DataSync
  • Ferramenta de Conversão de Esquema da AWS (AWS SCT)
  • Família de Produtos AWS Snow
  • Família de Produtos AWS Transfer

Rede e Distribuição de Conteúdo:

  • Amazon CloudFront
  • AWS PrivateLink
  • Amazon Route 53
  • Amazon VPC

Segurança, Identidade e Conformidade:

  • AWS Identity and Access Management (IAM)
  • AWS Key Management Service (AWS KMS)
  • Amazon Macie
  • AWS Secrets Manager
  • AWS Shield
  • AWS WAF

Armazenamento:

  • AWS Backup
  • Amazon Elastic Block Store (Amazon EBS)
  • Amazon Elastic File System (Amazon EFS)
  • Amazon S3
  • Amazon S3 Glacier

Serviços e Recursos da AWS Fora do Escopo

A seguinte lista contém serviços e recursos da AWS que estão fora do escopo do exame. Esta lista não é exaustiva e está sujeita a alterações. As ofertas da AWS que são totalmente não relacionadas aos cargos-alvo para o exame são excluídas desta lista:

Análise:

  • Amazon FinSpace

Aplicativos de Negócios:

  • Alexa for Business
  • Amazon Chime
  • Amazon Connect
  • Amazon Honeycode
  • AWS IQ
  • Amazon WorkDocs
  • Amazon WorkMail

Computação:

  • AWS App Runner
  • AWS Elastic Beanstalk
  • Amazon Lightsail
  • AWS Outposts
  • AWS Serverless Application Repository

Contêineres:

  • Serviço Red Hat OpenShift na AWS (ROSA)

Banco de Dados:

  • Amazon Timestream

Ferramentas de Desenvolvedor:

  • AWS Fault Injection Simulator (AWS FIS)
  • AWS X-Ray

Web e Aplicativo Móvel:

  • AWS Amplify
  • AWS AppSync
  • AWS Device Farm
  • Amazon Location Service
  • Amazon Pinpoint
  • Amazon Simple Email Service (Amazon SES)

Internet das Coisas (IoT):

  • FreeRTOS
  • AWS IoT 1-Click
  • AWS IoT Device Defender
  • AWS IoT Device Management
  • AWS IoT Events
  • AWS IoT FleetWise
  • AWS IoT RoboRunner
  • AWS IoT SiteWise
  • AWS IoT TwinMaker

Machine Learning:

  • Amazon CodeWhisperer
  • Amazon DevOps Guru

Gerenciamento e Governança:

  • AWS Activate
  • AWS Managed Services (AMS)

Serviços de Mídia:

  • Amazon Elastic Transcoder
  • AWS Elemental Appliances and Software
  • AWS Elemental MediaConnect
  • AWS Elemental MediaConvert
  • AWS Elemental MediaLive
  • AWS Elemental MediaPackage
  • AWS Elemental MediaStore
  • AWS Elemental MediaTailor
  • Amazon Interactive Video Service (Amazon IVS)
  • Amazon Nimble Studio

Migração e Transferência:

  • AWS Mainframe Modernization
  • AWS Migration Hub

Armazenamento:

  • EC2 Image Builder

Pesquisa

Quão útil foi este guia de exame? Informe-nos, respondendo nossa pesquisa.