Guia de Exame AWS Certified Machine Learning Engineer - Associate (MLA-C01)
Introdução
O exame AWS Certified Machine Learning Engineer - Associate (MLA-C01) valida a capacidade de um candidato de construir, operacionalizar, implantar e manter soluções e pipelines de machine learning (ML) usando a Nuvem AWS.
O exame também valida a capacidade de um candidato de realizar as seguintes tarefas:
- Ingerir, transformar, validar e preparar dados para modelagem de ML.
- Selecionar abordagens de modelagem gerais, treinar modelos, ajustar hiperparâmetros, analisar o desempenho do modelo e gerenciar versões de modelos.
- Escolher a infraestrutura de implantação e os endpoints, provisionar recursos de computação e configurar o dimensionamento automático com base nos requisitos.
- Configurar canais de integração contínua e entrega contínua (CI/CD) para automatizar a orquestração de fluxos de trabalho de ML.
- Monitorar modelos, dados e infraestrutura para detectar problemas.
- Proteger sistemas e recursos de ML por meio de controles de acesso, recursos de conformidade e melhores práticas.
Descrição do Candidato-Alvo
O candidato-alvo deve ter pelo menos 1 ano de experiência usando Amazon SageMaker e outros serviços AWS para engenharia de ML. O candidato-alvo também deve ter pelo menos 1 ano de experiência em um cargo relacionado, como desenvolvedor de software backend, desenvolvedor DevOps, engenheiro de dados ou cientista de dados.
Conhecimento Geral de TI Recomendado
O candidato-alvo deve ter o seguinte conhecimento geral de TI:
- Compreensão básica de algoritmos comuns de ML e seus casos de uso
- Fundamentos de engenharia de dados, incluindo conhecimento de formatos de dados comuns, ingestão e transformação para trabalhar com pipelines de dados de ML
- Conhecimento de consulta e transformação de dados
- Conhecimento das melhores práticas de engenharia de software para desenvolvimento, implantação e depuração de código modular e reutilizável
- Familiaridade com o provisionamento e monitoramento de recursos de ML na nuvem e on-premises
- Experiência com pipelines de CI/CD e infraestrutura como código (IaC)
- Experiência com repositórios de código para controle de versão e pipelines de CI/CD
Conhecimento da AWS Recomendado
O candidato-alvo deve ter o seguinte conhecimento da AWS:
- Conhecimento dos recursos do SageMaker para construção e implantação de modelos
- Conhecimento dos serviços de armazenamento e processamento de dados da AWS para preparar dados para modelagem
- Familiaridade com a implantação de aplicativos e infraestrutura na AWS
- Conhecimento de ferramentas de monitoramento para registro e solução de problemas em sistemas de ML
- Conhecimento dos serviços da AWS para a automação e orquestração de pipelines de CI/CD
- Entendimento das melhores práticas de segurança da AWS para gerenciamento de identidade e acesso, criptografia e proteção de dados
Tarefas de Trabalho Fora do Escopo para o Candidato-Alvo
A lista a seguir contém tarefas de trabalho que o candidato-alvo não é esperado poder realizar. Esta lista não é exaustiva. Essas tarefas estão fora do escopo do exame:
- Desenhar e arquitetar soluções completas de ponta a ponta de ML
- Estabelecer melhores práticas e orientar estratégias de ML
- Lidar com integração com uma ampla gama de serviços ou novas ferramentas e tecnologias
- Trabalhar em profundidade em dois ou mais domínios de ML (por exemplo, processamento de linguagem natural [NLP], visão computacional)
- Quantizar modelos e analisar o impacto na precisão
Consulte o Apêndice para obter uma lista de serviços e recursos da AWS dentro do escopo e uma lista de serviços e recursos da AWS fora do escopo.
Conteúdo do Exame
Tipos de Perguntas
O exame contém um ou mais dos seguintes tipos de perguntas:
- Múltipla escolha: Tem uma resposta correta e três respostas incorretas (distratores).
- Múltipla resposta: Tem duas ou mais respostas corretas entre cinco ou mais opções de resposta. Você deve selecionar todas as respostas corretas para receber crédito pela pergunta.
- Ordenação: Tem uma lista de 3 a 5 respostas para concluir uma tarefa especificada. Você deve selecionar as respostas corretas e colocá-las na ordem correta para receber crédito pela pergunta.
- Correspondência: Tem uma lista de respostas para corresponder a uma lista de 3 a 7 indicações. Você deve corresponder corretamente todos os pares para receber crédito pela pergunta.
- Estudo de caso: Tem um cenário com duas ou mais perguntas sobre o cenário. O cenário é o mesmo para cada pergunta no estudo de caso. Cada pergunta no estudo de caso será avaliada separadamente. Você receberá crédito por cada pergunta que responder corretamente no estudo de caso.
As perguntas não respondidas no exame são pontuadas como incorretas. Não há penalidade por adivinhação. O exame inclui 50 perguntas que afetam sua pontuação.¹
Conteúdo Não Pontuado
O exame inclui 15 perguntas não pontuadas que não afetam sua pontuação. A AWS coleta informações sobre o desempenho dessas perguntas não pontuadas para avaliar essas perguntas para uso futuro como perguntas pontuadas. Essas perguntas não pontuadas não são identificadas no exame.
¹ Não se aplica à versão beta do exame. Você pode encontrar mais informações sobre exames beta em geral no site da AWS Certification.
Resultados do Exame
O exame AWS Certified Machine Learning Engineer - Associate (MLA-C01) tem uma designação de aprovação ou reprovação. O exame é pontuado com base em um padrão mínimo estabelecido por profissionais da AWS que seguem as melhores práticas e diretrizes da indústria de certificação.
Seus resultados para o exame são relatados como uma pontuação escalonada de 100 a 1.000. A pontuação mínima de aprovação é 720. Sua pontuação mostra como você se saiu no exame como um todo e se você foi aprovado. Os modelos de pontuação escalonada ajudam a equalizar as pontuações em várias formas de exame que podem ter níveis de dificuldade ligeiramente diferentes.
Seu relatório de resultados pode conter uma tabela de classificações do seu desempenho em cada nível de seção. O exame usa um modelo de pontuação compensatória, o que significa que você não precisa alcançar uma pontuação de aprovação em cada seção. Você precisa apenas passar no exame geral.
Cada seção do exame tem uma ponderação específica, portanto, algumas seções têm mais perguntas do que outras. A tabela de classificações contém informações gerais que destacam seus pontos fortes e fracos. Use cautela ao interpretar o feedback em nível de seção.
Estrutura de Conteúdo
Este guia de exame inclui ponderações, domínios de conteúdo e declarações de tarefas para o exame. Este guia não fornece uma lista abrangente do conteúdo do exame. No entanto, há um contexto adicional para cada declaração de tarefa disponível para ajudá-lo a se preparar para o exame.
O exame tem os seguintes domínios de conteúdo e ponderações:
- Domínio 1: Preparação de Dados para Machine Learning (ML) (28% do conteúdo pontuado)
- Domínio 2: Desenvolvimento de Modelos de ML (26% do conteúdo pontuado)
- Domínio 3: Implantação e Orquestração de Fluxos de Trabalho de ML (22% do conteúdo pontuado)
- Domínio 4: Monitoramento, Manutenção e Segurança de Soluções de ML (24% do conteúdo pontuado)
Domínio 1: Preparação de Dados para Machine Learning (ML)
Declaração de Tarefa 1.1: Ingerir e armazenar dados.
Conhecimento de:
- Formatos de dados e mecanismos de ingestão (por exemplo, formatos validados e não validados, Apache Parquet, JSON, CSV, Apache ORC, Apache Avro, RecordIO)
- Como usar as principais fontes de dados da AWS (por exemplo, Amazon S3, Amazon Elastic File System [Amazon EFS], Amazon FSx for NetApp ONTAP)
- Como usar fontes de dados de streaming da AWS para ingerir dados (por exemplo, Amazon Kinesis, Apache Flink, Apache Kafka)
- Opções de armazenamento da AWS, incluindo casos de uso e trade-offs
Habilidades em:
- Extrair dados do armazenamento (por exemplo, Amazon S3, Amazon Elastic Block Store [Amazon EBS], Amazon EFS, Amazon RDS, Amazon DynamoDB) usando opções relevantes de serviço da AWS (por exemplo, Amazon S3 Transfer Acceleration, Amazon EBS Provisioned IOPS)
- Escolher formatos de dados apropriados (por exemplo, Parquet, JSON, CSV, ORC) com base nos padrões de acesso aos dados
- Ingerir dados no Amazon SageMaker Data Wrangler e no SageMaker Feature Store
- Mesclar dados de várias fontes (por exemplo, usando técnicas de programação, AWS Glue, Apache Spark)
- Solucionar problemas e depurar problemas de ingestão e armazenamento de dados que envolvem capacidade e escalabilidade
- Tomar decisões iniciais de armazenamento com base em custo, desempenho e estrutura de dados
Declaração de Tarefa 1.2: Transformar dados e realizar engenharia de recursos.
Conhecimento de:
- Técnicas de limpeza e transformação de dados (por exemplo, detectar e tratar outliers, preencher dados ausentes, combinar, desduplicar)
- Técnicas de engenharia de recursos (por exemplo, dimensionamento e padronização de dados, divisão de recursos, binagem, transformação logarítmica, normalização)
- Técnicas de codificação (por exemplo, codificação one-hot, codificação binária, codificação de rótulos, tokenização)
- Ferramentas para explorar, visualizar ou transformar dados e recursos (por exemplo, SageMaker Data Wrangler, AWS Glue, AWS Glue DataBrew)
- Serviços que transformam dados de streaming (por exemplo, AWS Lambda, Spark)
- Serviços de anotação e rotulagem de dados que criam conjuntos de dados rotulados de alta qualidade
Habilidades em:
- Transformar dados usando ferramentas da AWS (por exemplo, AWS Glue, AWS Glue DataBrew, Spark em execução no Amazon EMR, SageMaker Data Wrangler)
- Criar e gerenciar recursos usando ferramentas da AWS (por exemplo, SageMaker Feature Store)
- Validar e rotular dados usando serviços da AWS (por exemplo, SageMaker Ground Truth, Amazon Mechanical Turk)
Declaração de Tarefa 1.3: Garantir a integridade dos dados e prepará-los para modelagem.
Conhecimento de:
- Métricas de viés pré-treinamento para dados numéricos, de texto e de imagem (por exemplo, desequilíbrio de classe [CI], diferença nas proporções de rótulos [DPL])
- Estratégias para lidar com CI em conjuntos de dados numéricos, de texto e de imagem (por exemplo, geração sintética de dados, reamostragem)
- Técnicas para criptografar dados
- Classificação de dados, anonimização e mascaramento
- Implicações dos requisitos de conformidade (por exemplo, informações de identificação pessoal [PII], informações de saúde protegidas [PHI], residência de dados)
Habilidades em:
- Validar a qualidade dos dados (por exemplo, usando o AWS Glue DataBrew e o AWS Glue Data Quality)
- Identificar e mitigar fontes de viés nos dados (por exemplo, viés de seleção, viés de medição) usando ferramentas da AWS (por exemplo, SageMaker Clarify)
- Preparar dados para reduzir o viés de previsão (por exemplo, usando divisão, embaralhamento e aumento de conjunto de dados)
- Configurar dados para carregar no recurso de treinamento de modelo (por exemplo, Amazon EFS, Amazon FSx)
Domínio 2: Desenvolvimento de Modelos de ML
Declaração de Tarefa 2.1: Escolher uma abordagem de modelagem.
Conhecimento de:
- Capacidades e usos apropriados de algoritmos de ML para resolver problemas de negócios
- Como usar os serviços de inteligência artificial (IA) da AWS (por exemplo, Amazon Translate, Amazon Transcribe, Amazon Rekognition, Amazon Bedrock) para resolver problemas de negócios específicos
- Como considerar a interpretabilidade durante a seleção de modelos ou algoritmos
- Algoritmos internos do SageMaker e quando aplicá-los
Habilidades em:
- Avaliar os dados disponíveis e a complexidade do problema para determinar a viabilidade de uma solução de ML
- Comparar e selecionar modelos ou algoritmos de ML apropriados para resolver problemas específicos
- Escolher algoritmos internos, modelos base e modelos de solução (por exemplo, no SageMaker JumpStart e no Amazon Bedrock)
- Selecionar modelos ou algoritmos com base nos custos
- Selecionar serviços de IA para resolver necessidades comerciais comuns
Declaração de Tarefa 2.2: Treinar e refinar modelos.
Conhecimento de:
- Elementos no processo de treinamento (por exemplo, época, etapas, tamanho do lote)
- Métodos para reduzir o tempo de treinamento do modelo (por exemplo, parada antecipada, treinamento distribuído)
- Fatores que influenciam o tamanho do modelo
- Métodos para melhorar o desempenho do modelo
- Benefícios das técnicas de regularização (por exemplo, dropout, decaimento de peso, L1 e L2)
- Técnicas de ajuste de hiperparâmetros (por exemplo, pesquisa aleatória, otimização bayesiana)
- Hiperparâmetros do modelo e seus efeitos no desempenho do modelo (por exemplo, número de árvores em um modelo baseado em árvores, número de camadas em uma rede neural)
- Métodos para integrar modelos construídos fora do SageMaker ao SageMaker
Habilidades em:
- Usar algoritmos internos do SageMaker e bibliotecas comuns de ML para desenvolver modelos de ML
- Usar o modo de script do SageMaker com estruturas compatíveis com o SageMaker para treinar modelos (por exemplo, TensorFlow, PyTorch)
- Usar conjuntos de dados personalizados para ajustar modelos pré-treinados (por exemplo, Amazon Bedrock, SageMaker JumpStart)
- Realizar ajuste de hiperparâmetros (por exemplo, usando a sintonia automática de modelo do SageMaker [AMT])
- Integrar recursos de otimização automática de hiperparâmetros
- Evitar o superajuste, o subajuste e o esquecimento catastrófico dos modelos (por exemplo, usando técnicas de regularização, seleção de recursos)
- Combinar vários modelos de treinamento para melhorar o desempenho (por exemplo, empilhamento, boosting)
- Reduzir o tamanho do modelo (por exemplo, alterando os tipos de dados, podando, atualizando a seleção de recursos, compactação)
- Gerenciar versões de modelos para repetibilidade e auditorias (por exemplo, usando o SageMaker Model Registry)
Declaração de Tarefa 2.3: Analisar o desempenho do modelo.
Conhecimento de:
- Técnicas e métricas de avaliação de modelos (por exemplo, matriz de confusão, mapas de calor, pontuação F1, precisão, recall, raiz do erro quadrático médio [RMSE], característica de operação do receptor [ROC], área sob a curva ROC [AUC])
- Métodos para criar linhas de base de desempenho
- Métodos para identificar o superajuste e o subajuste do modelo
- Métricas disponíveis no SageMaker Clarify para obter insights sobre os dados de treinamento de ML e os modelos
- Problemas de convergência
Habilidades em:
- Selecionar e interpretar métricas de avaliação e detectar viés do modelo
- Avaliar os trade-offs entre desempenho do modelo, tempo de treinamento e custo
- Realizar experimentos reproduzíveis usando serviços da AWS
- Comparar o desempenho de uma variante sombra com o desempenho de uma variante de produção
- Usar o SageMaker Clarify para interpretar as saídas do modelo
- Usar o SageMaker Model Debugger para depurar a convergência do modelo
Domínio 3: Implantação e Orquestração de Fluxos de Trabalho de ML
Declaração de Tarefa 3.1: Selecionar a infraestrutura de implantação com base na arquitetura existente e nos requisitos.
Conhecimento de:
- Melhores práticas de implantação (por exemplo, versionamento, estratégias de rollback)
- Serviços de implantação da AWS (por exemplo, SageMaker)
- Métodos para servir modelos de ML em tempo real e em lotes
- Como provisionar recursos de computação em ambientes de produção e de teste (por exemplo, CPU, GPU)
- Requisitos de modelos e endpoints para endpoints de implantação (por exemplo, endpoints sem servidor, endpoints em tempo real, endpoints assíncronos, inferência em lote)
- Como escolher contêineres apropriados (por exemplo, fornecidos ou personalizados)
- Métodos para otimizar modelos em dispositivos de borda (por exemplo, SageMaker Neo)
Habilidades em:
- Avaliar trade-offs de desempenho, custo e latência
- Escolher o ambiente de computação apropriado para treinamento e inferência com base nos requisitos (por exemplo, especificações da GPU ou CPU, família de processadores, largura de banda de rede)
- Selecionar o orquestrador de implantação correto (por exemplo, Apache Airflow, SageMaker Pipelines)
- Selecionar implantações de vários modelos ou vários contêineres
- Selecionar o alvo de implantação correto (por exemplo, endpoints do SageMaker, Kubernetes, Amazon Elastic Container Service [Amazon ECS], Amazon Elastic Kubernetes Service [Amazon EKS], Lambda)
- Escolher estratégias de implantação de modelos (por exemplo, tempo real, lote)
Declaração de Tarefa 3.2: Criar e roteirizar a infraestrutura com base na arquitetura existente e nos requisitos.
Conhecimento de:
- Diferença entre recursos sob demanda e provisionados
- Como comparar políticas de dimensionamento
- Trade-offs e casos de uso das opções de infraestrutura como código (IaC) (por exemplo, AWS CloudFormation, AWS Cloud Development Kit [AWS CDK])
- Conceitos de containerização e serviços de contêineres da AWS
- Como usar políticas de dimensionamento automático de endpoints do SageMaker para atender aos requisitos de escalabilidade (por exemplo, com base na demanda, no tempo)
Habilidades em:
- Aplicar as melhores práticas para habilitar soluções de ML sustentáveis, escaláveis e econômicas (por exemplo, dimensionamento automático em endpoints do SageMaker, adicionando dinamicamente instâncias Spot, usando instâncias do Amazon EC2, usando Lambda por trás dos endpoints)
- Automatizar o provisionamento de recursos de computação, incluindo a comunicação entre pilhas (por exemplo, usando CloudFormation, AWS CDK)
- Criar e manter contêineres (por exemplo, Amazon Elastic Container Registry [Amazon ECR], Amazon EKS, Amazon ECS, usando o trazido pelo próprio contêiner [BYOC] com o SageMaker)
- Configurar endpoints do SageMaker dentro da rede VPC
- Implantar e hospedar modelos usando o SDK do SageMaker
- Escolher métricas específicas para dimensionamento automático (por exemplo, latência do modelo, utilização da CPU, invocações por instância)
Declaração de Tarefa 3.3: Usar ferramentas de orquestração automatizada para configurar canais de integração contínua e entrega contínua (CI/CD).
Conhecimento de:
- Recursos e cotas do AWS CodePipeline, AWS CodeBuild e AWS CodeDeploy
- Automação e integração da ingestão de dados com serviços de orquestração
- Sistemas de controle de versão e uso básico (por exemplo, Git)
- Princípios de CI/CD e como eles se encaixam em fluxos de trabalho de ML
- Estratégias de implantação e ações de rollback (por exemplo, azul/verde, canário, linear)
- Como os repositórios de código e os pipelines funcionam juntos
Habilidades em:
- Configurar e solucionar problemas do CodeBuild, CodeDeploy e CodePipeline, incluindo estágios
- Aplicar estruturas de fluxo de implantação contínua para invocar pipelines (por exemplo, Gitflow, GitHub Flow)
- Usar serviços da AWS para automatizar a orquestração (por exemplo, para implantar modelos de ML, automatizar a construção de modelos)
- Configurar trabalhos de treinamento e inferência (por exemplo, usando regras do Amazon EventBridge, SageMaker Pipelines, CodePipeline)
- Criar testes automatizados em pipelines de CI/CD (por exemplo, testes de integração, testes unitários, testes de ponta a ponta)
- Construir e integrar mecanismos para retreinar modelos
Domínio 4: Monitoramento, Manutenção e Segurança de Soluções de ML
Declaração de Tarefa 4.1: Monitorar a inferência de modelos.
Conhecimento de:
- Deriva em modelos de ML
- Técnicas para monitorar a qualidade dos dados e o desempenho do modelo
- Princípios de design para lentes de ML relevantes para monitoramento
Habilidades em:
- Monitorar modelos em produção (por exemplo, usando o SageMaker Model Monitor)
- Monitorar fluxos de trabalho para detectar anomalias ou erros no processamento de dados ou inferência de modelos
- Detectar mudanças na distribuição de dados que podem afetar o desempenho do modelo (por exemplo, usando o SageMaker Clarify)
- Monitorar o desempenho do modelo em produção usando testes A/B
Declaração de Tarefa 4.2: Monitorar e otimizar a infraestrutura e os custos.
Conhecimento de:
- Principais métricas de desempenho para infraestrutura de ML (por exemplo, utilização, taxa de transferência, disponibilidade, escalabilidade, tolerância a falhas)
- Ferramentas de monitoramento e observabilidade para solucionar problemas de latência e desempenho (por exemplo, AWS X-Ray, Amazon CloudWatch Lambda Insights, Amazon CloudWatch Logs Insights)
- Como usar o AWS CloudTrail para registrar, monitorar e invocar atividades de retreinamento
- Diferenças entre tipos de instâncias e como elas afetam o desempenho (por exemplo, otimizadas para memória, otimizadas para computação, uso geral, otimizadas para inferência)
- Recursos das ferramentas de análise de custos (por exemplo, AWS Cost Explorer, AWS Billing and Cost Management, AWS Trusted Advisor)
- Técnicas de rastreamento e alocação de custos (por exemplo, marcação de recursos)
Habilidades em:
- Configurar e usar ferramentas para solucionar problemas e analisar recursos (por exemplo, CloudWatch Logs, CloudWatch alarms)
- Criar trilhas do CloudTrail
- Configurar painéis para monitorar métricas de desempenho (por exemplo, usando o Amazon QuickSight, os painéis do CloudWatch)
- Monitorar a infraestrutura (por exemplo, usando eventos do EventBridge)
- Dimensionar corretamente as famílias e tamanhos de instâncias (por exemplo, usando o SageMaker Inference Recommender e o AWS Compute Optimizer)
- Monitorar e resolver problemas de latência e escalabilidade
- Preparar a infraestrutura para monitoramento de custos (por exemplo, aplicando uma estratégia de marcação)
- Solucionar problemas de capacidade relacionados a custos e desempenho (por exemplo, concorrência provisionada, cotas de serviço, dimensionamento automático)
- Otimizar custos e definir cotas de custos usando ferramentas adequadas de gerenciamento de custos (por exemplo, AWS Cost Explorer, AWS Trusted Advisor, AWS Budgets)
- Otimizar custos de infraestrutura selecionando opções de compra (por exemplo, Spot Instances, On-Demand Instances, Reserved Instances, SageMaker Savings Plans)
Declaração de Tarefa 4.3: Proteger recursos da AWS.
Conhecimento de:
- Funções, políticas e grupos do IAM que controlam o acesso aos serviços da AWS (por exemplo, AWS Identity and Access Management [IAM], políticas de bucket, SageMaker Role Manager)
- Recursos de segurança e conformidade do SageMaker
- Controles para acesso à rede para recursos de ML
- Melhores práticas de segurança para pipelines de CI/CD
Habilidades em:
- Configurar acesso com privilégios mínimos a artefatos de ML
- Configurar políticas e funções do IAM para usuários e aplicativos que interajam com sistemas de ML
- Monitorar, auditar e registrar sistemas de ML para garantir a segurança e conformidade contínuas
- Solucionar e depurar problemas de segurança
- Construir VPCs, sub-redes e grupos de segurança para isolar de forma segura os sistemas de ML
Apêndice
Serviços e Recursos da AWS no Escopo
A lista a seguir contém serviços e recursos da AWS que estão no escopo do exame. Esta lista não é exaustiva e está sujeita a alterações. As ofertas da AWS aparecem em categorias alinhadas com as funções primárias das ofertas:
Análise:
- Amazon Athena
- Amazon Data Firehose
- Amazon EMR
- AWS Glue
- AWS Glue DataBrew
- AWS Glue Data Quality
- Amazon Kinesis
- AWS Lake Formation
- Amazon Managed Service for Apache Flink
- Amazon OpenSearch Service
- Amazon QuickSight
- Amazon Redshift
Integração de Aplicativos:
- Amazon EventBridge
- Amazon Managed Workflows for Apache Airflow (Amazon MWAA)
- Amazon Simple Notification Service (Amazon SNS)
- Amazon Simple Queue Service (Amazon SQS)
- AWS Step Functions
Gestão Financeira na Nuvem:
- AWS Billing and Cost Management
- AWS Budgets
- AWS Cost Explorer
Computação:
- AWS Batch
- Amazon EC2
- AWS Lambda
- AWS Serverless Application Repository
Contêineres:
- Amazon Elastic Container Registry (Amazon ECR)
- Amazon Elastic Container Service (Amazon ECS)
- Amazon Elastic Kubernetes Service (Amazon EKS)
Banco de Dados:
- Amazon DocumentDB (com compatibilidade com MongoDB)
- Amazon DynamoDB
- Amazon ElastiCache
- Amazon Neptune
- Amazon RDS
Ferramentas de Desenvolvimento:
- AWS Cloud Development Kit (AWS CDK)
- AWS CodeArtifact
- AWS CodeBuild
- AWS CodeDeploy
- AWS CodePipeline
- AWS X-Ray
Machine Learning:
- Amazon Augmented AI (Amazon A2I)
- Amazon Bedrock
- Amazon CodeGuru
- Amazon Comprehend
- Amazon Comprehend Medical
- Amazon DevOps Guru
- Amazon Fraud Detector
- AWS HealthLake
- Amazon Kendra
- Amazon Lex
- Amazon Lookout for Equipment
- Amazon Lookout for Metrics
- Amazon Lookout for Vision
- Amazon Mechanical Turk
- Amazon Personalize
- Amazon Polly
- Amazon Q
- Amazon Rekognition
- Amazon SageMaker
- Amazon Textract
- Amazon Transcribe
- Amazon Translate
Gerenciamento e Governança:
- AWS Auto Scaling
- AWS Chatbot
- AWS CloudFormation
- AWS CloudTrail
- Amazon CloudWatch
- Amazon CloudWatch Logs
- AWS Compute Optimizer
- AWS Config
- AWS Organizations
- AWS Service Catalog
- AWS Systems Manager
- AWS Trusted Advisor
Mídia:
- Amazon Kinesis Video Streams
Migração e Transferência:
Rede e Entrega de Conteúdo:
- Amazon API Gateway
- Amazon CloudFront
- AWS Direct Connect
- Amazon VPC
Segurança, Identidade e Conformidade:
- AWS Identity and Access Management (IAM)
- AWS Key Management Service (AWS KMS)
- Amazon Macie
- AWS Secrets Manager
Armazenamento:
- Amazon Elastic Block Store (Amazon EBS)
- Amazon Elastic File System (Amazon EFS)
- Amazon FSx
- Amazon S3
- Amazon S3 Glacier
- AWS Storage Gateway
Serviços e Recursos da AWS Fora do Escopo
A lista a seguir contém serviços e recursos da AWS que estão fora do escopo do exame. Esta lista não é exaustiva e está sujeita a alterações. Ofertas da AWS que são totalmente irrelevantes para os papéis-alvo do exame são excluídas desta lista:
Análise:
- AWS Clean Rooms
- Amazon DataZone
- Amazon FinSpace
Integração de Aplicativos:
- Amazon AppFlow
- Amazon MQ
- Amazon Simple Workflow Service (Amazon SWF)
Aplicativos Corporativos:
- Amazon Chime
- Amazon Connect
- Amazon Honeycode
- Amazon Pinpoint
- Amazon Simple Email Service (Amazon SES)
- AWS Supply Chain
- AWS Wickr
- Amazon WorkDocs
- Amazon WorkMail
Gestão Financeira na Nuvem:
- AWS Application Cost Profiler
Computação:
- AWS App Runner
- AWS Elastic Beanstalk
- Amazon Lightsail
- AWS Outposts
Contêineres:
- Red Hat OpenShift Service on AWS (ROSA)
**