CC

Guia oficial del examen MLA-C01

Formato del examen, dominios y consejos de preparacion

Guía de examen de AWS Certified Machine Learning Engineer - Associate (MLA-C01)

Introducción

El examen AWS Certified Machine Learning Engineer - Associate (MLA-C01) valida la capacidad de un candidato para crear, operacionalizar, implementar y mantener soluciones y flujos de trabajo de aprendizaje automático (ML) utilizando la nube de AWS.

El examen también valida la capacidad de un candidato para completar las siguientes tareas:

  • Ingerir, transformar, validar y preparar datos para el modelado de ML.
  • Seleccionar enfoques de modelado generales, entrenar modelos, ajustar hiperparámetros, analizar el rendimiento del modelo y administrar las versiones del modelo.
  • Elegir la infraestructura de implementación y los puntos finales, aprovisionar los recursos informáticos y configurar el escalado automático según los requisitos.
  • Configurar tuberías de integración continua y entrega continua (CI/CD) para automatizar la orquestación de flujos de trabajo de ML.
  • Monitorear modelos, datos e infraestructura para detectar problemas.
  • Asegurar sistemas y recursos de ML a través de controles de acceso, características de cumplimiento y mejores prácticas.

Perfil del candidato objetivo

El candidato objetivo debe tener al menos 1 año de experiencia usando Amazon SageMaker y otros servicios de AWS para la ingeniería de ML. El candidato objetivo también debe tener al menos 1 año de experiencia en un cargo relacionado como desarrollador de software backend, desarrollador DevOps, ingeniero de datos o científico de datos.

Conocimientos generales de TI recomendados

El candidato objetivo debe tener los siguientes conocimientos generales de TI:

  • Comprensión básica de los algoritmos de ML comunes y sus casos de uso
  • Conceptos fundamentales de ingeniería de datos, incluido el conocimiento de formatos de datos comunes, ingestión y transformación para trabajar con tuberías de datos de ML
  • Conocimiento de consulta y transformación de datos
  • Conocimiento de las mejores prácticas de ingeniería de software para el desarrollo, implementación y depuración de código modular y reutilizable
  • Familiaridad con el aprovisionamiento y el monitoreo de recursos de ML en la nube y locales
  • Experiencia con tuberías de CI/CD e infraestructura como código (IaC)
  • Experiencia con repositorios de código para control de versiones y tuberías de CI/CD

Conocimientos de AWS recomendados

El candidato objetivo debe tener los siguientes conocimientos de AWS:

  • Conocimiento de las capacidades y los algoritmos de SageMaker para la creación y implementación de modelos
  • Conocimiento de los servicios de almacenamiento y procesamiento de datos de AWS para preparar datos para el modelado
  • Familiaridad con la implementación de aplicaciones e infraestructura en AWS
  • Conocimiento de las herramientas de monitoreo para el registro y la solución de problemas de sistemas de ML
  • Conocimiento de los servicios de AWS para la automatización y orquestación de tuberías de CI/CD
  • Comprensión de las mejores prácticas de seguridad de AWS para la gestión de identidades y accesos, el cifrado y la protección de datos

Tareas laborales que están fuera del alcance del candidato objetivo

La siguiente lista contiene tareas laborales que no se espera que el candidato objetivo pueda realizar. Esta lista no es exhaustiva. Estas tareas están fuera del alcance del examen:

  • Diseñar y arquitecturar soluciones de ML de extremo a extremo
  • Establecer mejores prácticas y guiar las estrategias de ML
  • Manejar la integración con una amplia gama de servicios o nuevas herramientas y tecnologías
  • Trabajar en profundidad en dos o más dominios de ML (por ejemplo, procesamiento del lenguaje natural [NLP], visión por computadora)
  • Cuantificar modelos y analizar el impacto en la precisión

Consulte el Apéndice para obtener una lista de los servicios y funciones de AWS dentro del alcance y una lista de los servicios y funciones de AWS fuera del alcance.

Contenido del examen

Tipos de preguntas

El examen contiene uno o más de los siguientes tipos de preguntas:

  • Opción múltiple: Tiene una respuesta correcta y tres respuestas incorrectas (distractores).
  • Respuesta múltiple: Tiene dos o más respuestas correctas de entre cinco o más opciones de respuesta. Debe seleccionar todas las respuestas correctas para recibir crédito por la pregunta.
  • Ordenamiento: Tiene una lista de 3 a 5 respuestas para completar una tarea específica. Debe seleccionar las respuestas correctas y colocarlas en el orden correcto para recibir crédito por la pregunta.
  • Emparejamiento: Tiene una lista de respuestas para emparejar con una lista de 3 a 7 indicadores. Debe emparejar correctamente todas las parejas para recibir crédito por la pregunta.
  • Estudio de caso: Tiene un escenario con dos o más preguntas sobre el escenario. El escenario es el mismo para cada pregunta del estudio de caso. Cada pregunta del estudio de caso se evaluará por separado. Recibirá crédito por cada pregunta que responda correctamente en el estudio de caso.

Las preguntas sin respuesta en el examen se puntúan como incorrectas. No hay penalización por adivinar. El examen incluye 50 preguntas que afectan su puntaje.¹

Contenido no calificado

El examen incluye 15 preguntas no calificadas que no afectan su puntaje. AWS recopila información sobre el rendimiento en estas preguntas no calificadas para evaluar estas preguntas para su uso futuro como preguntas calificadas. Estas preguntas no calificadas no se identifican en el examen.

¹ No se aplica a la versión beta del examen. Puede encontrar más información sobre los exámenes beta en general en el sitio web de AWS Certification.

Resultados del examen

El examen AWS Certified Machine Learning Engineer - Associate (MLA-C01) tiene una designación de aprobado o reprobado. El examen se puntúa en comparación con un estándar mínimo establecido por los profesionales de AWS que siguen las mejores prácticas y pautas de la industria de certificación.

Sus resultados para el examen se informan como un puntaje escalado de 100 a 1,000. El puntaje mínimo aprobatorio es 720. Su puntaje muestra cómo se desempeñó en el examen en general y si aprobó. Los modelos de puntuación escalada ayudan a equiparar los puntajes en múltiples formas de examen que podrían tener niveles de dificultad ligeramente diferentes.

Su informe de calificaciones podría contener una tabla de clasificaciones de su desempeño a nivel de cada sección. El examen utiliza un modelo de puntuación compensatoria, lo que significa que no necesita obtener un puntaje aprobatorio en cada sección. Solo necesita aprobar el examen en general.

Cada sección del examen tiene una ponderación específica, por lo que algunas secciones tienen más preguntas que otras. La tabla de clasificaciones contiene información general que resalta sus fortalezas y debilidades. Tenga cuidado al interpretar los comentarios a nivel de sección.

Esquema de contenido

Esta guía de examen incluye las ponderaciones, los dominios de contenido y las declaraciones de tareas para el examen. Esta guía no proporciona una lista exhaustiva del contenido del examen. Sin embargo, hay disponible contexto adicional para cada declaración de tarea para ayudarlo a prepararse para el examen.

El examen tiene los siguientes dominios de contenido y ponderaciones:

  • Dominio 1: Preparación de datos para el aprendizaje automático (ML) (28% del contenido calificado)
  • Dominio 2: Desarrollo de modelos de ML (26% del contenido calificado)
  • Dominio 3: Implementación y orquestación de flujos de trabajo de ML (22% del contenido calificado)
  • Dominio 4: Monitoreo, mantenimiento y seguridad de la solución de ML (24% del contenido calificado)

Dominio 1: Preparación de datos para el aprendizaje automático (ML)

Declaración de tarea 1.1: Ingerir y almacenar datos.

Conocimiento de:

  • Formatos de datos y mecanismos de ingestión (por ejemplo, formatos validados y no validados, Apache Parquet, JSON, CSV, Apache ORC, Apache Avro, RecordIO)
  • Cómo usar las fuentes de datos principales de AWS (por ejemplo, Amazon S3, Amazon Elastic File System [Amazon EFS], Amazon FSx for NetApp ONTAP)
  • Cómo usar fuentes de datos de streaming de AWS para ingerir datos (por ejemplo, Amazon Kinesis, Apache Flink, Apache Kafka)
  • Opciones de almacenamiento de AWS, incluidos casos de uso y compensaciones

Habilidades en:

  • Extraer datos del almacenamiento (por ejemplo, Amazon S3, Amazon Elastic Block Store [Amazon EBS], Amazon EFS, Amazon RDS, Amazon DynamoDB) utilizando las opciones de servicio de AWS relevantes (por ejemplo, Amazon S3 Transfer Acceleration, Amazon EBS Provisioned IOPS)
  • Elegir los formatos de datos apropiados (por ejemplo, Parquet, JSON, CSV, ORC) según los patrones de acceso a los datos
  • Ingerir datos en Amazon SageMaker Data Wrangler y SageMaker Feature Store
  • Fusionar datos de múltiples fuentes (por ejemplo, utilizando técnicas de programación, AWS Glue, Apache Spark)
  • Solucionar problemas y depurar problemas de ingestión y almacenamiento de datos que involucren capacidad y escalabilidad
  • Tomar decisiones iniciales de almacenamiento en función del costo, el rendimiento y la estructura de los datos

Declaración de tarea 1.2: Transformar datos y realizar ingeniería de características.

Conocimiento de:

  • Técnicas de limpieza y transformación de datos (por ejemplo, detectar y tratar valores atípicos, imputar datos faltantes, combinar, deduplicar)
  • Técnicas de ingeniería de características (por ejemplo, escalado y estandarización de datos, división de características, binning, transformación logarítmica, normalización)
  • Técnicas de codificación (por ejemplo, codificación one-hot, codificación binaria, codificación de etiquetas, tokenización)
  • Herramientas para explorar, visualizar o transformar datos y características (por ejemplo, SageMaker Data Wrangler, AWS Glue, AWS Glue DataBrew)
  • Servicios que transforman datos de transmisión (por ejemplo, AWS Lambda, Spark)
  • Servicios de anotación y etiquetado de datos que crean conjuntos de datos etiquetados de alta calidad

Habilidades en:

  • Transformar datos utilizando herramientas de AWS (por ejemplo, AWS Glue, AWS Glue DataBrew, Spark en ejecución en Amazon EMR, SageMaker Data Wrangler)
  • Crear y administrar características utilizando herramientas de AWS (por ejemplo, SageMaker Feature Store)
  • Validar y etiquetar datos utilizando servicios de AWS (por ejemplo, SageMaker Ground Truth, Amazon Mechanical Turk)

Declaración de tarea 1.3: Garantizar la integridad de los datos y preparar los datos para el modelado.

Conocimiento de:

  • Métricas de sesgo previo a la capacitación para datos numéricos, de texto e imagen (por ejemplo, desequilibrio de clase [CI], diferencia en proporciones de etiquetas [DPL])
  • Estrategias para abordar el CI en conjuntos de datos numéricos, de texto e imagen (por ejemplo, generación de datos sintéticos, remuestreo)
  • Técnicas para cifrar datos
  • Clasificación, anonimización y enmascaramiento de datos
  • Implicaciones de los requisitos de cumplimiento (por ejemplo, información de identificación personal [PII], información de salud protegida [PHI], residencia de datos)

Habilidades en:

  • Validar la calidad de los datos (por ejemplo, utilizando AWS Glue DataBrew y AWS Glue Data Quality)
  • Identificar y mitigar las fuentes de sesgo en los datos (por ejemplo, sesgo de selección, sesgo de medición) utilizando herramientas de AWS (por ejemplo, SageMaker Clarify)
  • Preparar datos para reducir el sesgo de predicción (por ejemplo, utilizando división, barajado y aumento de conjuntos de datos)
  • Configurar datos para cargarlos en el recurso de entrenamiento del modelo (por ejemplo, Amazon EFS, Amazon FSx)

Dominio 2: Desarrollo de modelos de ML

Declaración de tarea 2.1: Elegir un enfoque de modelado.

Conocimiento de:

  • Capacidades y usos apropiados de los algoritmos de ML para resolver problemas empresariales
  • Cómo usar los servicios de inteligencia artificial (IA) de AWS (por ejemplo, Amazon Translate, Amazon Transcribe, Amazon Rekognition, Amazon Bedrock) para resolver problemas empresariales específicos
  • Cómo considerar la interpretabilidad durante la selección de modelos o la selección de algoritmos
  • Algoritmos integrados de SageMaker y cuándo aplicarlos

Habilidades en:

  • Evaluar los datos disponibles y la complejidad del problema para determinar la viabilidad de una solución de ML
  • Comparar y seleccionar modelos o algoritmos de ML apropiados para resolver problemas específicos
  • Elegir algoritmos integrados, modelos de fundación y plantillas de solución (por ejemplo, en SageMaker JumpStart y Amazon Bedrock)
  • Seleccionar modelos o algoritmos en función de los costos
  • Seleccionar servicios de IA para resolver necesidades empresariales comunes

Declaración de tarea 2.2: Entrenar y refinar modelos.

Conocimiento de:

  • Elementos en el proceso de entrenamiento (por ejemplo, época, pasos, tamaño del lote)
  • Métodos para reducir el tiempo de entrenamiento del modelo (por ejemplo, detención temprana, entrenamiento distribuido)
  • Factores que influyen en el tamaño del modelo
  • Métodos para mejorar el rendimiento del modelo
  • Beneficios de las técnicas de regularización (por ejemplo, abandono, decaimiento de peso, L1 y L2)
  • Técnicas de ajuste de hiperparámetros (por ejemplo, búsqueda aleatoria, optimización bayesiana)
  • Hiperparámetros del modelo y sus efectos en el rendimiento del modelo (por ejemplo, número de árboles en un modelo basado en árboles, número de capas en una red neuronal)
  • Métodos para integrar modelos que se construyeron fuera de SageMaker en SageMaker

Habilidades en:

  • Usar algoritmos integrados de SageMaker y bibliotecas comunes de ML para desarrollar modelos de ML
  • Usar el modo de script de SageMaker con los marcos compatibles con SageMaker para entrenar modelos (por ejemplo, TensorFlow, PyTorch)
  • Usar conjuntos de datos personalizados para ajustar modelos preentrenados (por ejemplo, Amazon Bedrock, SageMaker JumpStart)
  • Realizar sintonización de hiperparámetros (por ejemplo, utilizando el sintonizador automático de modelos (AMT) de SageMaker)
  • Integrar capacidades automatizadas de optimización de hiperparámetros
  • Evitar el sobreajuste, el subajuste y el olvido catastrófico del modelo (por ejemplo, utilizando técnicas de regularización, selección de características)
  • Combinar varios modelos de entrenamiento para mejorar el rendimiento (por ejemplo, conjunto, apilamiento, impulso)
  • Reducir el tamaño del modelo (por ejemplo, al cambiar los tipos de datos, podar, actualizar la selección de características, comprimir)
  • Administrar las versiones de los modelos para la repetibilidad y las auditorías (por ejemplo, utilizando el SageMaker Model Registry)

Declaración de tarea 2.3: Analizar el rendimiento del modelo.

Conocimiento de:

  • Técnicas y métricas de evaluación de modelos (por ejemplo, matriz de confusión, mapas de calor, puntaje F1, precisión, exhaustividad, error cuadrático medio [RMSE], característica operativa del receptor [ROC], Área bajo la curva ROC [AUC])
  • Métodos para crear líneas de base de rendimiento
  • Métodos para identificar el sobreajuste y el subajuste del modelo
  • Métricas disponibles en SageMaker Clarify para obtener información sobre los datos de entrenamiento de ML y los modelos
  • Problemas de convergencia

Habilidades en:

  • Seleccionar e interpretar las métricas de evaluación y detectar el sesgo del modelo
  • Evaluar los compromisos entre el rendimiento del modelo, el tiempo de entrenamiento y el costo
  • Realizar experimentos reproducibles utilizando servicios de AWS
  • Comparar el rendimiento de una variante de sombra con el rendimiento de una variante de producción
  • Usar SageMaker Clarify para interpretar las salidas del modelo
  • Usar SageMaker Model Debugger para depurar la convergencia del modelo

Dominio 3: Implementación y orquestación de flujos de trabajo de ML

Declaración de tarea 3.1: Seleccionar la infraestructura de implementación en función de la arquitectura y los requisitos existentes.

Conocimiento de:

  • Prácticas de implementación recomendadas (por ejemplo, control de versiones, estrategias de rollback)
  • Servicios de implementación de AWS (por ejemplo, SageMaker)
  • Métodos para servir modelos de ML en tiempo real y por lotes
  • Cómo aprovisionar recursos informáticos en entornos de producción y entornos de prueba (por ejemplo, CPU, GPU)
  • Requisitos de modelos y puntos finales para puntos finales de implementación (por ejemplo, puntos finales sin servidor, puntos finales en tiempo real, puntos finales asincrónicos, inferencia por lotes)
  • Cómo elegir los contenedores apropiados (por ejemplo, provistos o personalizados)
  • Métodos para optimizar modelos en dispositivos perimetrales (por ejemplo, SageMaker Neo)

Habilidades en:

  • Evaluar los intercambios de rendimiento, costo y latencia
  • Elegir el entorno de cómputo adecuado para el entrenamiento y la inferencia según los requisitos (por ejemplo, especificaciones de GPU o CPU, familia de procesadores, ancho de banda de red)
  • Seleccionar el orquestador de implementación correcto (por ejemplo, Apache Airflow, SageMaker Pipelines)
  • Seleccionar implementaciones de varios modelos o varios contenedores
  • Seleccionar el destino de implementación correcto (por ejemplo, puntos finales de SageMaker, Kubernetes, Amazon Elastic Container Service [Amazon ECS], Amazon Elastic Kubernetes Service [Amazon EKS], Lambda)
  • Elegir estrategias de implementación de modelos (por ejemplo, en tiempo real, por lotes)

Declaración de tarea 3.2: Crear y escribir guiones de infraestructura en función de la arquitectura y los requisitos existentes.

Conocimiento de:

  • Diferencia entre recursos a pedido y provistos
  • Cómo comparar las políticas de escalado
  • Compensaciones y casos de uso de las opciones de infraestructura como código (IaC) (por ejemplo, AWS CloudFormation, AWS Cloud Development Kit [AWS CDK])
  • Conceptos de containerización y servicios de contenedores de AWS
  • Cómo usar las políticas de escalado automático de puntos finales de SageMaker para cumplir con los requisitos de escalabilidad (por ejemplo, según la demanda, el tiempo)

Habilidades en:

  • Aplicar las mejores prácticas para permitir soluciones de ML mantenibles, escalables y rentables (por ejemplo, escalado automático en puntos finales de SageMaker, agregar dinámicamente instancias spot, utilizando instancias de Amazon EC2, utilizando Lambda detrás de los puntos finales)
  • Automatizar el aprovisionamiento de recursos informáticos, incluida la comunicación entre pilas (por ejemplo, utilizando CloudFormation, AWS CDK)
  • Construir y mantener contenedores (por ejemplo, Amazon Elastic Container Registry [Amazon ECR], Amazon EKS, Amazon ECS, utilizando traer su propio contenedor [BYOC] con SageMaker)
  • Configurar puntos finales de SageMaker dentro de la red VPC
  • Implementar y alojar modelos utilizando el SDK de SageMaker
  • Elegir métricas específicas para el escalado automático (por ejemplo, latencia del modelo, utilización de CPU, invocaciones por instancia)

Declaración de tarea 3.3: Utilizar herramientas de orquestación automatizadas para configurar tuberías de integración y entrega continua (CI/CD).

Conocimiento de:

  • Capacidades y cuotas de AWS CodePipeline, AWS CodeBuild y AWS CodeDeploy
  • Automatización e integración de la ingestión de datos con servicios de orquestación
  • Sistemas de control de versiones y uso básico (por ejemplo, Git)
  • Principios de CI/CD y cómo se ajustan a los flujos de trabajo de ML
  • Estrategias de implementación y acciones de retroceso (por ejemplo, azul/verde, canario, lineal)
  • Cómo funcionan los repositorios de código y las tuberías juntos

Habilidades en:

  • Configurar y solucionar problemas de CodeBuild, CodeDeploy y CodePipeline, incluidas las etapas
  • Aplicar estructuras de flujo de implementación continua para invocar tuberías (por ejemplo, Gitflow, GitHub Flow)
  • Usar servicios de AWS para automatizar la orquestación (por ejemplo, para implementar modelos de ML, automatizar la creación de modelos)
  • Configurar trabajos de entrenamiento e inferencia (por ejemplo, utilizando reglas de Amazon EventBridge, SageMaker Pipelines, CodePipeline)
  • Crear pruebas automatizadas en tuberías de CI/CD (por ejemplo, pruebas de integración, pruebas unitarias, pruebas de extremo a extremo)
  • Construir e integrar mecanismos para volver a entrenar modelos

Dominio 4: Monitoreo, mantenimiento y seguridad de la solución de ML

Declaración de tarea 4.1: Monitorear la inferencia del modelo.

Conocimiento de:

  • Desviación en modelos de ML
  • Técnicas para monitorear la calidad de los datos y el rendimiento del modelo
  • Principios de diseño para lentes de ML relevantes para el monitoreo

Habilidades en:

  • Monitorear modelos en producción (por ejemplo, utilizando SageMaker Model Monitor)
  • Monitorear flujos de trabajo para detectar anomalías o errores en el procesamiento de datos o la inferencia del modelo
  • Detectar cambios en la distribución de los datos que puedan afectar el rendimiento del modelo (por ejemplo, utilizando SageMaker Clarify)
  • Monitorear el rendimiento del modelo en producción utilizando pruebas A/B

Declaración de tarea 4.2: Monitorear y optimizar la infraestructura y los costos.

Conocimiento de:

  • Métricas de rendimiento clave para la infraestructura de ML (por ejemplo, utilización, productividad, disponibilidad, escalabilidad, tolerancia a fallas)
  • Herramientas de monitoreo y observabilidad para solucionar problemas de latencia y rendimiento (por ejemplo, AWS X-Ray, Amazon CloudWatch Lambda Insights, Amazon CloudWatch Logs Insights)
  • Cómo usar AWS CloudTrail para registrar, monitorear e invocar actividades de reentrenamiento
  • Diferencias entre los tipos de instancia y cómo afectan el rendimiento (por ejemplo, optimizadas para memoria, optimizadas para computación, de uso general, optimizadas para inferencia)
  • Capacidades de las herramientas de análisis de costos (por ejemplo, AWS Cost Explorer, AWS Billing and Cost Management, AWS Trusted Advisor)
  • Técnicas de seguimiento y asignación de costos (por ejemplo, etiquetado de recursos)

Habilidades en:

  • Configurar y usar herramientas para solucionar problemas y analizar recursos (por ejemplo, CloudWatch Logs, CloudWatch alarms)
  • Crear rastros de CloudTrail
  • Configurar paneles para monitorear las métricas de rendimiento (por ejemplo, utilizando Amazon QuickSight, CloudWatch dashboards)
  • Monitorear la infraestructura (por ejemplo, utilizando eventos de EventBridge)
  • Dimensionar adecuadamente las familias y tamaños de instancia (por ejemplo, utilizando SageMaker Inference Recommender y AWS Compute Optimizer)
  • Monitorear y resolver problemas de latencia y escalado
  • Preparar la infraestructura para el monitoreo de costos (por ejemplo, aplicando una estrategia de etiquetado)
  • Solucionar problemas de capacidad relacionados con el costo y el rendimiento (por ejemplo, concurrencia provisionada, cuotas de servicio, escalado automático)
  • Optimizar los costos y establecer presupuestos de costos utilizando las herramientas de administración de costos apropiadas (por ejemplo, AWS Cost Explorer, AWS Trusted Advisor, AWS Budgets)
  • Optimizar los costos de la infraestructura seleccionando opciones de compra (por ejemplo, instancias spot, instancias on-demand, instancias reservadas, planes de ahorro de SageMaker)

Declaración de tarea 4.3: Asegurar los recursos de AWS.

Conocimiento de:

  • Roles, políticas y grupos de IAM que controlan el acceso a los servicios de AWS (por ejemplo, AWS Identity and Access Management [IAM], políticas de bucket, SageMaker Role Manager)
  • Características de seguridad y cumplimiento de SageMaker
  • Controles de acceso a la red para recursos de ML
  • Mejores prácticas de seguridad para tuberías de CI/CD

Habilidades en:

  • Configurar el acceso de privilegios mínimos a los artefactos de ML
  • Configurar políticas y roles de IAM para usuarios y aplicaciones que interactúen con sistemas de ML
  • Monitorear, auditar y registrar sistemas de ML para garantizar la seguridad y el cumplimiento continuos
  • Solucionar problemas y depurar problemas de seguridad
  • Construir VPC, subredes y grupos de seguridad para aislar de forma segura los sistemas de ML

Apéndice

Servicios y funciones de AWS dentro del alcance

La siguiente lista contiene servicios y funciones de AWS que están dentro del alcance del examen. Esta lista no es exhaustiva y está sujeta a cambios. Las ofertas de AWS aparecen en categorías que se alinean con las funciones principales de las ofertas:

Análisis:

  • Amazon Athena
  • Amazon Data Firehose
  • Amazon EMR
  • AWS Glue
  • AWS Glue DataBrew
  • AWS Glue Data Quality
  • Amazon Kinesis
  • AWS Lake Formation
  • Servicio administrado de AWS para Apache Flink
  • Amazon OpenSearch Service
  • Amazon QuickSight
  • Amazon Redshift

Integración de aplicaciones:

  • Amazon EventBridge
  • Amazon Managed Workflows for Apache Airflow (Amazon MWAA)
  • Amazon Simple Notification Service (Amazon SNS)
  • Amazon Simple Queue Service (Amazon SQS)
  • AWS Step Functions

Administración de costos en la nube:

  • AWS Billing and Cost Management
  • AWS Budgets
  • AWS Cost Explorer

Cálculo:

  • AWS Batch
  • Amazon EC2
  • AWS Lambda
  • AWS Serverless Application Repository

Contenedores:

  • Amazon Elastic Container Registry (Amazon ECR)
  • Amazon Elastic Container Service (Amazon ECS)
  • Amazon Elastic Kubernetes Service (Amazon EKS)

Base de datos:

  • Amazon DocumentDB (con compatibilidad con MongoDB)
  • Amazon DynamoDB
  • Amazon ElastiCache
  • Amazon Neptune
  • Amazon RDS

Herramientas de desarrollador:

  • AWS Cloud Development Kit (AWS CDK)
  • AWS CodeArtifact
  • AWS CodeBuild
  • AWS CodeDeploy
  • AWS CodePipeline
  • AWS X-Ray

Aprendizaje automático:

  • Amazon Augmented AI (Amazon A2I)
  • Amazon Bedrock
  • Amazon CodeGuru
  • Amazon Comprehend
  • Amazon Comprehend Medical
  • Amazon DevOps Guru
  • Amazon Fraud Detector
  • AWS HealthLake
  • Amazon Kendra
  • Amazon Lex
  • Amazon Lookout for Equipment
  • Amazon Lookout for Metrics
  • Amazon Lookout for Vision
  • Amazon Mechanical Turk
  • Amazon Personalize
  • Amazon Polly
  • Amazon Q
  • Amazon Rekognition
  • Amazon SageMaker
  • Amazon Textract
  • Amazon Transcribe
  • Amazon Translate

Gestión y gobernanza:

  • AWS Auto Scaling
  • AWS Chatbot
  • AWS CloudFormation
  • AWS CloudTrail
  • Amazon CloudWatch
  • Amazon CloudWatch Logs
  • AWS Compute Optimizer
  • AWS Config
  • AWS Organizations
  • AWS Service Catalog
  • AWS Systems Manager
  • AWS Trusted Advisor

Medios:

  • Amazon Kinesis Video Streams

Migración y transferencia:

  • AWS DataSync

Redes y entrega de contenido:

  • Amazon API Gateway
  • Amazon CloudFront
  • AWS Direct Connect
  • Amazon VPC

Seguridad, identidad y cumplimiento:

  • AWS Identity and Access Management (IAM)
  • AWS Key Management Service (AWS KMS)
  • Amazon Macie
  • AWS Secrets Manager

Almacenamiento:

  • Amazon Elastic Block Store (Amazon EBS)
  • Amazon Elastic File System (Amazon EFS)
  • Amazon FSx
  • Amazon S3
  • Amazon S3 Glacier
  • AWS Storage Gateway

Servicios y funciones de AWS fuera del alcance

La siguiente lista contiene servicios y funciones de AWS que están fuera del alcance del examen. Esta lista no es exhaustiva y está sujeta a cambios. Las ofertas de AWS que no están relacionadas con los roles laborales objetivo del examen se excluyen de esta lista:

Análisis:

  • AWS Clean Rooms
  • Amazon DataZone
  • Amazon FinSpace

Integración de aplicaciones:

  • Amazon AppFlow
  • Amazon MQ
  • Amazon Simple Workflow Service (Amazon SWF)

Aplicaciones empresariales:

  • Amazon Chime
  • Amazon Connect
  • Amazon Honeycode
  • Amazon Pinpoint
  • Amazon Simple Email Service (Amazon SES)
  • AWS Supply Chain
  • AWS Wickr
  • Amazon WorkDocs
  • Amazon WorkMail

Administración de costos en la nube:

  • AWS Application Cost Profiler

Cálculo:

  • AWS App Runner
  • AWS Elastic Beanstalk
  • Amazon Lightsail
  • AWS Outposts

Contenedores:

  • Servicio de Red Hat OpenShift en AWS (ROSA)

Habilitación del cliente:

  • AWS Activate para startups