Guida all'esame AWS Certified Data Engineer - Associate (DEA-C01)
Versione 1.0 DEA-C01
Introduzione
L'esame AWS Certified Data Engineer - Associate (DEA-C01) convalida la capacità di un candidato di implementare pipeline di dati e monitorare, risolvere i problemi e ottimizzare i problemi di costo e prestazioni in conformità alle best practice.
L'esame convalida anche la capacità di un candidato di eseguire i seguenti compiti:
- Ingestionare e trasformare i dati e orchestrare le pipeline di dati applicando i concetti di programmazione.
- Scegliere un archivio di dati ottimale, progettare modelli di dati, catalogare schemi di dati e gestire i cicli di vita dei dati.
- Rendere operativa, mantenere e monitorare le pipeline di dati. Analizzare i dati e garantire la qualità dei dati.
- Implementare l'autenticazione, l'autorizzazione, la crittografia dei dati, la privacy e la governance appropriati. Abilitare la registrazione.
Descrizione del candidato target
Il candidato target dovrebbe avere l'equivalente di 2-3 anni di esperienza nell'ingegneria dei dati. Il candidato target dovrebbe comprendere gli effetti del volume, della varietà e della velocità sull'acquisizione, la trasformazione, il modellamento, la sicurezza, la governance, la privacy, la progettazione dello schema e la progettazione ottimale dell'archivio di dati. Inoltre, il candidato target dovrebbe avere almeno 1-2 anni di esperienza pratica con i servizi AWS.
Conoscenze IT generali consigliate
Il candidato target dovrebbe avere le seguenti conoscenze IT generali:
- Configurazione e manutenzione di pipeline di estrazione, trasformazione e caricamento (ETL) dall'acquisizione alla destinazione
- Applicazione di concetti di programmazione di alto livello ma indipendenti dal linguaggio come richiesto dalla pipeline
- Come utilizzare i comandi Git per il controllo del codice sorgente
- Come utilizzare data lake per archiviare i dati
- Concetti generali per networking, storage e calcolo
Conoscenze AWS consigliate
Il candidato target dovrebbe avere le seguenti conoscenze AWS:
- Come utilizzare i servizi AWS per realizzare i compiti elencati nella sezione Introduzione di questa guida all'esame
- Una comprensione dei servizi AWS per la crittografia, la governance, la protezione e la registrazione di tutti i dati che fanno parte delle pipeline di dati
- La capacità di confrontare i servizi AWS per comprendere le differenze di costo, prestazioni e funzionalità tra i servizi
- Come strutturare le query SQL ed eseguire query SQL sui servizi AWS
- Una comprensione di come analizzare i dati, verificare la qualità dei dati e garantire la coerenza dei dati utilizzando i servizi AWS
Compiti lavorativi fuori ambito per il candidato target
L'elenco seguente contiene compiti lavorativi che il candidato target non è previsto che sappia eseguire. Questo elenco non è esaustivo. Questi compiti sono fuori ambito per l'esame:
- Eseguire attività di intelligenza artificiale e apprendimento automatico (AI/ML).
- Dimostrare la conoscenza della sintassi specifica del linguaggio di programmazione.
- Trarre conclusioni aziendali basate sui dati.
Fare riferimento all'Appendice per un elenco dei servizi e delle funzionalità AWS in ambito e un elenco dei servizi e delle funzionalità AWS fuori ambito.
Contenuto dell'esame
Tipi di domande
Ci sono due tipi di domande nell'esame:
- Scelta multipla: Ha una risposta corretta e tre risposte errate (distrattori)
- Risposta multipla: Ha due o più risposte corrette su cinque o più opzioni di risposta
Seleziona una o più risposte che completano meglio l'affermazione o rispondono alla domanda. I distrattori, o risposte errate, sono opzioni di risposta che un candidato con conoscenze o abilità incomplete potrebbe scegliere. I distrattori sono generalmente risposte plausibili che corrispondono all'area di contenuto.
Le domande senza risposta vengono segnate come errate; non c'è penalità per indovinare. L'esame include 50 domande che incidono sul tuo punteggio.
Contenuto non valutato
L'esame include 15 domande non valutate che non influenzano il tuo punteggio. AWS raccoglie informazioni sulle prestazioni di queste domande non valutate per valutarle per un futuro uso come domande valutate. Queste domande non valutate non sono identificate nell'esame.
Risultati dell'esame
L'esame AWS Certified Data Engineer - Associate (DEA-C01) ha una designazione di passaggio o fallimento. L'esame viene valutato rispetto a uno standard minimo stabilito dai professionisti AWS che seguono le best practice e le linee guida dell'industria della certificazione.
I tuoi risultati per l'esame vengono riportati come un punteggio scalato da 100 a 1.000. Il punteggio minimo di passaggio è 720. Il tuo punteggio mostra come ti sei comportato nell'esame nel suo complesso e se hai superato l'esame. I modelli di punteggio scalato aiutano a equiparare i punteggi tra più forme di esame che potrebbero avere livelli di difficoltà leggermente diversi.
Il tuo rapporto sui risultati potrebbe contenere una tabella di classificazioni delle tue prestazioni a livello di sezione. L'esame utilizza un modello di punteggio compensativo, il che significa che non devi raggiungere un punteggio di passaggio in ogni sezione. È necessario superare solo l'esame complessivo.
Ogni sezione dell'esame ha una ponderazione specifica, quindi alcune sezioni hanno più domande di altre. La tabella delle classificazioni contiene informazioni generali che evidenziano i tuoi punti di forza e di debolezza. Usa cautela nell'interpretare i feedback a livello di sezione.
Sommario dei contenuti
Questa guida all'esame include ponderazioni, domini dei contenuti e dichiarazioni di attività per l'esame. Questa guida non fornisce un elenco completo dei contenuti dell'esame. Tuttavia, è disponibile un contesto aggiuntivo per ciascuna dichiarazione di attività per aiutarti a prepararti per l'esame.
L'esame ha i seguenti domini dei contenuti e ponderazioni:
- Dominio 1: Acquisizione e trasformazione dei dati (34% del contenuto valutato)
- Dominio 2: Gestione dell'archivio di dati (26% del contenuto valutato)
- Dominio 3: Operazioni e supporto dei dati (22% del contenuto valutato)
- Dominio 4: Sicurezza e governance dei dati (18% del contenuto valutato)
Dominio 1: Acquisizione e trasformazione dei dati
Dichiarazione di attività 1.1: Eseguire l'acquisizione dei dati.
Conoscenza di:
- Caratteristiche di throughput e latenza per i servizi AWS che acquisiscono dati
- Modelli di acquisizione dati (ad esempio, frequenza e cronologia dei dati)
- Acquisizione di dati in streaming
- Acquisizione batch di dati (ad esempio, acquisizione programmata, acquisizione event-driven)
- Riproducibilità delle pipeline di acquisizione dati
- Transazioni di dati con stato e senza stato
Abilità in:
- Lettura dei dati da origini in streaming (ad esempio, Amazon Kinesis, Amazon Managed Streaming for Apache Kafka [Amazon MSK], Amazon DynamoDB Streams, AWS Database Migration Service [AWS DMS], AWS Glue, Amazon Redshift)
- Lettura dei dati da origini batch (ad esempio, Amazon S3, AWS Glue, Amazon EMR, AWS DMS, Amazon Redshift, AWS Lambda, Amazon AppFlow)
- Implementazione di opzioni di configurazione appropriate per l'acquisizione batch
- Consumo di API di dati
- Impostazione di pianificatori utilizzando Amazon EventBridge, Apache Airflow o pianificazioni basate sul tempo per processi e crawler
- Impostazione di trigger di eventi (ad esempio, Notifiche eventi Amazon S3, EventBridge)
- Chiamata di una funzione Lambda da Amazon Kinesis
- Creazione di allowlist per gli indirizzi IP per consentire le connessioni alle origini dati
- Implementazione di throttling e superamento dei limiti di frequenza (ad esempio, DynamoDB, Amazon RDS, Kinesis)
- Gestione di fan-in e fan-out per la distribuzione di dati in streaming
Dichiarazione di attività 1.2: Trasformare ed elaborare i dati.
Conoscenza di:
- Creazione di pipeline ETL in base ai requisiti aziendali
- Volume, velocità e varietà dei dati (ad esempio, dati strutturati, dati non strutturati)
- Cloud computing ed elaborazione distribuita
- Come utilizzare Apache Spark per elaborare i dati
- Posizioni di staging intermedio dei dati
Abilità in:
- Ottimizzazione dell'utilizzo di container per le esigenze di prestazioni (ad esempio, Amazon Elastic Kubernetes Service [Amazon EKS], Amazon Elastic Container Service [Amazon ECS])
- Connessione a diverse origini dati (ad esempio, Java Database Connectivity [JDBC], Open Database Connectivity [ODBC])
- Integrazione di dati da più origini
- Ottimizzazione dei costi durante l'elaborazione dei dati
- Implementazione di servizi di trasformazione dei dati in base ai requisiti (ad esempio, Amazon EMR, AWS Glue, Lambda, Amazon Redshift)
- Trasformazione di dati tra formati (ad esempio, da .csv ad Apache Parquet)
- Risoluzione dei problemi e debug di errori di trasformazione comuni e problemi di prestazioni
- Creazione di API di dati per rendere i dati disponibili ad altri sistemi utilizzando i servizi AWS
Dichiarazione di attività 1.3: Orchestrare le pipeline di dati.
Conoscenza di:
- Come integrare vari servizi AWS per creare pipeline ETL
- Architettura event-driven
- Come configurare i servizi AWS per le pipeline di dati in base a pianificazioni o dipendenze
- Flussi di lavoro senza server
Abilità in:
- Utilizzo di servizi di orchestrazione per costruire flussi di lavoro per pipeline ETL di dati (ad esempio, Lambda, EventBridge, Amazon Managed Workflows for Apache Airflow [Amazon MWAA], AWS Step Functions, flussi di lavoro AWS Glue)
- Costruzione di pipeline di dati per prestazioni, disponibilità, scalabilità, resilienza e tolleranza ai guasti
- Implementazione e manutenzione di flussi di lavoro senza server
- Utilizzo di servizi di notifica per inviare avvisi (ad esempio, Amazon Simple Notification Service [Amazon SNS], Amazon Simple Queue Service [Amazon SQS])
Dichiarazione di attività 1.4: Applicare concetti di programmazione.
Conoscenza di:
- Integrazione continua e distribuzione continua (CI/CD) (implementazione, test e distribuzione di pipeline di dati)
- Query SQL (per query di origini dati e trasformazioni di dati)
- Infrastruttura come codice (IaC) per distribuzioni ripetibili (ad esempio, AWS Cloud Development Kit [AWS CDK], AWS CloudFormation)
- Elaborazione distribuita
- Strutture di dati e algoritmi (ad esempio, strutture di dati a grafo e strutture di dati ad albero)
- Ottimizzazione delle query SQL
Abilità in:
- Ottimizzazione del codice per ridurre il tempo di esecuzione per l'acquisizione e la trasformazione dei dati
- Configurazione di funzioni Lambda per soddisfare le esigenze di concorrenza e prestazioni
- Esecuzione di query SQL per trasformare i dati (ad esempio, procedure archiviate di Amazon Redshift)
- Strutturazione di query SQL per soddisfare i requisiti della pipeline di dati
- Utilizzo di comandi Git per eseguire azioni come creare, aggiornare, clonare e creare rami di repository
- Utilizzo di AWS Serverless Application Model (AWS SAM) per pacchettizzare e distribuire pipeline di dati senza server (ad esempio, funzioni Lambda, Step Functions, tabelle DynamoDB)
- Utilizzo e montaggio di volumi di archiviazione all'interno delle funzioni Lambda
Dominio 2: Gestione dell'archivio di dati
Dichiarazione di attività 2.1: Scegliere un archivio di dati.
Conoscenza di:
- Piattaforme di archiviazione e le loro caratteristiche
- Servizi di archiviazione e configurazioni per specifiche esigenze di prestazioni
- Formati di archiviazione dei dati (ad esempio, .csv, .txt, Parquet)
- Come allineare l'archiviazione dei dati con i requisiti di migrazione dei dati
- Come determinare la soluzione di archiviazione appropriata per specifici modelli di accesso
- Come gestire i blocchi per impedire l'accesso ai dati (ad esempio, Amazon Redshift, Amazon RDS)
Abilità in:
- Implementazione dei servizi di archiviazione appropriati per requisiti specifici di costo e prestazioni (ad esempio, Amazon Redshift, Amazon EMR, AWS Lake Formation, Amazon RDS, DynamoDB, Amazon Kinesis Data Streams, Amazon MSK)
- Configurazione dei servizi di archiviazione appropriati per specifici modelli di accesso e requisiti (ad esempio, Amazon Redshift, Amazon EMR, Lake Formation, Amazon RDS, DynamoDB)
- Applicazione di servizi di archiviazione a casi d'uso appropriati (ad esempio, Amazon S3)
- Integrazione di strumenti di migrazione nei sistemi di elaborazione dei dati (ad esempio, AWS Transfer Family)
- Implementazione di metodi di migrazione dei dati o di accesso remoto (ad esempio, query federate di Amazon Redshift, viste materializzate di Amazon Redshift, Amazon Redshift Spectrum)
Dichiarazione di attività 2.2: Comprendere i sistemi di catalogazione dei dati.
Conoscenza di:
- Come creare un catalogo di dati
- Classificazione dei dati in base ai requisiti
- Componenti di metadati e cataloghi di dati
Abilità in:
- Utilizzo di cataloghi di dati per consumare dati dalla loro origine
- Creazione e riferimento di un catalogo di dati (ad esempio, AWS Glue Data Catalog, Apache Hive metastore)
- Individuazione di schemi e utilizzo di crawler AWS Glue per popolare i cataloghi di dati
- Sincronizzazione di partizioni con un catalogo di dati
- Creazione di nuove connessioni di origine o destinazione per la catalogazione (ad esempio, AWS Glue)
Dichiarazione di attività 2.3: Gestire il ciclo di vita dei dati.
Conoscenza di:
- Soluzioni di archiviazione appropriate per soddisfare i requisiti di dati hot e cold
- Come ottimizzare il costo dell'archiviazione in base al ciclo di vita dei dati
- Come eliminare i dati per soddisfare i requisiti aziendali e legali
- Criteri di conservazione dei dati e strategie di archiviazione
- Come proteggere i dati con la resilienza e la disponibilità appropriate
Abilità in:
- Esecuzione di operazioni di caricamento e scaricamento per spostare i dati tra Amazon S3 e Amazon Redshift
- Gestione delle politiche di ciclo di vita S3 per modificare il livello di archiviazione dei dati S3
- Scadenza dei dati quando raggiungono una determinata età utilizzando le politiche di ciclo di vita S3
- Gestione del versioning S3 e del TTL di DynamoDB
Dichiarazione di attività 2.4: Progettare modelli di dati ed evoluzione dello schema.
Conoscenza di:
- Concetti di modellazione dei dati
- Come garantire l'accuratezza e l'affidabilità dei dati utilizzando la derivazione dei dati
- Best practice per indicizzazione, strategie di partizionamento, compressione e altre tecniche di ottimizzazione dei dati
- Come modellare dati strutturati, semi-strutturati e non strutturati
- Tecniche di evoluzione dello schema
Abilità in:
- Progettazione di schemi per Amazon Redshift, DynamoDB e Lake Formation
- Affrontare i cambiamenti delle caratteristiche dei dati
- Esecuzione della conversione dello schema (ad esempio, utilizzando lo strumento di conversione dello schema AWS [AWS SCT] e la conversione dello schema AWS DMS)
- Stabilire la derivazione dei dati utilizzando strumenti AWS (ad esempio, Amazon SageMaker ML Lineage Tracking)
Dominio 3: Operazioni e supporto dei dati
Dichiarazione di attività 3.1: Automatizzare l'elaborazione dei dati utilizzando i servizi AWS.
Conoscenza di:
- Come mantenere e risolvere i problemi nell'elaborazione dei dati per ottenere risultati aziendali ripetibili
- Chiamate API per l'elaborazione dei dati
- Quali servizi accettano lo scripting (ad esempio, Amazon EMR, Amazon Redshift, AWS Glue)
Abilità in:
- Orchestrazione di pipeline di dati (ad esempio, Amazon MWAA, Step Functions)
- Risoluzione dei problemi nei flussi di lavoro gestiti da Amazon
- Chiamata di SDK per accedere alle funzionalità Amazon dal codice
- Utilizzo delle funzionalità dei servizi AWS per elaborare i dati (ad esempio, Amazon EMR, Amazon Redshift, AWS Glue)
- Consumo e manutenzione di API di dati
- Preparazione della trasformazione dei dati (ad esempio, AWS Glue DataBrew)
- Interrogazione dei dati (ad esempio, Amazon Athena)
- Utilizzo di Lambda per automatizzare l'elaborazione dei dati
- Gestione di eventi e pianificatori (ad esempio, EventBridge)
Dichiarazione di attività 3.2: Analizzare i dati utilizzando i servizi AWS.
Conoscenza di:
- Compromessi tra servizi con provisioning e servizi senza server
- Query SQL (ad esempio, istruzioni SELECT con più qualificatori o clausole JOIN)
- Come visualizzare i dati per l'analisi
- Quando e come applicare tecniche di pulizia
- Aggregazione di dati, media mobile, raggruppamento e pivoting
Abilità in:
- Visualizzazione dei dati utilizzando i servizi e gli strumenti AWS (ad esempio, AWS Glue DataBrew, Amazon QuickSight)
- Verifica e pulizia dei dati (ad esempio, Lambda, Athena, QuickSight, Jupyter Notebooks, Amazon SageMaker Data Wrangler)
- Utilizzo di Athena per interrogare i dati o creare viste
- Utilizzo di notebook Athena che utilizzano Apache Spark per esplorare i dati
Dichiarazione di attività 3.3: Mantenere e monitorare le pipeline di dati.
Conoscenza di:
- Come registrare i dati dell'applicazione
- Best practice per il tuning delle prestazioni
- Come registrare l'accesso ai servizi AWS
- Amazon Macie, AWS CloudTrail e Amazon CloudWatch
Abilità in:
- Estrazione di log per audit
- Distribuzione di soluzioni di registrazione e monitoraggio per facilitare audit e tracciabilità
- Utilizzo di notifiche durante il monitoraggio per inviare avvisi
- Risoluzione dei problemi di prestazioni
- Utilizzo di CloudTrail per tracciare le chiamate API
- Risoluzione dei problemi e manutenzione delle pipeline (ad esempio, AWS Glue, Amazon EMR)
- Utilizzo dei log di Amazon CloudWatch per registrare i dati dell'applicazione (con focus su configurazione e automazione)
- Analisi dei log con i servizi AWS (ad esempio, Athena, Amazon EMR, Amazon OpenSearch Service, CloudWatch Logs Insights, log di applicazioni big data)
Dichiarazione di attività 3.4: Garantire la qualità dei dati.
Conoscenza di:
- Tecniche di campionamento dei dati
- Come implementare meccanismi di distorsione dei dati
- Convalida dei dati (completezza, coerenza, accuratezza e integrità dei dati)
- Profilazione dei dati
Abilità in:
- Esecuzione di controlli sulla qualità dei dati durante l'elaborazione dei dati (ad esempio, controllo di campi vuoti)
- Definizione di regole di qualità dei dati (ad esempio, AWS Glue DataBrew)
- Indagine sulla coerenza dei dati (ad esempio, AWS Glue DataBrew)
Dominio 4: Sicurezza e governance dei dati
Dichiarazione di attività 4.1: Applicare meccanismi di autenticazione.
Conoscenza di:
- Concetti di networking di sicurezza VPC
- Differenze tra servizi gestiti e servizi non gestiti
- Metodi di autenticazione (basati su password, basati su certificati e basati su ruoli)
- Differenze tra politiche gestite da AWS e politiche gestite dal cliente
Abilità in:
- Aggiornamento dei gruppi di sicurezza VPC
- Creazione e aggiornamento di gruppi, ruoli, endpoint e servizi IAM
- Creazione e rotazione delle credenziali per la gestione delle password (ad esempio, AWS Secrets Manager)
- Impostazione di ruoli IAM per l'accesso (ad esempio, Lambda, Amazon API Gateway, AWS CLI, CloudFormation)
- Applicazione di politiche IAM a ruoli, endpoint e servizi (ad esempio, S3 Access Points, AWS PrivateLink)
Dichiarazione di attività 4.2: Applicare meccanismi di autorizzazione.
Conoscenza di:
- Metodi di autorizzazione (basati su ruoli, basati su policy, basati su tag e basati su attributi)
- Principio del privilegio minimo come applicato alla sicurezza AWS
- Controllo degli accessi in base al ruolo e modelli di accesso previsti
- Metodi per proteggere i dati da accessi non autorizzati tra i servizi
Abilità in:
- Creazione di politiche IAM personalizzate quando una politica gestita non soddisfa le esigenze
- Archiviazione di credenziali per applicazioni e database (ad esempio, Secrets Manager, AWS Systems Manager Parameter Store)
- Fornire a utenti, gruppi e ruoli del database accesso e autorità in un database (ad esempio, per Amazon Redshift)
- Gestione delle autorizzazioni attraverso Lake Formation (per Amazon Redshift, Amazon EMR, Athena e Amazon S3)
Dichiarazione di attività 4.3: Garantire la crittografia e la mascheratura dei dati.
Conoscenza di:
- Opzioni di crittografia dei dati disponibili nei servizi di analisi AWS (ad esempio, Amazon Redshift, Amazon EMR, AWS Glue)
- Differenze tra crittografia lato client e crittografia lato server
- Protezione dei dati sensibili
- Anonimizzazione, mascheratura e salatura delle chiavi dei dati
Abilità in:
- Applicazione di mascheratura e anonimizzazione dei dati in base alle leggi sulla conformità o alle politiche aziendali
- Utilizzo di chiavi di crittografia per crittografare o decrittografare i dati (ad esempio, AWS Key Management Service [AWS KMS])
- Configurazione della crittografia tra i confini degli account AWS
- Abilitazione della crittografia in transito per i dati
Dichiarazione di attività 4.4: Preparare i log per l'audit.
Conoscenza di:
- Come registrare i dati dell'applicazione
- Come registrare l'accesso ai servizi AWS
- Log centralizzati di AWS
Abilità in:
- Utilizzo di CloudTrail per tracciare le chiamate API
- Utilizzo di CloudWatch Logs per memorizzare i log dell'applicazione
- Utilizzo di AWS CloudTrail Lake per query di registrazione centralizzate
- Analisi dei log utilizzando i servizi AWS (ad esempio, Athena, CloudWatch Logs Insights, Amazon OpenSearch Service)
- Integrazione di vari servizi AWS per eseguire la registrazione (ad esempio, Amazon EMR in caso di grandi volumi di dati di log)
Dichiarazione di attività 4.5: Comprendere la privacy e la governance dei dati.
Conoscenza di:
- Come proteggere le informazioni di identificazione personale (PII)
- Sovranità dei dati
Abilità in:
- Concessione di autorizzazioni per la condivisione dei dati (ad esempio, condivisione dei dati per Amazon Redshift)
- Implementazione dell'identificazione di PII (ad esempio, Macie con Lake Formation)
- Implementazione di strategie di privacy dei dati per prevenire backup o repliche di dati in AWS Regions non consentite
- Gestione delle modifiche di configurazione avvenute in un account (ad esempio, AWS Config)
Appendice
Servizi e funzionalità AWS in ambito
Il seguente elenco contiene servizi e funzionalità AWS che sono in ambito per l'esame. Questo elenco non è esaustivo ed è soggetto a modifiche. Le offerte AWS appaiono in categorie che si allineano alle funzioni primarie delle offerte:
Analisi:
- Amazon Athena
- Amazon EMR
- AWS Glue
- AWS Glue DataBrew
- AWS Lake Formation
- Amazon Kinesis Data Firehose
- Amazon Kinesis Data Streams
- Amazon Managed Service for Apache Flink
- Amazon Managed Streaming for Apache Kafka (Amazon MSK)
- Amazon OpenSearch Service
- Amazon QuickSight
Integrazione delle applicazioni:
- Amazon AppFlow
- Amazon EventBridge
- Amazon Managed Workflows for Apache Airflow (Amazon MWAA)
- Amazon Simple Notification Service (Amazon SNS)
- Amazon Simple Queue Service (Amazon SQS)
- AWS Step Functions
Cloud Financial Management:
- AWS Budgets
- AWS Cost Explorer
Calcolo:
- AWS Batch
- Amazon EC2
- AWS Lambda
- AWS Serverless Application Model (AWS SAM)
Contenitori:
- Amazon Elastic Container Registry (Amazon ECR)
- Amazon Elastic Container Service (Amazon ECS)
- Amazon Elastic Kubernetes Service (Amazon EKS)
Database:
- Amazon DocumentDB (con compatibilità MongoDB)
- Amazon DynamoDB
- Amazon Keyspaces (per Apache Cassandra)
- Amazon MemoryDB for Redis
- Amazon Neptune
- Amazon RDS
- Amazon Redshift
Strumenti di sviluppo:
- AWS CLI
- AWS Cloud9
- AWS Cloud Development Kit (AWS CDK)
- AWS CodeBuild
- AWS CodeCommit
- AWS CodeDeploy
- AWS CodePipeline
Front-end Web e Mobile:
Machine Learning:
Gestione e governance:
- AWS CloudFormation
- AWS CloudTrail
- Amazon CloudWatch
- Amazon CloudWatch Logs
- AWS Config
- Amazon Managed Grafana
- AWS Systems Manager
- AWS Well-Architected Tool
Migrazione e trasferimento:
- AWS Application Discovery Service
- AWS Application Migration Service
- AWS Database Migration Service (AWS DMS)
- AWS DataSync
- AWS Schema Conversion Tool (AWS SCT)
- AWS Snow Family
- AWS Transfer Family
Networking e Content Delivery:
- Amazon CloudFront
- AWS PrivateLink
- Amazon Route 53
- Amazon VPC
Security, Identity, and Compliance:
- AWS Identity and Access Management (IAM)
- AWS Key Management Service (AWS KMS)
- Amazon Macie
- AWS Secrets Manager
- AWS Shield
- AWS WAF
Storage:
- AWS Backup
- Amazon Elastic Block Store (Amazon EBS)
- Amazon Elastic File System (Amazon EFS)
- Amazon S3
- Amazon S3 Glacier
Servizi e funzionalità AWS fuori ambito
Il seguente elenco contiene servizi e funzionalità AWS che sono fuori ambito per l'esame. Questo elenco non è esaustivo ed è soggetto a modifiche. Le offerte AWS che sono completamente non correlate ai ruoli lavorativi target per l'esame sono escluse da questo elenco:
Analisi:
Applicazioni aziendali:
- Alexa for Business
- Amazon Chime
- Amazon Connect
- Amazon Honeycode
- AWS IQ
- Amazon WorkDocs
- Amazon WorkMail
Calcolo:
- AWS App Runner
- AWS Elastic Beanstalk
- Amazon Lightsail
- AWS Outposts
- AWS Serverless Application Repository
Contenitori:
- Red Hat OpenShift Service on AWS (ROSA)
Database:
Strumenti di sviluppo:
- AWS Fault Injection Simulator (AWS FIS)
- AWS X-Ray
Front-end Web e Mobile:
- AWS Amplify
- AWS AppSync
- AWS Device Farm
- Amazon Location Service
- Amazon Pinpoint
- Amazon Simple Email Service (Amazon SES)
Internet delle cose (IoT):
- FreeRTOS
- AWS IoT 1-Click
- AWS IoT Device Defender
- AWS IoT Device Management
- AWS IoT Events
- AWS IoT FleetWise
- AWS IoT RoboRunner
- AWS IoT SiteWise
- AWS IoT TwinMaker
Machine Learning:
- Amazon CodeWhisperer
- Amazon DevOps Guru
Gestione e governance:
- AWS Activate
- AWS Managed Services (AMS)
Servizi multimediali:
- Amazon Elastic Transcoder
- AWS Elemental Appliances and Software
- AWS Elemental MediaConnect
- AWS Elemental MediaConvert
- AWS Elemental MediaLive
- AWS Elemental MediaPackage
- AWS Elemental MediaStore
- AWS Elemental MediaTailor
- Amazon Interactive Video Service (Amazon IVS)
- Amazon Nimble Studio
Migrazione e trasferimento:
- AWS Mainframe Modernization
- AWS Migration Hub
Storage:
Sondaggio
Quanto è stato utile questa guida all'esame? Faccelo sapere compilando il nostro sondaggio.