SAA-C03 問題集No.1-100 (AWS 認定ソリューションアーキテクト – アソシエイト)

日英二つ言語付き、各選択解析付き、最新問題追加中
0%
0 投票, 0 平均
0

Report a question

You cannot submit an empty report. Please add some details.

SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

AWS Certified Solutions Architect – Associate 幅広い AWS サービスに関する技術的な知識とスキルを認定します

SAA-C03 問題集No.1-100 (AWS 認定ソリューションアーキテクト – アソシエイト)

日英二つ言語付き 解析付き SAA-C03 問題集No.1-100 (AWS 認定ソリューションアーキテクト – アソシエイト)

1 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

1. A company collects data for temperature, humidity, and atmospheric pressure in cities across multiple continents. The average volume of data
that the company collects from each site daily is 500 GB. Each site has a high-speed Internet connection.
The company wants to aggregate the data from all these global sites as quickly as possible in a single Amazon S3 bucket. The solution must
minimize operational complexity.
Which solution meets these requirements?
A. Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3
bucket.
B. Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy objects to the
destination S3 bucket. Then remove the data from the origin S3 bucket.
C. Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross
Region Replication to copy objects to the destination S3 bucket.
D. Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store
(Amazon EBS) volume. At regular intervals, take an EBS snapshot and copy it to the Region that contains the destination S3 bucket.
Restore the EBS volume in that Region.

ある企業が複数の大陸にわたる都市で気温、湿度、気圧のデータを収集しています。各拠点から毎日収集されるデータの平均量は500GBです。各拠点には高速インターネット接続があります。
企業はこれらのグローバルな拠点からのデータをできるだけ早く1つのAmazon S3バケットに集約したいと考えています。ソリューションは運用の複雑さを最小限に抑える必要があります。
どのソリューションがこれらの要件を満たしますか?

A. 目的地のS3バケットでS3 Transfer Accelerationを有効にします。マルチパートアップロードを使用して、拠点のデータを直接目的地のS3バケットにアップロードします。

B. 各拠点から最も近いリージョンのS3バケットにデータをアップロードします。S3クロスリージョンレプリケーションを使用してオブジェクトを目的地のS3バケットにコピーします。その後、元のS3バケットからデータを削除します。

C. 毎日AWS Snowball Edge Storage Optimizedデバイスのジョブをスケジュールして、各拠点から最も近いリージョンにデータを転送します。S3クロスリージョンレプリケーションを使用してオブジェクトを目的地のS3バケットにコピーします。

D. 各拠点から最も近いリージョンのAmazon EC2インスタンスにデータをアップロードします。データをAmazon Elastic Block Store(Amazon EBS)ボリュームに保存します。定期的にEBSスナップショットを取得し、それを目的地のS3バケットを含むリージョンにコピーします。そのリージョンでEBSボリュームを復元します。

2 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

2. A company needs the ability to analyze the log files of its proprietary application. The logs are stored in JSON format in an Amazon S3
bucket. Queries will be simple and will run on-demand. A solutions architect needs to perform the analysis with minimal changes to the
existing architecture.
What should the solutions architect do to meet these requirements with the LEAST amount of operational overhead?
A. Use Amazon Redshift to load all the content into one place and run the SQL queries as needed.
B. Use Amazon CloudWatch Logs to store the logs. Run SQL queries as needed from the Amazon CloudWatch console.
C. Use Amazon Athena directly with Amazon S3 to run the queries as needed.
D. Use AWS Glue to catalog the logs. Use a transient Apache Spark cluster on Amazon EMR to run the SQL queries as needed.

ある企業は、自社の独自アプリケーションのログファイルを分析する機能を必要としています。
ログはAmazon S3バケットにJSON形式で保存されています。
クエリはシンプルで、オンデマンドで実行されます。
ソリューションアーキテクトは、既存のアーキテクチャに最小限の変更を加えて分析を実行する必要があります。

ソリューションアーキテクトは、運用上のオーバーヘッドを最小限に抑えてこれらの要件を満たすためにどのような措置を講じるべきでしょうか?

A. Amazon Redshiftを使用してすべてのコンテンツを1か所にロードし、必要に応じてSQLクエリを実行します。
B. Amazon CloudWatch Logsを使用してログを保存します。Amazon CloudWatchコンソールから必要に応じてSQLクエリを実行します。
C. Amazon AthenaをAmazon S3と直接使用して、必要に応じてクエリを実行します。
D. AWS Glueを使用してログをカタログ化します。Amazon EMR上の一時的なApache Sparkクラスターを使用して、必要に応じてSQLクエリを実行します。

3 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

3. A company uses AWS Organizations to manage multiple AWS accounts for different departments. The management account has an Amazon
S3 bucket that contains project reports. The company wants to limit access to this S3 bucket to only users of accounts within the organization
in AWS Organizations.
Which solution meets these requirements with the LEAST amount of operational overhead?
A. Add the aws PrincipalOrgID global condition key with a reference to the organization ID to the S3 bucket policy.
B. Create an organizational unit (OU) for each department. Add the aws:PrincipalOrgPaths global condition key to the S3 bucket policy.
C. Use AWS CloudTrail to monitor the CreateAccount, InviteAccountToOrganization, LeaveOrganization, and
RemoveAccountFromOrganization events. Update the S3 bucket policy accordingly.
D. Tag each user that needs access to the S3 bucket. Add the aws:PrincipalTag global condition key to the S3 bucket policy.

ある企業では、複数のAWSアカウントを異なる部門ごとに管理するためにAWS Organizationsを使用しています。
管理アカウントにはプロジェクトレポートを含むAmazon S3バケットがあります。
会社は、このS3バケットへのアクセスをAWS Organizations内の組織のアカウントのユーザーのみに制限したいと考えています。
これらの要件を最も少ない運用負荷で満たすソリューションはどれですか?

A. S3バケットポリシーに組織IDを参照するaws:PrincipalOrgIDグローバル条件キーを追加します。
B. 各部門の組織単位(OU)を作成します。S3バケットポリシーにaws:PrincipalOrgPathsグローバル条件キーを追加します。
C. AWS CloudTrailを使用して、CreateAccount、InviteAccountToOrganization、LeaveOrganization、およびRemoveAccountFromOrganizationイベントを監視します。それに応じてS3バケットポリシーを更新します。
D. S3バケットへのアクセスが必要な各ユーザーにタグを付けます。S3バケットポリシーにaws:PrincipalTagグローバル条件キーを追加します。

4 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

4. An application runs on an Amazon EC2 instance in a VPC. The application processes logs that are stored in an Amazon S3 bucket. The EC2
instance needs to access the S3 bucket without connectivity to the internet.
Which solution will provide private network connectivity to Amazon S3?
A. Create a gateway VPC endpoint to the S3 bucket.
B. Stream the logs to Amazon CloudWatch Logs. Export the logs to the S3 bucket.
C. Create an instance profile on Amazon EC2 to allow S3 access.
D. Create an Amazon API Gateway API with a private link to access the S3 endpoint.

あるアプリケーションがVPC内のAmazon EC2インスタンス上で動作している。
このアプリケーションはAmazon S3バケットに保存されたログを処理する。
EC2インスタンスはインターネットに接続せずにS3バケットにアクセスする必要がある。

Amazon S3へのプライベートネットワーク接続を提供する解決策はどれか?

A. S3バケットへのゲートウェイVPCエンドポイントを作成する。
B. ログをAmazon CloudWatch Logsにストリーミングする。ログをS3バケットにエクスポートする。
C. Amazon EC2にインスタンスプロファイルを作成してS3アクセスを許可する。
D. Amazon API Gateway APIを作成し、S3エンドポイントにアクセスするためのプライベートリンクを設定する。

5 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

5. A company is hosting a web application on AWS using a single Amazon EC2 instance that stores user-uploaded documents in an Amazon EBS
volume. For better scalability and availability, the company duplicated the architecture and created a second EC2 instance and EBS volume in
another Availability Zone, placing both behind an Application Load Balancer. After completing this change, users reported that, each time they
refreshed the website, they could see one subset of their documents or the other, but never all of the documents at the same time.
What should a solutions architect propose to ensure users see all of their documents at once?
A. Copy the data so both EBS volumes contain all the documents
B. Configure the Application Load Balancer to direct a user to the server with the documents
C. Copy the data from both EBS volumes to Amazon EFS. Modify the application to save new documents to Amazon EFS
D. Configure the Application Load Balancer to send the request to both servers. Return each document from the correct server

ある企業は、Amazon EBSボリュームにユーザーがアップロードしたドキュメントを保存する単一のAmazon EC2インスタンスを使用して、AWS上でWebアプリケーションをホストしています。
スケーラビリティと可用性を向上させるために、同社はアーキテクチャを複製し、別のアベイラビリティーゾーンに2番目のEC2インスタンスとEBSボリュームを作成し、両方をApplication Load Balancerの背後に配置しました。
この変更を完了した後、ユーザーから、Webサイトを更新するたびに、自分のドキュメントの一部だけが見えたり、別の一部だけが見えたりするが、すべてのドキュメントが同時に表示されることはないという報告がありました。
すべてのドキュメントが一度に表示されるようにするために、ソリューションアーキテクトは何を提案すべきでしょうか?
A. 両方のEBSボリュームにすべてのドキュメントが含まれるようにデータをコピーする
B. Application Load Balancerを設定して、ユーザーをドキュメントがあるサーバーに誘導する
C. 両方のEBSボリュームからAmazon EFSにデータをコピーする。新しいドキュメントをAmazon EFSに保存するようにアプリケーションを変更する
D. Application Load Balancerを設定してリクエストを両方のサーバーに送信する。正しいサーバーから各ドキュメントを返す

6 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

6. A company uses NFS to store large video files in on-premises network attached storage. Each video file ranges in size from 1 MB to 500 GB.
The total storage is 70 TB and is no longer growing. The company decides to migrate the video files to Amazon S3. The company must
migrate the video files as soon as possible while using the least possible network bandwidth.
Which solution will meet these requirements?
A. Create an S3 bucket. Create an IAM role that has permissions to write to the S3 bucket. Use the AWS CLI to copy all files locally to the
S3 bucket.
B. Create an AWS Snowball Edge job. Receive a Snowball Edge device on premises. Use the Snowball Edge client to transfer data to the
device. Return the device so that AWS can import the data into Amazon S3.
C. Deploy an S3 File Gateway on premises. Create a public service endpoint to connect to the S3 File Gateway. Create an S3 bucket.
Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data from the existing NFS le
share to the S3 File Gateway.
D. Set up an AWS Direct Connect connection between the on-premises network and AWS. Deploy an S3 File Gateway on premises. Create a
public virtual interface (VIF) to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway.
Point the new file share to the S3 bucket. Transfer the data from the existing NFS file share to the S3 File Gateway.

ある企業がオンプレミスのネットワーク接続ストレージ(NAS)に大容量の動画ファイルをNFSで保存しています。各動画ファイルのサイズは1MBから500GBまでさまざまです。
総ストレージ容量は70TBで、これ以上増加することはありません。同社はこれらの動画ファイルをAmazon S3に移行することを決定しました。
ネットワーク帯域幅を可能な限り抑えつつ、最も迅速に動画ファイルを移行する必要があります。
以下の選択肢の中で、これらの要件を満たすソリューションはどれでしょうか?

A. S3バケットを作成します。そのS3バケットへの書き込み権限を持つIAMロールを作成します。AWS CLIを使用してすべてのファイルをローカルからS3バケットにコピーします。

B. AWS Snowball Edgeジョブを作成します。オンプレミス環境でSnowball Edgeデバイスを受け取ります。Snowball Edgeクライアントを使用してデータをデバイスに転送します。
デバイスを返送すると、AWSがデータをAmazon S3にインポートします。

C. オンプレミス環境にS3 File Gatewayをデプロイします。S3 File Gatewayに接続するための公開サービスエンドポイントを作成します。S3バケットを作成します。
S3 File Gateway上に新しいNFSファイル共有を作成し、そのファイル共有をS3バケットにポイントします。既存のNFSファイル共有からS3 File Gatewayへデータを転送します。

D. オンプレミスネットワークとAWS間にAWS Direct Connect接続を設定します。オンプレミス環境にS3 File Gatewayをデプロイします。
S3 File Gatewayに接続するためのパブリック仮想インターフェイス(VIF)を作成します。S3バケットを作成します。
S3 File Gateway上に新しいNFSファイル共有を作成し、そのファイル共有をS3バケットにポイントします。既存のNFSファイル共有からS3 File Gatewayへデータを転送します。

7 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

7. A company has an application that ingests incoming messages. Dozens of other applications and microservices then quickly consume these
messages. The number of messages varies drastically and sometimes increases suddenly to 100,000 each second. The company wants to
decouple the solution and increase scalability.
Which solution meets these requirements?
A. Persist the messages to Amazon Kinesis Data Analytics. Configure the consumer applications to read and process the messages.
B. Deploy the ingestion application on Amazon EC2 instances in an Auto Scaling group to scale the number of EC2 instances based on
CPU metrics.
C. Write the messages to Amazon Kinesis Data Streams with a single shard. Use an AWS Lambda function to preprocess messages and
store them in Amazon DynamoDB. Configure the consumer applications to read from DynamoDB to process the messages.
D. Publish the messages to an Amazon Simple Notification Service (Amazon SNS) topic with multiple Amazon Simple Queue Service
(Amazon SOS) subscriptions. Configure the consumer applications to process the messages from the queues.

ある会社は、受信メッセージを取り込むアプリケーションを持っています。その後、数十の他のアプリケーションやマイクロサービスがこれらのメッセージをすぐに消費します。
メッセージの数は大幅に変動し、時には突然1秒あたり100,000件にまで増加することがあります。
会社はソリューションの分離とスケーラビリティの向上を望んでいます。
これらの要件を満たすソリューションはどれですか?
A. メッセージをAmazon Kinesis Data Analyticsに永続化します。コンシューマーアプリケーションを設定して、メッセージを読み取り処理します。
B. Auto Scalingグループ内のAmazon EC2インスタンスに取り込みアプリケーションをデプロイし、CPUメトリクスに基づいてEC2インスタンスの数をスケーリングします。
C. メッセージを単一のシャードを持つAmazon Kinesis Data Streamsに書き込みます。AWS Lambda関数を使用してメッセージを前処理し、Amazon DynamoDBに保存します。コンシューマーアプリケーションを設定して、DynamoDBからメッセージを読み取り処理します。
D. メッセージを複数のAmazon Simple Queue Service(Amazon SQS)サブスクリプションを持つAmazon Simple Notification Service(Amazon SNS)トピックに公開します。コンシューマーアプリケーションを設定して、キューからメッセージを処理します。

8 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

8. A company is migrating a distributed application to AWS. The application serves variable workloads. The legacy platform consists of a primary
server that coordinates jobs across multiple compute nodes. The company wants to modernize the application with a solution that maximizes
resiliency and scalability.
How should a solutions architect design the architecture to meet these requirements?
A. Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with
Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling to use scheduled scaling.
B. Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with
Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling based on the size of the queue.
C. Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group.
Configure AWS CloudTrail as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the primary server.
D. Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group.
Configure Amazon EventBridge (Amazon CloudWatch Events) as a destination for the jobs. Configure EC2 Auto Scaling based on the load
on the compute nodes.

ある企業が分散型アプリケーションをAWSに移行しようとしています。このアプリケーションは変動するワークロードに対応しています。
従来のプラットフォームは、複数のコンピュートノード間でジョブを調整するプライマリサーバーで構成されています。
同社は、回復力とスケーラビリティを最大化するソリューションでアプリケーションを近代化したいと考えています。
ソリューションアーキテクトはこれらの要件を満たすために、どのようにアーキテクチャを設計すべきでしょうか?

A. ジョブの宛先としてAmazon Simple Queue Service (Amazon SQS) キューを設定します。コンピュートノードをAuto Scalingグループで管理されるAmazon EC2インスタンスとして実装します。
スケジュールされたスケーリングを使用するようにEC2 Auto Scalingを設定します。

B. ジョブの宛先としてAmazon Simple Queue Service (Amazon SQS) キューを設定します。コンピュートノードをAuto Scalingグループで管理されるAmazon EC2インスタンスとして実装します。
キューのサイズに基づいてEC2 Auto Scalingを設定します。

C. プライマリサーバーとコンピュートノードをAuto Scalingグループで管理されるAmazon EC2インスタンスとして実装します。
ジョブの宛先としてAWS CloudTrailを設定します。プライマリサーバーの負荷に基づいてEC2 Auto Scalingを設定します。

D. プライマリサーバーとコンピュートノードをAuto Scalingグループで管理されるAmazon EC2インスタンスとして実装します。
ジョブの宛先としてAmazon EventBridge (Amazon CloudWatch Events) を設定します。コンピュートノードの負荷に基づいてEC2 Auto Scalingを設定します。

9 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

9. A company is running an SMB file server in its data center. The file server stores large files that are accessed frequently for the first few days
after the files are created. After 7 days the files are rarely accessed.
The total data size is increasing and is close to the company’s total storage capacity. A solutions architect must increase the company’s
available storage space without losing low-latency access to the most recently accessed files. The solutions architect must also provide le
lifecycle management to avoid future storage issues.
Which solution will meet these requirements?
A. Use AWS DataSync to copy data that is older than 7 days from the SMB file server to AWS.
B. Create an Amazon S3 File Gateway to extend the company’s storage space. Create an S3 Lifecycle policy to transition the data to S3
Glacier Deep Archive after 7 days.
C. Create an Amazon FSx for Windows File Server file system to extend the company’s storage space.
D. Install a utility on each user’s computer to access Amazon S3. Create an S3 Lifecycle policy to transition the data to S3 Glacier Flexible
Retrieval after 7 days.

ある会社が自社のデータセンター内でSMBファイルサーバーを運用しています。このファイルサーバーには作成後数日間は頻繁にアクセスされる大きなファイルが保存されています。7日が経過すると、これらのファイルにアクセスされることはほとんどありません。
データの総サイズは増加し続けており、会社の総ストレージ容量に近づいています。ソリューションアーキテクトは、最も最近アクセスされたファイルへの低遅延アクセスを失うことなく、利用可能なストレージスペースを増やす必要があります。また、将来のストレージ問題を回避するためにライフサイクル管理も提供しなければなりません。
これらの要件を満たすソリューションはどれでしょうか?
A. AWS DataSyncを使用して、SMBファイルサーバーから7日以上経過したデータをAWSにコピーする。
B. 会社のストレージスペースを拡張するためにAmazon S3 File Gatewayを作成する。7日後にデータをS3 Glacier Deep Archiveに移行するS3ライフサイクルポリシーを作成する。
C. 会社のストレージスペースを拡張するためにAmazon FSx for Windows File Serverファイルシステムを作成する。
D. 各ユーザーのコンピューターにユーティリティをインストールしてAmazon S3にアクセスさせる。7日後にデータをS3 Glacier Flexible Retrievalに移行するS3ライフサイクルポリシーを作成する。

10 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

10. A company is building an ecommerce web application on AWS. The application sends information about new orders to an Amazon API
Gateway REST API to process. The company wants to ensure that orders are processed in the order that they are received.
Which solution will meet these requirements?
A. Use an API Gateway integration to publish a message to an Amazon Simple notification Service (Amazon SNS) topic when the
application receives an order. Subscribe an AWS Lambda function to the topic to perform processing.
B. Use an API Gateway integration to send a message to an Amazon Simple Queue Service (Amazon SQS) FIFO queue when the
application receives an order. Configure the SQS FIFO queue to invoke an AWS Lambda function for processing.
C. Use an API Gateway authorizer to block any requests while the application processes an order.
D. Use an API Gateway integration to send a message to an Amazon Simple Queue Service (Amazon SQS) standard queue when the
application receives an order. Configure the SQS standard queue to invoke an AWS Lambda function for processing.

ある会社がAWS上でECウェブアプリケーションを構築しています。
そのアプリケーションは、新規注文に関する情報をAmazon API Gateway REST APIに送信して処理します。
会社は、注文が受信された順番で処理されることを保証したいと考えています。
これらの要件を満たすソリューションはどれですか?

A. アプリケーションが注文を受信した際に、API Gateway統合を使用してAmazon Simple Notification Service(Amazon SNS)トピックにメッセージを公開する。
処理を実行するためにAWS Lambda関数をトピックにサブスクライブする。

B. アプリケーションが注文を受信した際に、API Gateway統合を使用してAmazon Simple Queue Service(Amazon SQS)FIFOキューにメッセージを送信する。
処理のためにAWS Lambda関数を呼び出すようにSQS FIFOキューを設定する。

C. アプリケーションが注文を処理している間、あらゆるリクエストをブロックするためにAPI Gatewayオーソライザーを使用する。

D. アプリケーションが注文を受信した際に、API Gateway統合を使用してAmazon Simple Queue Service(Amazon SQS)標準キューにメッセージを送信する。
処理のためにAWS Lambda関数を呼び出すようにSQS標準キューを設定する。

11 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

11. A company has an application that runs on Amazon EC2 instances and uses an Amazon Aurora database. The EC2 instances connect to the
database by using user names and passwords that are stored locally in a file. The company wants to minimize the operational overhead of
credential management.
What should a solutions architect do to accomplish this goal?
A. Use AWS Secrets Manager. Turn on automatic rotation.
B. Use AWS Systems Manager Parameter Store. Turn on automatic rotation.
C. Create an Amazon S3 bucket to store objects that are encrypted with an AWS Key Management Service (AWS KMS) encryption key.
Migrate the credential file to the S3 bucket. Point the application to the S3 bucket.
D. Create an encrypted Amazon Elastic Block Store (Amazon EBS) volume for each EC2 instance. Attach the new EBS volume to each EC2
instance. Migrate the credential file to the new EBS volume. Point the application to the new EBS volume.

ある会社はAmazon EC2インスタンス上で動作するアプリケーションを持っており、Amazon Auroraデータベースを使用しています。EC2インスタンスは、ローカルのファイルに保存されているユーザー名とパスワードを使用してデータベースに接続しています。同社は、認証情報管理の運用負担を最小限に抑えたいと考えています。
この目標を達成するために、ソリューションアーキテクトは何をすべきでしょうか?
A. AWS Secrets Managerを使用します。自動ローテーションを有効にします。
B. AWS Systems Manager Parameter Storeを使用します。自動ローテーションを有効にします。
C. AWS Key Management Service (AWS KMS) 暗号化キーで暗号化されたオブジェクトを保存するためのAmazon S3バケットを作成します。認証情報ファイルをS3バケットに移行します。アプリケーションをS3バケットにポイントします。
D. 各EC2インスタンスに対して暗号化されたAmazon Elastic Block Store (Amazon EBS) ボリュームを作成します。新しいEBSボリュームを各EC2インスタンスにアタッチします。認証情報ファイルを新しいEBSボリュームに移行します。アプリケーションを新しいEBSボリュームにポイントします。

12 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

12. A global company hosts its web application on Amazon EC2 instances behind an Application Load Balancer (ALB). The web application has
static data and dynamic data. The company stores its static data in an Amazon S3 bucket. The company wants to improve performance and
reduce latency for the static data and dynamic data. The company is using its own domain name registered with Amazon Route 53.
What should a solutions architect do to meet these requirements?
A. Create an Amazon CloudFront distribution that has the S3 bucket and the ALB as origins. Configure Route 53 to route traffic to the
CloudFront distribution.
B. Create an Amazon CloudFront distribution that has the ALB as an origin. Create an AWS Global Accelerator standard accelerator that
has the S3 bucket as an endpoint Configure Route 53 to route traffic to the CloudFront distribution.
C. Create an Amazon CloudFront distribution that has the S3 bucket as an origin. Create an AWS Global Accelerator standard accelerator
that has the ALB and the CloudFront distribution as endpoints. Create a custom domain name that points to the accelerator DNS name.
Use the custom domain name as an endpoint for the web application.
D. Create an Amazon CloudFront distribution that has the ALB as an origin. Create an AWS Global Accelerator standard accelerator that
has the S3 bucket as an endpoint. Create two domain names. Point one domain name to the CloudFront DNS name for dynamic content.
Point the other domain name to the accelerator DNS name for static content. Use the domain names as endpoints for the web application.

グローバル企業が、Application Load Balancer (ALB)を利用したAmazon EC2インスタンス上でWebアプリケーションをホストしています。Webアプリケーションには静的データと動的データがあります。同社は静的データをAmazon S3バケットに保存しています。同社は、静的データと動的データのパフォーマンスを向上させ、レイテンシを削減したいと考えています。同社はAmazon Route 53で登録した独自のドメイン名を使用しています。
これらの要件を満たすために、ソリューションアーキテクトはどのような措置を取るべきですか?
A. Amazon CloudFrontディストリビューションを作成し、S3バケットとALBをオリジンとして設定します。Route 53を設定し、トラフィックをCloudFrontディストリビューションにルーティングします。
B. Amazon CloudFrontディストリビューションを作成し、ALBをオリジンとして設定します。AWS Global Acceleratorの標準アクセラレータを作成し、S3バケットをエンドポイントとして設定します。Route 53を設定し、トラフィックをCloudFrontディストリビューションにルーティングします。
C. Amazon CloudFrontディストリビューションを作成し、S3バケットをオリジンとして設定します。AWS Global Acceleratorの標準アクセラレータを作成し、ALBとCloudFrontディストリビューションをエンドポイントとして設定します。アクセラレータのDNS名を指すカスタムドメイン名を作成します。Webアプリケーションのエンドポイントとしてカスタムドメイン名を使用します。
D. Amazon CloudFrontディストリビューションを作成し、ALBをオリジンとして設定します。AWS Global Acceleratorの標準アクセラレータを作成し、S3バケットをエンドポイントとして設定します。2つのドメイン名を作成します。1つのドメイン名を動的コンテンツ用にCloudFrontのDNS名に向けます。もう1つのドメイン名を静的コンテンツ用にアクセラレータのDNS名に向けます。Webアプリケーションのエンドポイントとしてこれらのドメイン名を使用します。

13 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

13. A company performs monthly maintenance on its AWS infrastructure. During these maintenance activities, the company needs to rotate the
credentials for its Amazon RDS for MySQL databases across multiple AWS Regions.
Which solution will meet these requirements with the LEAST operational overhead?
A. Store the credentials as secrets in AWS Secrets Manager. Use multi-Region secret replication for the required Regions. Configure
Secrets Manager to rotate the secrets on a schedule.
B. Store the credentials as secrets in AWS Systems Manager by creating a secure string parameter. Use multi-Region secret replication for
the required Regions. Configure Systems Manager to rotate the secrets on a schedule.
C. Store the credentials in an Amazon S3 bucket that has server-side encryption (SSE) enabled. Use Amazon EventBridge (Amazon
CloudWatch Events) to invoke an AWS Lambda function to rotate the credentials.
D. Encrypt the credentials as secrets by using AWS Key Management Service (AWS KMS) multi-Region customer managed keys. Store the
secrets in an Amazon DynamoDB global table. Use an AWS Lambda function to retrieve the secrets from DynamoDB. Use the RDS API to
rotate the secrets.

ある会社では、毎月AWSインフラストラクチャのメンテナンスを行っています。これらのメンテナンス作業中、同社は複数のAWSリージョンにまたがるAmazon RDS for MySQLデータベースの認証情報をローテーションする必要があります。
これらの要件を満たし、かつ運用負荷が最も少ないソリューションはどれですか?

A. AWS Secrets Managerに認証情報をシークレットとして保存します。必要なリージョンに対してマルチリージョンシークレットレプリケーションを使用します。Secrets Managerを設定して、スケジュールに従ってシークレットをローテーションさせます。

B. セキュアな文字列パラメータを作成して、AWS Systems Managerに認証情報をシークレットとして保存します。必要なリージョンに対してマルチリージョンシークレットレプリケーションを使用します。Systems Managerを設定して、スケジュールに従ってシークレットをローテーションさせます。

C. サーバーサイド暗号化(SSE)が有効なAmazon S3バケットに認証情報を保存します。Amazon EventBridge(Amazon CloudWatch Events)を使用して、認証情報をローテーションするAWS Lambda関数を呼び出します。

D. AWS Key Management Service(AWS KMS)のマルチリージョンカスタマー管理キーを使用して、認証情報をシークレットとして暗号化します。Amazon DynamoDBグローバルテーブルにシークレットを保存します。AWS Lambda関数を使用してDynamoDBからシークレットを取得します。RDS APIを使用してシークレットをローテーションさせます。

14 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

14. A company runs an ecommerce application on Amazon EC2 instances behind an Application Load Balancer. The instances run in an Amazon
EC2 Auto Scaling group across multiple Availability Zones. The Auto Scaling group scales based on CPU utilization metrics. The ecommerce
application stores the transaction data in a MySQL 8.0 database that is hosted on a large EC2 instance.
The database’s performance degrades quickly as application load increases. The application handles more read requests than write
transactions. The company wants a solution that will automatically scale the database to meet the demand of unpredictable read workloads
while maintaining high availability.
Which solution will meet these requirements?
A. Use Amazon Redshift with a single node for leader and compute functionality.
B. Use Amazon RDS with a Single-AZ deployment Configure Amazon RDS to add reader instances in a different Availability Zone.
C. Use Amazon Aurora with a Multi-AZ deployment. Configure Aurora Auto Scaling with Aurora Replicas.
D. Use Amazon ElastiCache for Memcached with EC2 Spot Instances.

ある企業が、Application Load Balancerの背後にあるAmazon EC2インスタンス上でeコマースアプリケーションを実行しています。
インスタンスは、複数のアベイラビリティゾーンにまたがるAmazon EC2 Auto Scalingグループで実行されています。
Auto Scalingグループは、CPU使用率メトリクスに基づいてスケーリングします。
eコマースアプリケーションは、大規模なEC2インスタンス上でホストされているMySQL 8.0データベースにトランザクションデータを保存します。

アプリケーションの負荷が増加すると、データベースのパフォーマンスは急速に低下します。
アプリケーションは、書き込みトランザクションよりも多くの読み取りリクエストを処理します。
企業は、予測不可能な読み取りワークロードの需要を満たすためにデータベースを自動的にスケーリングし、かつ高可用性を維持する解決策を求めています。

どの解決策がこれらの要件を満たしますか?

A. リーダーおよびコンピュート機能に単一ノードを使用するAmazon Redshiftを使用する。
B. Single-AZデプロイでAmazon RDSを使用し、異なるアベイラビリティゾーンにリーダーインスタンスを追加するようにAmazon RDSを設定する。
C. Multi-AZデプロイでAmazon Auroraを使用し、AuroraレプリカでAurora Auto Scalingを設定する。
D. EC2スポットインスタンスでAmazon ElastiCache for Memcachedを使用する。

15 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

15. A company recently migrated to AWS and wants to implement a solution to protect the traffic that ows in and out of the production VPC. The
company had an inspection server in its on-premises data center. The inspection server performed speci c operations such as traffic ow
inspection and traffic ltering. The company wants to have the same functionalities in the AWS Cloud.
Which solution will meet these requirements?
A. Use Amazon GuardDuty for traffic inspection and traffic ltering in the production VPC.
B. Use Tra c Mirroring to mirror traffic from the production VPC for traffic inspection and ltering.
C. Use AWS Network Firewall to create the required rules for traffic inspection and traffic ltering for the production VPC.
D. Use AWS Firewall Manager to create the required rules for traffic inspection and traffic ltering for the production VPC.

ある企業が最近AWSへ移行し、本番VPCの内外を流れるトラフィックを保護するソリューションを導入したいと考えています。
同社はオンプレミスデータセンターに検査サーバーを設置していました。この検査サーバーは、トラフィックフローの検査やトラフィックフィルタリングといった特定の処理を行っていました。
同社はAWSクラウドでも同じ機能を保持したいと考えています。
これらの要件を満たすソリューションはどれでしょうか?

A. 本番VPCのトラフィック検査とトラフィックフィルタリングにAmazon GuardDutyを使用する。
B. 本番VPCからのトラフィックを検査およびフィルタリングするためにTra c Mirroringを使用してトラフィックをミラーリングする。
C. 本番VPCのトラフィック検査とトラフィックフィルタリングに必要なルールを作成するためにAWS Network Firewallを使用する。
D. 本番VPCのトラフィック検査とトラフィックフィルタリングに必要なルールを作成するためにAWS Firewall Managerを使用する。

16 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

16. A company hosts a data lake on AWS. The data lake consists of data in Amazon S3 and Amazon RDS for PostgreSQL. The company needs a
reporting solution that provides data visualization and includes all the data sources within the data lake. Only the company’s management
team should have full access to all the visualizations. The rest of the company should have only limited access.
Which solution will meet these requirements?
A. Create an analysis in Amazon QuickSight. Connect all the data sources and create new datasets. Publish dashboards to visualize the
data. Share the dashboards with the appropriate IAM roles.
B. Create an analysis in Amazon QuickSight. Connect all the data sources and create new datasets. Publish dashboards to visualize the
data. Share the dashboards with the appropriate users and groups.
C. Create an AWS Glue table and crawler for the data in Amazon S3. Create an AWS Glue extract, transform, and load (ETL) job to produce
reports. Publish the reports to Amazon S3. Use S3 bucket policies to limit access to the reports.
D. Create an AWS Glue table and crawler for the data in Amazon S3. Use Amazon Athena Federated Query to access data within Amazon
RDS for PostgreSQL. Generate reports by using Amazon Athena. Publish the reports to Amazon S3. Use S3 bucket policies to limit access
to the reports.

ある企業はAWS上にデータレイクをホストしています。このデータレイクはAmazon S3とAmazon RDS for PostgreSQLのデータで構成されています。
同社は、データ可視化を提供し、データレイク内のすべてのデータソースを含むレポートソリューションを必要としています。
会社の経営陣のみがすべての可視化にフルアクセスできる必要があり、それ以外の社員は限定されたアクセスのみを持つべきです。
これらの要件を満たすソリューションはどれですか?

A. Amazon QuickSightで分析を作成します。すべてのデータソースに接続し、新しいデータセットを作成します。
データを可視化するためにダッシュボードを公開します。適切なIAMロールとダッシュボードを共有します。

B. Amazon QuickSightで分析を作成します。すべてのデータソースに接続し、新しいデータセットを作成します。
データを可視化するためにダッシュボードを公開します。適切なユーザーとグループとダッシュボードを共有します。

C. Amazon S3のデータに対してAWS Glueテーブルとクローラーを作成します。
レポートを作成するためにAWS Glueの抽出、変換、読み込み(ETL)ジョブを作成します。
レポートをAmazon S3に公開します。S3バケットポリシーを使用してレポートへのアクセスを制限します。

D. Amazon S3のデータに対してAWS Glueテーブルとクローラーを作成します。
Amazon RDS for PostgreSQL内のデータにアクセスするためにAmazon Athena Federated Queryを使用します。
Amazon Athenaを使用してレポートを生成します。レポートをAmazon S3に公開します。
S3バケットポリシーを使用してレポートへのアクセスを制限します。

17 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

17. A company is implementing a new business application. The application runs on two Amazon EC2 instances and uses an Amazon S3 bucket
for document storage. A solutions architect needs to ensure that the EC2 instances can access the S3 bucket.
What should the solutions architect do to meet this requirement?
A. Create an IAM role that grants access to the S3 bucket. Attach the role to the EC2 instances.
B. Create an IAM policy that grants access to the S3 bucket. Attach the policy to the EC2 instances.
C. Create an IAM group that grants access to the S3 bucket. Attach the group to the EC2 instances.
D. Create an IAM user that grants access to the S3 bucket. Attach the user account to the EC2 instances.

ある企業が新しい業務アプリケーションを導入しています。
このアプリケーションは2つのAmazon EC2インスタンス上で動作し、ドキュメントストレージにはAmazon S3バケットを使用しています。
ソリューションアーキテクトは、EC2インスタンスがS3バケットにアクセスできるようにする必要があります。
この要件を満たすために、ソリューションアーキテクトは何をすべきでしょうか?

A. S3バケットへのアクセス権を付与するIAMロールを作成し、そのロールをEC2インスタンスにアタッチします。
B. S3バケットへのアクセス権を付与するIAMポリシーを作成し、そのポリシーをEC2インスタンスにアタッチします。
C. S3バケットへのアクセス権を付与するIAMグループを作成し、そのグループをEC2インスタンスにアタッチします。
D. S3バケットへのアクセス権を付与するIAMユーザーを作成し、そのユーザーアカウントをEC2インスタンスにアタッチします。

18 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

18. An application development team is designing a microservice that will convert large images to smaller, compressed images. When a user
uploads an image through the web interface, the microservice should store the image in an Amazon S3 bucket, process and compress the
image with an AWS Lambda function, and store the image in its compressed form in a different S3 bucket.
A solutions architect needs to design a solution that uses durable, stateless components to process the images automatically.
Which combination of actions will meet these requirements? (Choose two.)
A. Create an Amazon Simple Queue Service (Amazon SQS) queue. Configure the S3 bucket to send a notification to the SQS queue when
an image is uploaded to the S3 bucket.
B. Configure the Lambda function to use the Amazon Simple Queue Service (Amazon SQS) queue as the invocation source. When the SQS
message is successfully processed, delete the message in the queue.
C. Configure the Lambda function to monitor the S3 bucket for new uploads. When an uploaded image is detected, write the file name to a
text file in memory and use the text file to keep track of the images that were processed.
D. Launch an Amazon EC2 instance to monitor an Amazon Simple Queue Service (Amazon SQS) queue. When items are added to the
queue, log the file name in a text file on the EC2 instance and invoke the Lambda function.
E. Configure an Amazon EventBridge (Amazon CloudWatch Events) event to monitor the S3 bucket. When an image is uploaded, send an
alert to an Amazon ample notification Service (Amazon SNS) topic with the application owner’s email address for further processing.

アプリケーション開発チームは、大きな画像をより小さな圧縮画像に変換するマイクロサービスを設計しています。ユーザーがWebインターフェースを通じて画像をアップロードすると、マイクロサービスはその画像をAmazon S3バケットに保存し、AWS Lambda関数で処理および圧縮を行い、圧縮された形式の画像を別のS3バケットに保存する必要があります。
ソリューションアーキテクトは、画像を自動的に処理するために、耐久性がありステートレスなコンポーネントを使用するソリューションを設計する必要があります。
これらの要件を満たすアクションの組み合わせはどれですか?(2つ選択してください)
A. Amazon Simple Queue Service(Amazon SQS)キューを作成します。S3バケットに画像がアップロードされたときにSQSキューに通知を送信するようにS3バケットを設定します。
B. Lambda関数の呼び出し元としてAmazon Simple Queue Service(Amazon SQS)キューを使用するように設定します。SQSメッセージが正常に処理されたら、キュー内のメッセージを削除します。
C. Lambda関数を設定して、新しいアップロードを検出するためにS3バケットを監視します。アップロードされた画像が検出されたら、メモリ内のテキストファイルにファイル名を書き込み、処理された画像を追跡するためにテキストファイルを使用します。
D. Amazon Simple Queue Service(Amazon SQS)キューを監視するためにAmazon EC2インスタンスを起動します。キューにアイテムが追加されたとき、EC2インスタンス上のテキストファイルにファイル名を記録し、Lambda関数を呼び出します。
E. S3バケットを監視するためにAmazon EventBridge(Amazon CloudWatch Events)イベントを設定します。画像がアップロードされたとき、アプリケーション所有者のメールアドレスを含むAmazon Simple Notification Service(Amazon SNS)トピックにアラートを送信して、さらなる処理を行います。

19 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

19. A company has a three-tier web application that is deployed on AWS. The web servers are deployed in a public subnet in a VPC. The
application servers and database servers are deployed in private subnets in the same VPC. The company has deployed a third-party virtual
rewall appliance from AWS Marketplace in an inspection VPC. The appliance is Configured with an IP interface that can accept IP packets.
A solutions architect needs to integrate the web application with the appliance to inspect all traffic to the application before the traffic
reaches the web server.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create a Network Load Balancer in the public subnet of the application’s VPC to route the traffic to the appliance for packet inspection.
B. Create an Application Load Balancer in the public subnet of the application’s VPC to route the traffic to the appliance for packet
inspection.
C. Deploy a transit gateway in the inspection VPConfigure route tables to route the incoming packets through the transit gateway.
D. Deploy a Gateway Load Balancer in the inspection VPC. Create a Gateway Load Balancer endpoint to receive the incoming packets and
forward the packets to the appliance.

ある会社がAWS上に展開された3層のウェブアプリケーションを持っています。ウェブサーバーはVPC内のパブリックサブネットに配置されています。
アプリケーションサーバーとデータベースサーバーは同じVPC内のプライベートサブネットに配置されています。
同社はAWS Marketplaceからサードパーティの仮想ファイアウォールアプライアンスをインスペクションVPCに導入しました。
このアプライアンスはIPパケットを受け取ることができるIPインターフェースで設定されています。
ソリューションアーキテクトは、トラフィックがウェブサーバーに到達する前にアプリケーションへのすべてのトラフィックを検査するために、ウェブアプリケーションとこのアプライアンスを統合する必要があります。
これらの要件を最も少ない運用負荷で満たすソリューションはどれでしょうか?

A. アプリケーションのVPCのパブリックサブネットにネットワークロードバランサーを作成し、トラフィックをアプライアンスにルーティングしてパケット検査を行う。
B. アプリケーションのVPCのパブリックサブネットにアプリケーションロードバランサーを作成し、トラフィックをアプライアンスにルーティングしてパケット検査を行う。
C. インスペクションVPCにトランジットゲートウェイを展開し、ルーティングテーブルを設定して着信パケットをトランジットゲートウェイ経由でルーティングする。
D. インスペクションVPCにゲートウェイロードバランサーを展開し、ゲートウェイロードバランサーエンドポイントを作成して着信パケットを受け取り、アプライアンスに転送する。

20 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

20. A company wants to improve its ability to clone large amounts of production data into a test environment in the same AWS Region. The data
is stored in Amazon EC2 instances on Amazon Elastic Block Store (Amazon EBS) volumes. Modi cations to the cloned data must not affect
the production environment. The software that accesses this data requires consistently high I/O performance.
A solutions architect needs to minimize the time that is required to clone the production data into the test environment.
Which solution will meet these requirements?
A. Take EBS snapshots of the production EBS volumes. Restore the snapshots onto EC2 instance store volumes in the test environment.
B. Configure the production EBS volumes to use the EBS Multi-Attach feature. Take EBS snapshots of the production EBS volumes. Attach
the production EBS volumes to the EC2 instances in the test environment.
C. Take EBS snapshots of the production EBS volumes. Create and initialize new EBS volumes. Attach the new EBS volumes to EC2
instances in the test environment before restoring the volumes from the production EBS snapshots.
D. Take EBS snapshots of the production EBS volumes. Turn on the EBS fast snapshot restore feature on the EBS snapshots. Restore the
snapshots into new EBS volumes. Attach the new EBS volumes to EC2 instances in the test environment.

ある企業は、同じAWSリージョン内で大量の本番データをテスト環境にクローンする能力を向上させたいと考えています。
データはAmazon Elastic Block Store(Amazon EBS)ボリューム上のAmazon EC2インスタンスに保存されています。
クローンしたデータへの変更は、本番環境に影響を与えてはなりません。
このデータにアクセスするソフトウェアは、一貫して高いI/Oパフォーマンスを必要とします。
ソリューションアーキテクトは、本番データをテスト環境にクローンするために必要な時間を最小限に抑える必要があります。
どのソリューションがこれらの要件を満たしますか?

A. 本番EBSボリュームのEBSスナップショットを取得します。スナップショットをテスト環境のEC2インスタンスストアボリュームに復元します。
B. 本番EBSボリュームでEBS Multi-Attach機能を使用するように設定します。本番EBSボリュームのEBSスナップショットを取得します。本番EBSボリュームをテスト環境のEC2インスタンスに接続します。
C. 本番EBSボリュームのEBSスナップショットを取得します。新しいEBSボリュームを作成して初期化します。本番EBSスナップショットからボリュームを復元する前に、新しいEBSボリュームをテスト環境のEC2インスタンスに接続します。
D. 本番EBSボリュームのEBSスナップショットを取得します。EBSスナップショットでEBS高速スナップショット復元機能を有効にします。スナップショットを新しいEBSボリュームに復元します。新しいEBSボリュームをテスト環境のEC2インスタンスに接続します。

21 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

21. An ecommerce company wants to launch a one-deal-a-day website on AWS. Each day will feature exactly one product on sale for a period of
24 hours. The company wants to be able to handle millions of requests each hour with millisecond latency during peak hours.
Which solution will meet these requirements with the LEAST operational overhead?
A. Use Amazon S3 to host the full website in different S3 buckets. Add Amazon CloudFront distributions. Set the S3 buckets as origins for
the distributions. Store the order data in Amazon S3.
B. Deploy the full website on Amazon EC2 instances that run in Auto Scaling groups across multiple Availability Zones. Add an Application
Load Balancer (ALB) to distribute the website traffic. Add another ALB for the backend APIs. Store the data in Amazon RDS for MySQL.
C. Migrate the full application to run in containers. Host the containers on Amazon Elastic Kubernetes Service (Amazon EKS). Use the
Kubernetes Cluster Autoscaler to increase and decrease the number of pods to process bursts in traffic. Store the data in Amazon RDS for
MySQL.
D. Use an Amazon S3 bucket to host the website’s static content. Deploy an Amazon CloudFront distribution. Set the S3 bucket as the
origin. Use Amazon API Gateway and AWS Lambda functions for the backend APIs. Store the data in Amazon DynamoDB.

以下是将AWS问题完整翻译成日文的内容:

問題:

あるeコマース企業が、AWSで「1日1ディール」のウェブサイトを立ち上げようとしています。各日には、24時間限定でちょうど1つの商品がセールとして紹介されます。同社は、ピーク時においても1時間あたり数百万のリクエストをミリ秒レベルのレイテンシで処理できるようにしたいと考えています。

これらの要件を、最も運用負荷が少ない方法で満たすソリューションはどれですか?

A. Amazon S3を使用して、ウェブサイト全体を異なるS3バケットでホストします。Amazon CloudFrontディストリビューションを追加し、S3バケットをディストリビューションのオリジンとして設定します。注文データはAmazon S3に保存します。

B. ウェブサイト全体を、複数のアベイラビリティゾーンにまたがるAuto Scalingグループ内のAmazon EC2インスタンスにデプロイします。ウェブサイトトラフィックを分散させるためにApplication Load Balancer(ALB)を追加します。バックエンドAPI用にもう1つのALBを追加します。データはAmazon RDS for MySQLに保存します。

C. アプリケーション全体をコンテナで実行するよう移行します。コンテナはAmazon Elastic Kubernetes Service(Amazon EKS)でホストします。Kubernetes Cluster Autoscalerを使用して、トラフィックの急増に対応するためにポッドの数を増減させます。データはAmazon RDS for MySQLに保存します。

D. ウェブサイトの静的コンテンツをホストするためにAmazon S3バケットを使用します。Amazon CloudFrontディストリビューションをデプロイし、S3バケットをオリジンとして設定します。バックエンドAPIにはAmazon API GatewayとAWS Lambda関数を使用します。データはAmazon DynamoDBに保存します。

22 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

22. A solutions architect is using Amazon S3 to design the storage architecture of a new digital media application. The media files must be
resilient to the loss of an Availability Zone. Some files are accessed frequently while other files are rarely accessed in an unpredictable
pattern. The solutions architect must minimize the costs of storing and retrieving the media files.
Which storage option meets these requirements?
A. S3 Standard
B. S3 Intelligent-Tiering
C. S3 Standard-Infrequent Access (S3 Standard-IA)
D. S3 One Zone-Infrequent Access (S3 One Zone-IA)

ソリューションアーキテクトは、新しいデジタルメディアアプリケーションのストレージアーキテクチャを設計するためにAmazon S3を使用しています。
メディアファイルは、1つのアベイラビリティーゾーンの喪失に対して耐障害性を持っている必要があります。
一部のファイルは頻繁にアクセスされますが、他のファイルは予測不能なパターンでほとんどアクセスされません。
ソリューションアーキテクトは、メディアファイルの保存と取得のコストを最小限に抑える必要があります。
これらの要件を満たすストレージオプションはどれですか?

A. S3 Standard
B. S3 Intelligent-Tiering
C. S3 Standard-Infrequent Access (S3 Standard-IA)
D. S3 One Zone-Infrequent Access (S3 One Zone-IA)

23 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

23. A company is storing backup files by using Amazon S3 Standard storage. The files are accessed frequently for 1 month. However, the files are
not accessed after 1 month. The company must keep the files inde nitely.
Which storage solution will meet these requirements MOST cost-effectively?
A. Configure S3 Intelligent-Tiering to automatically migrate objects.
B. Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 Glacier Deep Archive after 1 month.
C. Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-IA) after 1
month.
D. Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) after 1
month.

ある会社がAmazon S3 Standardストレージを使用してバックアップファイルを保存しています。ファイルは1か月間頻繁にアクセスされますが、1か月後にはアクセスされなくなります。会社はこれらのファイルを無期限に保持する必要があります。
これらの要件を最もコスト効率的に満たすストレージソリューションはどれですか?
A. S3 Intelligent-Tieringを設定し、オブジェクトを自動的に移行する。
B. 1か月後にオブジェクトをS3 StandardからS3 Glacier Deep Archiveに移行するS3ライフサイクル設定を作成する。
C. 1か月後にオブジェクトをS3 StandardからS3 Standard-Infrequent Access(S3 Standard-IA)に移行するS3ライフサイクル設定を作成する。
D. 1か月後にオブジェクトをS3 StandardからS3 One Zone-Infrequent Access(S3 One Zone-IA)に移行するS3ライフサイクル設定を作成する。

24 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

24. A company observes an increase in Amazon EC2 costs in its most recent bill. The billing team notices unwanted vertical scaling of instance
types for a couple of EC2 instances. A solutions architect needs to create a graph comparing the last 2 months of EC2 costs and perform an
in-depth analysis to identify the root cause of the vertical scaling.
How should the solutions architect generate the information with the LEAST operational overhead?
A. Use AWS Budgets to create a budget report and compare EC2 costs based on instance types.
B. Use Cost Explorer’s granular ltering feature to perform an in-depth analysis of EC2 costs based on instance types.
C. Use graphs from the AWS Billing and Cost Management dashboard to compare EC2 costs based on instance types for the last 2 months.
D. Use AWS Cost and Usage Reports to create a report and send it to an Amazon S3 bucket. Use Amazon QuickSight with Amazon S3 as a
source to generate an interactive graph based on instance types.

ある会社が、最近の請求書でAmazon EC2のコスト増加に気づきました。
課金チームは、いくつかのEC2インスタンスで望ましくない垂直スケーリングが行われていることに気づきました。
ソリューションアーキテクトは、過去2ヶ月間のEC2コストを比較するグラフを作成し、垂直スケーリングの根本原因を特定するための詳細な分析を行う必要があります。
ソリューションアーキテクトは、最も運用負荷が少ない方法でこの情報をどのように生成すべきでしょうか?

A. AWS Budgetsを使用して予算レポートを作成し、インスタンスタイプに基づいてEC2コストを比較する。
B. Cost Explorerの詳細フィルタリング機能を使用して、インスタンスタイプに基づいてEC2コストの詳細な分析を行う。
C. AWS Billing and Cost Managementダッシュボードのグラフを使用して、過去2ヶ月間のインスタンスタイプに基づくEC2コストを比較する。
D. AWS Cost and Usage Reportsを使用してレポートを作成し、Amazon S3バケットに送信する。Amazon S3をソースとしてAmazon QuickSightを使用し、インスタンスタイプに基づくインタラクティブなグラフを生成する。

25 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

25. A company is designing an application. The application uses an AWS Lambda function to receive information through Amazon API Gateway
and to store the information in an Amazon Aurora PostgreSQL database.
During the proof-of-concept stage, the company has to increase the Lambda quotas signi cantly to handle the high volumes of data that the
company needs to load into the database. A solutions architect must recommend a new design to improve scalability and minimize the
configuration effort.
Which solution will meet these requirements?
A. Refactor the Lambda function code to Apache Tomcat code that runs on Amazon EC2 instances. Connect the database by using native
Java Database Connectivity (JDBC) drivers.
B. Change the platform from Aurora to Amazon DynamoDProvision a DynamoDB Accelerator (DAX) cluster. Use the DAX client SDK to point
the existing DynamoDB API calls at the DAX cluster.
C. Set up two Lambda functions. Configure one function to receive the information. Configure the other function to load the information
into the database. Integrate the Lambda functions by using Amazon Simple notification Service (Amazon SNS).
D. Set up two Lambda functions. Configure one function to receive the information. Configure the other function to load the information
into the database. Integrate the Lambda functions by using an Amazon Simple Queue Service (Amazon SQS) queue.

ある会社がアプリケーションを設計しています。このアプリケーションは、Amazon API Gatewayを通じて情報を受け取り、その情報をAmazon Aurora PostgreSQLデータベースに保存するためにAWS Lambda関数を使用しています。
概念実証段階において、会社はデータベースにロードする必要がある大量のデータを処理するために、Lambdaのクォータを大幅に増やす必要があります。ソリューションアーキテクトは、拡張性を向上させ、設定作業を最小限に抑えるための新しい設計を推奨しなければなりません。
これらの要件を満たすソリューションはどれでしょうか?
A. Lambda関数コードをApache Tomcatコードにリファクタリングし、Amazon EC2インスタンス上で実行します。ネイティブのJava Database Connectivity(JDBC)ドライバを使用してデータベースに接続します。
B. AuroraからAmazon DynamoDBにプラットフォームを変更します。DynamoDB Accelerator(DAX)クラスタをプロビジョニングします。DAXクライアントSDKを使用して、既存のDynamoDB API呼び出しをDAXクラスタにポイントします。
C. 2つのLambda関数を設定します。1つの関数は情報を受け取り、もう1つの関数は情報をデータベースにロードするように設定します。Amazon Simple Notification Service(Amazon SNS)を使用してLambda関数を統合します。
D. 2つのLambda関数を設定します。1つの関数は情報を受け取り、もう1つの関数は情報をデータベースにロードするように設定します。Amazon Simple Queue Service(Amazon SQS)キューを使用してLambda関数を統合します。

26 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

26. A company needs to review its AWS Cloud deployment to ensure that its Amazon S3 buckets do not have unauthorized configuration changes.
What should a solutions architect do to accomplish this goal?
A. Turn on AWS Config with the appropriate rules.
B. Turn on AWS Trusted Advisor with the appropriate checks.
C. Turn on Amazon Inspector with the appropriate assessment template.
D. Turn on Amazon S3 server access logging. Configure Amazon EventBridge (Amazon Cloud Watch Events).

ある企業は、Amazon S3バケットに対する不正な設定変更が行われていないことを確認するために、AWSクラウドデプロイメントの見直しが必要です。
この目標を達成するために、ソリューションアーキテクトは何をすべきでしょうか?
A. 適切なルールでAWS Configを有効にする。
B. 適切なチェック項目でAWS Trusted Advisorを有効にする。
C. 適切な評価テンプレートでAmazon Inspectorを有効にする。
D. Amazon S3サーバーアクセスログを有効にする。Amazon EventBridge(Amazon CloudWatch Events)を設定する。

27 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

27. A company is launching a new application and will display application metrics on an Amazon CloudWatch dashboard. The company’s product
manager needs to access this dashboard periodically. The product manager does not have an AWS account. A solutions architect must provide
access to the product manager by following the principle of least privilege.
Which solution will meet these requirements?
A. Share the dashboard from the CloudWatch console. Enter the product manager’s email address, and complete the sharing steps.
Provide a shareable link for the dashboard to the product manager.
B. Create an IAM user specifically for the product manager. Attach the CloudWatchReadOnlyAccess AWS managed policy to the user. Share
the new login credentials with the product manager. Share the browser URL of the correct dashboard with the product manager.
C. Create an IAM user for the company’s employees. Attach the ViewOnlyAccess AWS managed policy to the IAM user. Share the new login
credentials with the product manager. Ask the product manager to navigate to the CloudWatch console and locate the dashboard by name
in the Dashboards section.
D. Deploy a bastion server in a public subnet. When the product manager requires access to the dashboard, start the server and share the
RDP credentials. On the bastion server, ensure that the browser is Configured to open the dashboard URL with cached AWS credentials that
have appropriate permissions to view the dashboard.

ある企業が新しいアプリケーションをリリースし、アプリケーションメトリクスをAmazon CloudWatchダッシュボードに表示する予定です。
同社のプロダクトマネージャーは定期的にこのダッシュボードにアクセスする必要がありますが、AWSアカウントを持っていません。
ソリューションアーキテクトは、最小権限の原則に従ってプロダクトマネージャーにアクセスを提供する必要があります。

これらの要件を満たす解決策はどれですか?
A. CloudWatchコンソールからダッシュボードを共有します。プロダクトマネージャーのメールアドレスを入力し、共有手順を完了します。
ダッシュボードの共有可能なリンクをプロダクトマネージャーに提供します。

B. プロダクトマネージャー専用のIAMユーザーを作成します。CloudWatchReadOnlyAccess AWS管理ポリシーをユーザーにアタッチします。
プロダクトマネージャーに新しいログイン情報を共有します。正しいダッシュボードのブラウザURLをプロダクトマネージャーに共有します。

C. 会社の従業員用にIAMユーザーを作成します。ViewOnlyAccess AWS管理ポリシーをIAMユーザーにアタッチします。
プロダクトマネージャーに新しいログイン情報を共有します。プロダクトマネージャーにCloudWatchコンソールに移動し、
ダッシュボードセクションで名前によってダッシュボードを探すように依頼します。

D. パブリックサブネットに踏み台サーバーをデプロイします。プロダクトマネージャーがダッシュボードにアクセスする必要があるとき、
サーバーを起動し、RDP資格情報を共有します。踏み台サーバー上で、ブラウザが適切な権限を持つキャッシュされたAWS資格情報で
ダッシュボードURLを開くように設定されていることを確認します。

28 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

28. A company is migrating applications to AWS. The applications are deployed in different accounts. The company manages the accounts
centrally by using AWS Organizations. The company’s security team needs a single sign-on (SSO) solution across all the company’s accounts.
The company must continue managing the users and groups in its on-premises self-managed Microsoft Active Directory.
Which solution will meet these requirements?
A. Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console. Create a one-way forest trust or a one-way domain trust to connect
the company’s self-managed Microsoft Active Directory with AWS SSO by using AWS Directory Service for Microsoft Active Directory.
B. Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console. Create a two-way forest trust to connect the company’s self-managed
Microsoft Active Directory with AWS SSO by using AWS Directory Service for Microsoft Active Directory.
C. Use AWS Directory Service. Create a two-way trust relationship with the company’s self-managed Microsoft Active Directory.
D. Deploy an identity provider (IdP) on premises. Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console.

ある企業がアプリケーションをAWSに移行しています。アプリケーションは異なるアカウントにデプロイされています。
企業はAWS Organizationsを使用してアカウントを集中管理しています。
企業のセキュリティチームは、すべての企業アカウントでシングルサインオン(SSO)ソリューションを必要としています。
企業はオンプレミスの自己管理型Microsoft Active Directoryでユーザーとグループを管理し続ける必要があります。
これらの要件を満たすソリューションはどれですか?
A. AWS SSOコンソールからAWSシングルサインオン(AWS SSO)を有効にします。
AWS Directory Service for Microsoft Active Directoryを使用して、企業の自己管理型Microsoft Active DirectoryとAWS SSOを接続するために、一方向のフォレスト信頼または一方向のドメイン信頼を作成します。
B. AWS SSOコンソールからAWSシングルサインオン(AWS SSO)を有効にします。
AWS Directory Service for Microsoft Active Directoryを使用して、企業の自己管理型Microsoft Active DirectoryとAWS SSOを接続するために、双方向のフォレスト信頼を作成します。
C. AWS Directory Serviceを使用します。
企業の自己管理型Microsoft Active Directoryと双方向の信頼関係を作成します。
D. オンプレミスにアイデンティティプロバイダー(IdP)をデプロイします。
AWS SSOコンソールからAWSシングルサインオン(AWS SSO)を有効にします。

29 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

29. A company provides a Voice over Internet Protocol (VoIP) service that uses UDP connections. The service consists of Amazon EC2 instances
that run in an Auto Scaling group. The company has deployments across multiple AWS Regions.
The company needs to route users to the Region with the lowest latency. The company also needs automated failover between Regions.
Which solution will meet these requirements?
A. Deploy a Network Load Balancer (NLB) and an associated target group. Associate the target group with the Auto Scaling group. Use the
NLB as an AWS Global Accelerator endpoint in each Region.
B. Deploy an Application Load Balancer (ALB) and an associated target group. Associate the target group with the Auto Scaling group. Use
the ALB as an AWS Global Accelerator endpoint in each Region.
C. Deploy a Network Load Balancer (NLB) and an associated target group. Associate the target group with the Auto Scaling group. Create
an Amazon Route 53 latency record that points to aliases for each NLB. Create an Amazon CloudFront distribution that uses the latency
record as an origin.
D. Deploy an Application Load Balancer (ALB) and an associated target group. Associate the target group with the Auto Scaling group.
Create an Amazon Route 53 weighted record that points to aliases for each ALB. Deploy an Amazon CloudFront distribution that uses the
weighted record as an origin.

ある企業が、UDP接続を使用するVoice over Internet Protocol(VoIP)サービスを提供しています。このサービスは、Auto Scalingグループで実行されるAmazon EC2インスタンスで構成されています。
同社は複数のAWSリージョンに展開しています。
同社は、ユーザーをレイテンシーが最も低いリージョンにルーティングする必要があります。また、リージョン間の自動フェイルオーバーも必要です。
これらの要件を満たすソリューションはどれですか?

A. Network Load Balancer(NLB)と関連するターゲットグループをデプロイします。ターゲットグループをAuto Scalingグループに関連付けます。各リージョンでNLBをAWS Global Acceleratorエンドポイントとして使用します。
B. Application Load Balancer(ALB)と関連するターゲットグループをデプロイします。ターゲットグループをAuto Scalingグループに関連付けます。各リージョンでALBをAWS Global Acceleratorエンドポイントとして使用します。
C. Network Load Balancer(NLB)と関連するターゲットグループをデプロイします。ターゲットグループをAuto Scalingグループに関連付けます。各NLBのエイリアスを指すAmazon Route 53レイテンシーレコードを作成します。そのレイテンシーレコードをオリジンとして使用するAmazon CloudFrontディストリビューションを作成します。
D. Application Load Balancer(ALB)と関連するターゲットグループをデプロイします。ターゲットグループをAuto Scalingグループに関連付けます。各ALBのエイリアスを指すAmazon Route 53加重レコードを作成します。その加重レコードをオリジンとして使用するAmazon CloudFrontディストリビューションをデプロイします。

30 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

30. A development team runs monthly resource-intensive tests on its general purpose Amazon RDS for MySQL DB instance with Performance
Insights enabled. The testing lasts for 48 hours once a month and is the only process that uses the database. The team wants to reduce the
cost of running the tests without reducing the compute and memory attributes of the DB instance.
Which solution meets these requirements MOST cost-effectively?
A. Stop the DB instance when tests are completed. Restart the DB instance when required.
B. Use an Auto Scaling policy with the DB instance to automatically scale when tests are completed.
C. Create a snapshot when tests are completed. Terminate the DB instance and restore the snapshot when required.
D. Modify the DB instance to a low-capacity instance when tests are completed. Modify the DB instance again when required.

ある開発チームは、Performance Insightsが有効化された汎用目的のAmazon RDS for MySQL DBインスタンス上で、毎月リソースを大量に消費するテストを実行しています。
このテストは月に1度、48時間継続して行われ、データベースを使用する唯一のプロセスです。
チームは、DBインスタンスのコンピュートおよびメモリ属性を変更せずに、テスト実行にかかるコストを削減したいと考えています。
これらの要件を最も費用対効果の高い方法で満たすソリューションはどれでしょうか?
A. テストが完了したらDBインスタンスを停止する。必要時に再起動する。
B. テスト完了時に自動的にスケーリングするAuto ScalingポリシーをDBインスタンスに適用する。
C. テスト完了時にスナップショットを作成する。DBインスタンスを終了し、必要時にスナップショットから復元する。
D. テスト完了時にDBインスタンスを低容量インスタンスに変更する。必要時に再度変更する。

31 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

31. A company that hosts its web application on AWS wants to ensure all Amazon EC2 instances. Amazon RDS DB instances. and Amazon Redshift
clusters are Configured with tags. The company wants to minimize the effort of configuring and operating this check.
What should a solutions architect do to accomplish this?
A. Use AWS Config rules to de ne and detect resources that are not properly tagged.
B. Use Cost Explorer to display resources that are not properly tagged. Tag those resources manually.
C. Write API calls to check all resources for proper tag allocation. Periodically run the code on an EC2 instance.
D. Write API calls to check all resources for proper tag allocation. Schedule an AWS Lambda function through Amazon CloudWatch to
periodically run the code.

AWS上でWebアプリケーションをホストしている企業は、全てのAmazon EC2インスタンス、Amazon RDS DBインスタンス、およびAmazon Redshiftクラスターにタグが設定されていることを保証したいと考えています。
この企業は、このチェックの設定と運用の手間を最小限に抑えたいと考えています。
ソリューションアーキテクトはこれを達成するために何をすべきですか?
A. AWS Configルールを使用して、適切にタグ付けされていないリソースを定義および検出します。
B. Cost Explorerを使用して、適切にタグ付けされていないリソースを表示します。それらのリソースを手動でタグ付けします。
C. APIコールを記述して、すべてのリソースが適切にタグ付けされているかチェックします。EC2インスタンス上で定期的にコードを実行します。
D. APIコールを記述して、すべてのリソースが適切にタグ付けされているかチェックします。Amazon CloudWatchを通じてAWS Lambda関数をスケジュールし、定期的にコードを実行します。

32 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

32. A development team needs to host a website that will be accessed by other teams. The website contents consist of HTML, CSS, client-side
JavaScript, and images.
Which method is the MOST cost-effective for hosting the website?
A. Containerize the website and host it in AWS Fargate.
B. Create an Amazon S3 bucket and host the website there.
C. Deploy a web server on an Amazon EC2 instance to host the website.
D. Configure an Application Load Balancer with an AWS Lambda target that uses the Express.js framework.

開発チームは、他のチームがアクセスするWebサイトをホストする必要があります。Webサイトのコンテンツは、HTML、CSS、クライアントサイドJavaScript、および画像で構成されています。
このWebサイトをホストする最もコスト効率の高い方法はどれですか?
A. Webサイトをコンテナ化し、AWS Fargateでホストする。
B. Amazon S3バケットを作成し、そこでWebサイトをホストする。
C. Amazon EC2インスタンス上にWebサーバーをデプロイし、Webサイトをホストする。
D. Express.jsフレームワークを使用するAWS Lambdaターゲットを設定したApplication Load Balancerを構成する。

33 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

33. A company runs an online marketplace web application on AWS. The application serves hundreds of thousands of users during peak hours.
The company needs a scalable, near-real-time solution to share the details of millions of nancial transactions with several other internal
applications. Transactions also need to be processed to remove sensitive data before being stored in a document database for low-latency
retrieval.
What should a solutions architect recommend to meet these requirements?
A. Store the transactions data into Amazon DynamoDB. Set up a rule in DynamoDB to remove sensitive data from every transaction upon
write. Use DynamoDB Streams to share the transactions data with other applications.
B. Stream the transactions data into Amazon Kinesis Data Firehose to store data in Amazon DynamoDB and Amazon S3. Use AWS Lambda
integration with Kinesis Data Firehose to remove sensitive data. Other applications can consume the data stored in Amazon S3.
C. Stream the transactions data into Amazon Kinesis Data Streams. Use AWS Lambda integration to remove sensitive data from every
transaction and then store the transactions data in Amazon DynamoDB. Other applications can consume the transactions data off the
Kinesis data stream.
D. Store the batched transactions data in Amazon S3 as files. Use AWS Lambda to process every file and remove sensitive data before
updating the files in Amazon S3. The Lambda function then stores the data in Amazon DynamoDB. Other applications can consume
transaction files stored in Amazon S3.

ある企業は、AWS上でオンラインマーケットプレイスのウェブアプリケーションを運営しています。このアプリケーションは、ピーク時には数十万人のユーザーにサービスを提供しています。
同社は、数百万件の金融取引の詳細を他のいくつかの内部アプリケーションと共有するためのスケーラブルでほぼリアルタイムのソリューションを必要としています。また、取引データは、低遅延での検索のためにドキュメントデータベースに保存される前に、機密データを除去する処理を行う必要があります。
これらの要件を満たすために、ソリューションアーキテクトは何を推奨すべきでしょうか?
A. 取引データをAmazon DynamoDBに保存します。DynamoDBにルールを設定し、書き込み時にすべての取引から機密データを削除します。DynamoDB Streamsを使用して、他のアプリケーションと取引データを共有します。
B. 取引データをAmazon Kinesis Data Firehoseにストリーミングし、Amazon DynamoDBとAmazon S3にデータを保存します。AWS LambdaとKinesis Data Firehoseを統合して機密データを削除します。他のアプリケーションは、Amazon S3に保存されたデータを消費できます。
C. 取引データをAmazon Kinesis Data Streamsにストリーミングします。AWS Lambdaを統合して、すべての取引から機密データを削除し、その後、取引データをAmazon DynamoDBに保存します。他のアプリケーションは、Kinesisデータストリームから取引データを消費できます。
D. バッチ処理された取引データをファイルとしてAmazon S3に保存します。AWS Lambdaを使用して各ファイルを処理し、Amazon S3内のファイルを更新する前に機密データを削除します。その後、Lambda関数はデータをAmazon DynamoDBに保存します。他のアプリケーションは、Amazon S3に保存された取引ファイルを消費できます。

34 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

34. A company hosts its multi-tier applications on AWS. For compliance, governance, auditing, and security, the company must track configuration
changes on its AWS resources and record a history of API calls made to these resources.
What should a solutions architect do to meet these requirements?
A. Use AWS CloudTrail to track configuration changes and AWS Config to record API calls.
B. Use AWS Config to track configuration changes and AWS CloudTrail to record API calls.
C. Use AWS Config to track configuration changes and Amazon CloudWatch to record API calls.
D. Use AWS CloudTrail to track configuration changes and Amazon CloudWatch to record API calls.

ある企業がAWS上にマルチティアアプリケーションをホストしています。コンプライアンス、ガバナンス、監査、セキュリティのため、同社はAWSリソースの設定変更を追跡し、これらのリソースに対して行われたAPIコールの履歴を記録する必要があります。

ソリューションアーキテクトはこれらの要件を満たすために何をすべきでしょうか?

A. AWS CloudTrailを使用して設定変更を追跡し、AWS Configを使用してAPIコールを記録します。

B. AWS Configを使用して設定変更を追跡し、AWS CloudTrailを使用してAPIコールを記録します。

C. AWS Configを使用して設定変更を追跡し、Amazon CloudWatchを使用してAPIコールを記録します。

D. AWS CloudTrailを使用して設定変更を追跡し、Amazon CloudWatchを使用してAPIコールを記録します。

35 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

35. A company is preparing to launch a public-facing web application in the AWS Cloud. The architecture consists of Amazon EC2 instances within
a VPC behind an Elastic Load Balancer (ELB). A third-party service is used for the DNS. The company’s solutions architect must recommend a
solution to detect and protect against large-scale DDoS attacks.
Which solution meets these requirements?
A. Enable Amazon GuardDuty on the account.
B. Enable Amazon Inspector on the EC2 instances.
C. Enable AWS Shield and assign Amazon Route 53 to it.
D. Enable AWS Shield Advanced and assign the ELB to it.

ある会社がAWSクラウドで公開用ウェブアプリケーションを起動する準備をしています。
アーキテクチャは、Elastic Load Balancer(ELB)の背後にあるVPC内のAmazon EC2インスタンスで構成されています。
DNSにはサードパーティ製のサービスが使用されています。
同社のソリューションアーキテクチャは、大規模なDDoS攻撃を検出し保護するためのソリューションを推奨する必要があります。
これらの要件を満たすソリューションはどれですか?
A. アカウントでAmazon GuardDutyを有効にします。
B. EC2インスタンスでAmazon Inspectorを有効にします。
C. AWS Shieldを有効にし、Amazon Route 53を割り当てます。
D. AWS Shield Advancedを有効にし、ELBを割り当てます。

36 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

36. A company is building an application in the AWS Cloud. The application will store data in Amazon S3 buckets in two AWS Regions. The
company must use an AWS Key Management Service (AWS KMS) customer managed key to encrypt all data that is stored in the S3 buckets.
The data in both S3 buckets must be encrypted and decrypted with the same KMS key. The data and the key must be stored in each of the two
Regions.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with Amazon S3 managed encryption keys
(SSE-S3). Configure replication between the S3 buckets.
B. Create a customer managed multi-Region KMS key. Create an S3 bucket in each Region. Configure replication between the S3 buckets.
Configure the application to use the KMS key with client-side encryption.
C. Create a customer managed KMS key and an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with
Amazon S3 managed encryption keys (SSE-S3). Configure replication between the S3 buckets.
D. Create a customer managed KMS key and an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with AWS
KMS keys (SSE-KMS). Configure replication between the S3 buckets.

ある会社がAWSクラウドでアプリケーションを構築しています。このアプリケーションは、2つのAWSリージョンのAmazon S3バケットにデータを保存します。
会社は、AWS Key Management Service(AWS KMS)のカスタマー管理キーを使用して、S3バケットに保存されるすべてのデータを暗号化する必要があります。
両方のS3バケットのデータは、同じKMSキーで暗号化および復号化される必要があります。データとキーは、2つのリージョンそれぞれに保存される必要があります。
これらの要件を最小限の運用負荷で満たすソリューションはどれでしょうか?

A. 各リージョンにS3バケットを作成します。S3バケットをAmazon S3管理暗号化キー(SSE-S3)を使用したサーバーサイド暗号化を使用するように設定します。S3バケット間のレプリケーションを設定します。

B. カスタマー管理のマルチリージョンKMSキーを作成します。各リージョンにS3バケットを作成します。S3バケット間のレプリケーションを設定します。アプリケーションをクライアントサイド暗号化でKMSキーを使用するように設定します。

C. 各リージョンにカスタマー管理KMSキーとS3バケットを作成します。S3バケットをAmazon S3管理暗号化キー(SSE-S3)を使用したサーバーサイド暗号化を使用するように設定します。S3バケット間のレプリケーションを設定します。

D. 各リージョンにカスタマー管理KMSキーとS3バケットを作成します。S3バケットをAWS KMSキー(SSE-KMS)を使用したサーバーサイド暗号化を使用するように設定します。S3バケット間のレプリケーションを設定します。

37 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

37. A company recently launched a variety of new workloads on Amazon EC2 instances in its AWS account. The company needs to create a
strategy to access and administer the instances remotely and securely. The company needs to implement a repeatable process that works
with native AWS services and follows the AWS Well-Architected Framework.
Which solution will meet these requirements with the LEAST operational overhead?
A. Use the EC2 serial console to directly access the terminal interface of each instance for administration.
B. Attach the appropriate IAM role to each existing instance and new instance. Use AWS Systems Manager Session Manager to establish a
remote SSH session.
C. Create an administrative SSH key pair. Load the public key into each EC2 instance. Deploy a bastion host in a public subnet to provide a
tunnel for administration of each instance.
D. Establish an AWS Site-to-Site VPN connection. Instruct administrators to use their local on-premises machines to connect directly to the
instances by using SSH keys across the VPN tunnel.

ある企業が最近、自社のAWSアカウント内のAmazon EC2インスタンスでさまざまな新しいワークロードを立ち上げました。同社は、リモートで安全にこれらのインスタンスにアクセスし、管理するための戦略を策定する必要があります。
同社は、ネイティブのAWSサービスと連携し、AWS Well-Architected Frameworkに準拠した、繰り返し可能なプロセスを実装する必要があります。
これらの要件を最小の運用負荷で満たすソリューションはどれでしょうか?
A. EC2シリアルコンソールを使用して、各インスタンスのターミナルインターフェイスに直接アクセスし、管理する。
B. 既存のインスタンスと新しいインスタンスに適切なIAMロールを適用する。AWS Systems Manager Session Managerを使用して、リモートSSHセッションを確立する。
C. 管理用のSSHキーペアを作成する。公開鍵を各EC2インスタンスにロードする。パブリックサブネットにバスティオンホストを配置し、各インスタンスの管理用トンネルを提供する。
D. AWSサイト間VPN接続を確立する。管理者に対し、VPNトンネル経由でSSHキーを使用して、オンプレミスのローカルマシンから直接インスタンスに接続するよう指示する。

38 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

38. A company is hosting a static website on Amazon S3 and is using Amazon Route 53 for DNS. The website is experiencing increased demand
from around the world. The company must decrease latency for users who access the website.
Which solution meets these requirements MOST cost-effectively?
A. Replicate the S3 bucket that contains the website to all AWS Regions. Add Route 53 geolocation routing entries.
B. Provision accelerators in AWS Global Accelerator. Associate the supplied IP addresses with the S3 bucket. Edit the Route 53 entries to
point to the IP addresses of the accelerators.
C. Add an Amazon CloudFront distribution in front of the S3 bucket. Edit the Route 53 entries to point to the CloudFront distribution.
D. Enable S3 Transfer Acceleration on the bucket. Edit the Route 53 entries to point to the new endpoint.

会社は静的ウェブサイトをAmazon S3でホストし、Amazon Route 53をDNSに使用しています。
ウェブサイトには世界中から需要が増加しています。
会社は、ウェブサイトにアクセスするユーザーの待ち時間を減少させなければなりません。
これらの要件を最も費用対効果の高い方法で満たす解決策はどれですか?

A. ウェブサイトを含むS3バケットをすべてのAWSリージョンに複製する。Route 53のジオロケーションルーティングエントリを追加する。
B. AWS Global Acceleratorでアクセラレータをプロビジョニングする。提供されたIPアドレスをS3バケットに関連付ける。
Route 53のエントリをアクセラレータのIPアドレスにポイントするように編集する。
C. S3バケットの前にAmazon CloudFrontディストリビューションを追加する。
Route 53のエントリをCloudFrontディストリビューションにポイントするように編集する。
D. バケットでS3 Transfer Accelerationを有効にする。
Route 53のエントリを新しいエンドポイントにポイントするように編集する。

39 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

39. A company maintains a searchable repository of items on its website. The data is stored in an Amazon RDS for MySQL database table that
contains more than 10 million rows. The database has 2 TB of General Purpose SSD storage. There are millions of updates against this data
every day through the company’s website.
The company has noticed that some insert operations are taking 10 seconds or longer. The company has determined that the database
storage performance is the problem.
Which solution addresses this performance issue?
A. Change the storage type to Provisioned IOPS SSD.
B. Change the DB instance to a memory optimized instance class.
C. Change the DB instance to a burstable performance instance class.
D. Enable Multi-AZ RDS read replicas with MySQL native asynchronous replication.

ある企業が自社のウェブサイト上で検索可能なアイテムのリポジトリを維持しています。
データは10百万行以上のレコードを持つAmazon RDS for MySQLデータベーステーブルに保存されており、
データベースには2TBの汎用SSDストレージが使用されています。
企業のウェブサイトを通じて、このデータに対して毎日数百万件の更新が行われています。

企業は、一部の挿入操作に10秒以上かかっていることに気づきました。
企業は、データベースストレージの性能が問題であると判断しました。

この性能問題に対処するソリューションはどれですか?
A. ストレージタイプをプロビジョンドIOPS SSDに変更する
B. DBインスタンスをメモリ最適化インスタンスクラスに変更する
C. DBインスタンスをバースト可能パフォーマンスインスタンスクラスに変更する
D. MySQLネイティブの非同期レプリケーションでMulti-AZ RDS読み取りレプリカを有効にする

40 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

40. A company has thousands of edge devices that collectively generate 1 TB of status alerts each day. Each alert is approximately 2 KB in size.
A solutions architect needs to implement a solution to ingest and store the alerts for future analysis.
The company wants a highly available solution. However, the company needs to minimize costs and does not want to manage additional
infrastructure. Additionally, the company wants to keep 14 days of data available for immediate analysis and archive any data older than 14
days.
What is the MOST operationally e cient solution that meets these requirements?
A. Create an Amazon Kinesis Data Firehose delivery stream to ingest the alerts. Configure the Kinesis Data Firehose stream to deliver the
alerts to an Amazon S3 bucket. Set up an S3 Lifecycle configuration to transition data to Amazon S3 Glacier after 14 days.
B. Launch Amazon EC2 instances across two Availability Zones and place them behind an Elastic Load Balancer to ingest the alerts.
Create a script on the EC2 instances that will store the alerts in an Amazon S3 bucket. Set up an S3 Lifecycle configuration to transition
data to Amazon S3 Glacier after 14 days.
C. Create an Amazon Kinesis Data Firehose delivery stream to ingest the alerts. Configure the Kinesis Data Firehose stream to deliver the
alerts to an Amazon OpenSearch Service (Amazon Elasticsearch Service) cluster. Set up the Amazon OpenSearch Service (Amazon
Elasticsearch Service) cluster to take manual snapshots every day and delete data from the cluster that is older than 14 days.
D. Create an Amazon Simple Queue Service (Amazon SQS) standard queue to ingest the alerts, and set the message retention period to 14
days. Configure consumers to poll the SQS queue, check the age of the message, and analyze the message data as needed. If the
message is 14 days old, the consumer should copy the message to an Amazon S3 bucket and delete the message from the SQS queue.

ある企業には、数千台のエッジデバイスがあり、それらが毎日合計1TBのステータスアラートを生成しています。各アラートのサイズは約2KBです。
ソリューションアーキテクトは、これらのアラートを取り込み、将来の分析のために保存するソリューションを実装する必要があります。
企業は高可用性のソリューションを求めていますが、コストを最小限に抑え、追加のインフラストラクチャを管理したくないと考えています。
さらに、企業は14日分のデータをすぐに分析できるように保持し、14日を超えるデータはアーカイブしたいと考えています。
これらの要件を満たす、最も運用効率の高いソリューションはどれですか?
A. Amazon Kinesis Data Firehose デリバリーストリームを作成してアラートを取り込みます。Kinesis Data Firehose ストリームを設定して、アラートをAmazon S3 バケットに配信します。S3 ライフサイクル設定を設定して、14日後にデータをAmazon S3 Glacierに移行します。
B. 2つのアベイラビリティーゾーンにわたってAmazon EC2インスタンスを起動し、それらをElastic Load Balancerの背後に配置してアラートを取り込みます。EC2インスタンス上にスクリプトを作成して、アラートをAmazon S3 バケットに保存します。S3 ライフサイクル設定を設定して、14日後にデータをAmazon S3 Glacierに移行します。
C. Amazon Kinesis Data Firehose デリバリーストリームを作成してアラートを取り込みます。Kinesis Data Firehose ストリームを設定して、アラートをAmazon OpenSearch Service(Amazon Elasticsearch Service)クラスターに配信します。Amazon OpenSearch Service(Amazon Elasticsearch Service)クラスターを設定して、毎日手動でスナップショットを取得し、14日を超えるデータをクラスターから削除します。
D. Amazon Simple Queue Service(Amazon SQS)標準キューを作成してアラートを取り込み、メッセージ保持期間を14日に設定します。コンシューマーを設定してSQSキューをポーリングし、メッセージの年齢を確認し、必要に応じてメッセージデータを分析します。メッセージが14日経過している場合、コンシューマーはメッセージをAmazon S3 バケットにコピーし、SQSキューからメッセージを削除する必要があります。

41 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

41. A company’s application integrates with multiple software-as-a-service (SaaS) sources for data collection. The company runs Amazon EC2
instances to receive the data and to upload the data to an Amazon S3 bucket for analysis. The same EC2 instance that receives and uploads
the data also sends a notification to the user when an upload is complete. The company has noticed slow application performance and wants
to improve the performance as much as possible.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create an Auto Scaling group so that EC2 instances can scale out. Configure an S3 event notification to send events to an Amazon
Simple notification Service (Amazon SNS) topic when the upload to the S3 bucket is complete.
B. Create an Amazon AppFlow ow to transfer data between each SaaS source and the S3 bucket. Configure an S3 event notification to
send events to an Amazon Simple Notification Service (Amazon SNS) topic when the upload to the S3 bucket is complete.
C. Create an Amazon EventBridge (Amazon CloudWatch Events) rule for each SaaS source to send output data. Configure the S3 bucket as
the rule’s target. Create a second EventBridge (Cloud Watch Events) rule to send events when the upload to the S3 bucket is complete.
Configure an Amazon Simple Notification Service (Amazon SNS) topic as the second rule’s target.
D. Create a Docker container to use instead of an EC2 instance. Host the containerized application on Amazon Elastic Container Service
(Amazon ECS). Configure Amazon CloudWatch Container Insights to send events to an Amazon Simple Notification Service (Amazon SNS)
topic when the upload to the S3 bucket is complete.

ある企業のアプリケーションは、データ収集のために複数のソフトウェア・アズ・ア・サービス(SaaS)ソースと統合されています。同社はAmazon EC2インスタンスを実行し、データを受信し、分析のためにデータをAmazon S3バケットにアップロードしています。データを受信しアップロードする同じEC2インスタンスは、アップロードが完了するとユーザーに通知も送信します。同社はアプリケーションのパフォーマンスが遅いことに気付き、できるだけパフォーマンスを向上させたいと考えています。
これらの要件を最小限の運用オーバーヘッドで満たすソリューションはどれですか?
A. EC2インスタンスがスケールアウトできるようにAuto Scalingグループを作成します。S3バケットへのアップロードが完了したときにイベントをAmazon Simple Notification Service(Amazon SNS)トピックに送信するようにS3イベント通知を設定します。
B. 各SaaSソースとS3バケット間でデータを転送するためにAmazon AppFlowフローを作成します。S3バケットへのアップロードが完了したときにイベントをAmazon Simple Notification Service(Amazon SNS)トピックに送信するようにS3イベント通知を設定します。
C. 各SaaSソースが出力データを送信するためのAmazon EventBridge(Amazon CloudWatch Events)ルールを作成します。S3バケットをルールのターゲットとして設定します。S3バケットへのアップロードが完了したときにイベントを送信するための2番目のEventBridge(CloudWatch Events)ルールを作成します。Amazon Simple Notification Service(Amazon SNS)トピックを2番目のルールのターゲットとして設定します。
D. EC2インスタンスの代わりに使用するDockerコンテナを作成します。コンテナ化されたアプリケーションをAmazon Elastic Container Service(Amazon ECS)上でホストします。S3バケットへのアップロードが完了したときにイベントをAmazon Simple Notification Service(Amazon SNS)トピックに送信するようにAmazon CloudWatch Container Insightsを設定します。

42 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

42. A company runs a highly available image-processing application on Amazon EC2 instances in a single VPC. The EC2 instances run inside
several subnets across multiple Availability Zones. The EC2 instances do not communicate with each other. However, the EC2 instances
download images from Amazon S3 and upload images to Amazon S3 through a single NAT gateway. The company is concerned about data
transfer charges.
What is the MOST cost-effective way for the company to avoid Regional data transfer charges?
A. Launch the NAT gateway in each Availability Zone.
B. Replace the NAT gateway with a NAT instance.
C. Deploy a gateway VPC endpoint for Amazon S3.
D. Provision an EC2 Dedicated Host to run the EC2 instances.

ある会社は、単一のVPC内にあるAmazon EC2インスタンス上で高可用性の画像処理アプリケーションを運用しています。
EC2インスタンスは、複数のアベイラビリティーゾーンにまたがるいくつかのサブネット内で実行されています。
EC2インスタンスは互いに通信しません。
ただし、EC2インスタンスはAmazon S3から画像をダウンロードし、単一のNATゲートウェイを介してAmazon S3に画像をアップロードします。
会社はデータ転送料金を懸念しています。
地域間データ転送料金を回避するために、会社が最も費用対効果の高い方法は何ですか?
A. 各アベイラビリティーゾーンにNATゲートウェイを起動する。
B. NATゲートウェイをNATインスタンスに置き換える。
C. Amazon S3用のゲートウェイVPCエンドポイントをデプロイする。
D. EC2インスタンスを実行するためにEC2 Dedicated Hostをプロビジョニングする。

43 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

43. A company has an on-premises application that generates a large amount of time-sensitive data that is backed up to Amazon S3. The
application has grown and there are user complaints about internet bandwidth limitations. A solutions architect needs to design a long-term
solution that allows for both timely backups to Amazon S3 and with minimal impact on internet connectivity for internal users.
Which solution meets these requirements?
A. Establish AWS VPN connections and proxy all traffic through a VPC gateway endpoint.
B. Establish a new AWS Direct Connect connection and direct backup traffic through this new connection.
C. Order daily AWS Snowball devices. Load the data onto the Snowball devices and return the devices to AWS each day.
D. Submit a support ticket through the AWS Management Console. Request the removal of S3 service limits from the account.

ある企業では、社内設置型のアプリケーションが大量の時間敏感性データを生成しており、それがAmazon S3にバックアップされています。

アプリケーションが成長するにつれ、ユーザーからインターネット帯域幅の制限に関する苦情が寄せられています。

ソリューションアーキテクトは、Amazon S3へのタイムリーなバックアップと社内ユーザーのインターネット接続への影響を最小限に抑える長期的なソリューションを設計する必要があります。

これらの要件を満たすソリューションはどれでしょうか?

A. AWS VPN接続を確立し、全てのトラフィックをVPCゲートウェイエンドポイント経由でプロキシする。

B. 新しいAWS Direct Connect接続を確立し、バックアップトラフィックをこの新しい接続経由で直接送信する。

C. 毎日AWS Snowballデバイスを注文し、データをSnowballデバイスにロードして毎日AWSに返却する。

D. AWSマネジメントコンソールを通じてサポートチケットを送信し、アカウントからS3サービスの制限を解除するよう依頼する。

44 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

44. A company has an Amazon S3 bucket that contains critical data. The company must protect the data from accidental deletion.
Which combination of steps should a solutions architect take to meet these requirements? (Choose two.)
A. Enable versioning on the S3 bucket.
B. Enable MFA Delete on the S3 bucket.
C. Create a bucket policy on the S3 bucket.
D. Enable default encryption on the S3 bucket.
E. Create a lifecycle policy for the objects in the S3 bucket

ある会社には重要なデータを含むAmazon S3バケットがあります。同社は、誤削除からデータを保護する必要があります。
ソリューションアーキテクトはこれらの要件を満たすために、どの組み合わせの手順を実行すべきでしょうか?(2つ選択してください。)
A. S3バケットでバージョニングを有効にします。
B. S3バケットでMFA Deleteを有効にします。
C. S3バケットにバケットポリシーを作成します。
D. S3バケットでデフォルトの暗号化を有効にします。
E. S3バケット内のオブジェクトに対してライフサイクルポリシーを作成します。

45 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

45. A company has a data ingestion work ow that consists of the following:
• An Amazon Simple Notification Service (Amazon SNS) topic for notifications about new data deliveries
• An AWS Lambda function to process the data and record metadata
The company observes that the ingestion work ow fails occasionally because of network connectivity issues. When such a failure occurs, the
Lambda function does not ingest the corresponding data unless the company manually reruns the job.
Which combination of actions should a solutions architect take to ensure that the Lambda function ingests all data in the future? (Choose
two.)
A. Deploy the Lambda function in multiple Availability Zones.
B. Create an Amazon Simple Queue Service (Amazon SQS) queue, and subscribe it to the SNS topic.
C. Increase the CPU and memory that are allocated to the Lambda function.
D. Increase provisioned throughput for the Lambda function.
E. Modify the Lambda function to read from an Amazon Simple Queue Service (Amazon SQS) queue.

ある企業が以下の構成要素からなるデータインジェストワークフローを運用しています:
• 新規データ配信に関する通知用のAmazon Simple Notification Service(Amazon SNS)トピック
• データを処理しメタデータを記録するためのAWS Lambda関数

この企業では、ネットワーク接続の問題により、このインジェストワークフローが時々失敗することが観察されています。このような障害が発生すると、
Lambda関数は該当データを取り込まず、企業が手動でジョブを再実行しない限り処理されません。

ソリューションアーキテクトは、今後Lambda関数が全てのデータを確実にインジェストするために、どの組み合わせの対策を取るべきでしょうか?(2つ選択)
A. Lambda関数を複数のアベイラビリティーゾーンにデプロイする。
B. Amazon Simple Queue Service(Amazon SQS)キューを作成し、それをSNSトピックにサブスクライブする。
C. Lambda関数に割り当てるCPUとメモリを増やす。
D. Lambda関数のプロビジョニング済みスループットを増加させる。
E. Lambda関数を修正してAmazon Simple Queue Service(Amazon SQS)キューから読み取るようにする。

46 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

46. A company has an application that provides marketing services to stores. The services are based on previous purchases by store customers.
The stores upload transaction data to the company through SFTP, and the data is processed and analyzed to generate new marketing offers.
Some of the files can exceed 200 GB in size.
Recently, the company discovered that some of the stores have uploaded files that contain personally identi able information (PII) that should
not have been included. The company wants administrators to be alerted if PII is shared again. The company also wants to automate
remediation.
What should a solutions architect do to meet these requirements with the LEAST development effort?
A. Use an Amazon S3 bucket as a secure transfer point. Use Amazon Inspector to scan the objects in the bucket. If objects contain PII,
trigger an S3 Lifecycle policy to remove the objects that contain PII.
B. Use an Amazon S3 bucket as a secure transfer point. Use Amazon Macie to scan the objects in the bucket. If objects contain PII, use
Amazon Simple Notification Service (Amazon SNS) to trigger a notification to the administrators to remove the objects that contain PII.
C. Implement custom scanning algorithms in an AWS Lambda function. Trigger the function when objects are loaded into the bucket. If
objects contain PII, use Amazon Simple Notification Service (Amazon SNS) to trigger a notification to the administrators to remove the
objects that contain PII.
D. Implement custom scanning algorithms in an AWS Lambda function. Trigger the function when objects are loaded into the bucket. If
objects contain PII, use Amazon Simple Email Service (Amazon SES) to trigger a notification to the administrators and trigger an S3
Lifecycle policy to remove the meats that contain PII.

ある企業では、小売店向けにマーケティングサービスを提供するアプリケーションを運用しています。これらのサービスは、店舗の顧客による過去の購入履歴に基づいています。

店舗はSFTPを通じて取引データを企業にアップロードし、そのデータは処理・分析されて新しいマーケティングオファーが生成されます。

一部のファイルは200GBを超えるサイズになることがあります。

最近、同社はいくつかの店舗が含めるべきではない個人を特定できる情報(PII)を含むファイルをアップロードしていたことを発見しました。同社は、PIIが再度共有された場合に管理者に警告を発したいと考えています。また、修復作業を自動化することも望んでいます。

ソリューションアーキテクトは、これらの要件を最小限の開発工数で満たすために何をすべきでしょうか?

A. セキュアな転送ポイントとしてAmazon S3バケットを使用する。バケット内のオブジェクトをスキャンするためにAmazon Inspectorを使用する。オブジェクトにPIIが含まれている場合、PIIを含むオブジェクトを削除するためにS3ライフサイクルポリシーをトリガーする。

B. セキュアな転送ポイントとしてAmazon S3バケットを使用する。バケット内のオブジェクトをスキャンするためにAmazon Macieを使用する。オブジェクトにPIIが含まれている場合、Amazon Simple Notification Service(Amazon SNS)を使用して管理者に通知をトリガーし、PIIを含むオブジェクトを削除する。

C. AWS Lambda関数にカスタムスキャンアルゴリズムを実装する。オブジェクトがバケットにロードされたときにこの関数をトリガーする。オブジェクトにPIIが含まれている場合、Amazon Simple Notification Service(Amazon SNS)を使用して管理者に通知をトリガーし、PIIを含むオブジェクトを削除する。

D. AWS Lambda関数にカスタムスキャンアルゴリズムを実装する。オブジェクトがバケットにロードされたときにこの関数をトリガーする。オブジェクトにPIIが含まれている場合、Amazon Simple Email Service(Amazon SES)を使用して管理者に通知し、PIIを含むオブジェクトを削除するためにS3ライフサイクルポリシーをトリガーする。

47 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

47. A company needs guaranteed Amazon EC2 capacity in three speci c Availability Zones in a speci c AWS Region for an upcoming event that
will last 1 week.
What should the company do to guarantee the EC2 capacity?
A. Purchase Reserved Instances that specify the Region needed.
B. Create an On-Demand Capacity Reservation that speci es the Region needed.
C. Purchase Reserved Instances that specify the Region and three Availability Zones needed.
D. Create an On-Demand Capacity Reservation that speci es the Region and three Availability Zones needed.

ある企業は、1週間続く予定のイベントに向けて、特定のAWSリージョン内の3つの特定のアベイラビリティーゾーンで保証されたAmazon EC2容量を必要としています。
同社がEC2容量を保証するためには何をすべきでしょうか?
A. 必要なリージョンを指定した予約インスタンスを購入する。
B. 必要なリージョンを指定したオンデマンド容量予約を作成する。
C. 必要なリージョンと3つのアベイラビリティーゾーンを指定した予約インスタンスを購入する。
D. 必要なリージョンと3つのアベイラビリティーゾーンを指定したオンデマンド容量予約を作成する。

48 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

48. A company’s website uses an Amazon EC2 instance store for its catalog of items. The company wants to make sure that the catalog is highly
available and that the catalog is stored in a durable location.
What should a solutions architect do to meet these requirements?
A. Move the catalog to Amazon ElastiCache for Redis.
B. Deploy a larger EC2 instance with a larger instance store.
C. Move the catalog from the instance store to Amazon S3 Glacier Deep Archive.
D. Move the catalog to an Amazon Elastic File System (Amazon EFS) file system.

ある企業のウェブサイトでは、商品カタログにAmazon EC2インスタンスストアを使用しています。同社は、このカタログの高い可用性を確保し、耐久性のある場所にデータを保存したいと考えています。
ソリューションアーキテクトはこれらの要件を満たすために何をすべきでしょうか?
A. カタログをAmazon ElastiCache for Redisに移行する。
B. より大きなインスタンスストアを備えた大型のEC2インスタンスを導入する。
C. インスタンスストアからAmazon S3 Glacier Deep Archiveにカタログを移行する。
D. カタログをAmazon Elastic File System (Amazon EFS) ファイルシステムに移行する。

49 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

49. A company stores call transcript files on a monthly basis. Users access the files randomly within 1 year of the call, but users access the les
infrequently after 1 year. The company wants to optimize its solution by giving users the ability to query and retrieve files that are less than 1
year-old as quickly as possible. A delay in retrieving older files is acceptable.
Which solution will meet these requirements MOST cost-effectively?
A. Store individual files with tags in Amazon S3 Glacier Instant Retrieval. Query the tags to retrieve the files from S3 Glacier Instant
Retrieval.
B. Store individual files in Amazon S3 Intelligent-Tiering. Use S3 Lifecycle policies to move the files to S3 Glacier Flexible Retrieval after 1
year. Query and retrieve the files that are in Amazon S3 by using Amazon Athena. Query and retrieve the files that are in S3 Glacier by
using S3 Glacier Select.
C. Store individual files with tags in Amazon S3 Standard storage. Store search metadata for each archive in Amazon S3 Standard storage.
Use S3 Lifecycle policies to move the files to S3 Glacier Instant Retrieval after 1 year. Query and retrieve the files by searching for
metadata from Amazon S3.
D. Store individual files in Amazon S3 Standard storage. Use S3 Lifecycle policies to move the files to S3 Glacier Deep Archive after 1 year.
Store search metadata in Amazon RDS. Query the files from Amazon RDS. Retrieve the files from S3 Glacier Deep Archive.

ある企業は、通話記録ファイルを月次で保存している。
ユーザーは通話から1年以内のファイルにランダムにアクセスするが、1年を経過したファイルへのアクセス頻度は低い。
企業は、1年未満のファイルを可能な限り迅速にクエリおよび取得できる機能をユーザーに提供することで、ソリューションを最適化したいと考えている。
古いファイルの取得に遅延が生じることは許容される。
これらの要件を最も費用対効果の高い方法で満たすソリューションはどれか?

A. 個々のファイルにタグを付けてAmazon S3 Glacier Instant Retrievalに保存する。
タグをクエリしてS3 Glacier Instant Retrievalからファイルを取得する。

B. 個々のファイルをAmazon S3 Intelligent-Tieringに保存する。
S3ライフサイクルポリシーを使用して、1年後にファイルをS3 Glacier Flexible Retrievalに移動する。
Amazon S3内のファイルはAmazon Athenaを使用してクエリおよび取得する。
S3 Glacier内のファイルはS3 Glacier Selectを使用してクエリおよび取得する。

C. 個々のファイルにタグを付けてAmazon S3 Standardストレージに保存する。
各アーカイブの検索メタデータをAmazon S3 Standardストレージに保存する。
S3ライフサイクルポリシーを使用して、1年後にファイルをS3 Glacier Instant Retrievalに移動する。
Amazon S3からメタデータを検索してファイルをクエリおよび取得する。

D. 個々のファイルをAmazon S3 Standardストレージに保存する。
S3ライフサイクルポリシーを使用して、1年後にファイルをS3 Glacier Deep Archiveに移動する。
検索メタデータをAmazon RDSに保存する。
Amazon RDSからファイルをクエリし、S3 Glacier Deep Archiveからファイルを取得する。

50 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

50. A company has a production workload that runs on 1,000 Amazon EC2 Linux instances. The workload is powered by third-party software. The
company needs to patch the third-party software on all EC2 instances as quickly as possible to remediate a critical security vulnerability.
What should a solutions architect do to meet these requirements?
A. Create an AWS Lambda function to apply the patch to all EC2 instances.
B. Configure AWS Systems Manager Patch Manager to apply the patch to all EC2 instances.
C. Schedule an AWS Systems Manager maintenance window to apply the patch to all EC2 instances.
D. Use AWS Systems Manager Run Command to run a custom command that applies the patch to all EC2 instances.

ある会社は、1,000台のAmazon EC2 Linuxインスタンスで実行されている本番ワークロードを持っています。
このワークロードはサードパーティ製ソフトウェアによって稼働しています。
会社は重大なセキュリティ脆弱性を修正するため、全てのEC2インスタンスでサードパーティ製ソフトウェアにパッチをできるだけ早く適用する必要があります。
これらの要件を満たすためにソリューションアーキテクトは何をすべきでしょうか?

A. すべてのEC2インスタンスにパッチを適用するAWS Lambda関数を作成する
B. AWS Systems Manager Patch Managerを設定して、すべてのEC2インスタンスにパッチを適用する
C. AWS Systems Managerメンテナンスウィンドウをスケジュールして、すべてのEC2インスタンスにパッチを適用する
D. AWS Systems Manager Run Commandを使用して、すべてのEC2インスタンスにパッチを適用するカスタムコマンドを実行する

51 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

51. A company is developing an application that provides order shipping statistics for retrieval by a REST API. The company wants to extract the
shipping statistics, organize the data into an easy-to-read HTML format, and send the report to several email addresses at the same time
every morning.
Which combination of steps should a solutions architect take to meet these requirements? (Choose two.)
A. Configure the application to send the data to Amazon Kinesis Data Firehose.
B. Use Amazon Simple Email Service (Amazon SES) to format the data and to send the report by email.
C. Create an Amazon EventBridge (Amazon CloudWatch Events) scheduled event that invokes an AWS Glue job to query the application’s
API for the data.
D. Create an Amazon EventBridge (Amazon CloudWatch Events) scheduled event that invokes an AWS Lambda function to query the
application’s API for the data.
E. Store the application data in Amazon S3. Create an Amazon Simple Notification Service (Amazon SNS) topic as an S3 event destination
to send the report by email.

ある会社が、REST API 経由で取得可能な注文配送統計情報を提供するアプリケーションを開発しています。
同社は配送統計情報を抽出し、データを見やすいHTML形式に整えて、毎朝決まった時間に複数のメールアドレスへレポートを送信したいと考えています。
これらの要件を満たすためにソリューションアーキテクトはどの組み合わせのステップを実施すべきでしょうか?(2つ選択してください)
A. アプリケーションがデータをAmazon Kinesis Data Firehoseに送信するように設定する
B. データを整形しメールでレポートを送信するためにAmazon Simple Email Service (Amazon SES)を使用する
C. アプリケーションのAPIからデータを問い合わせるAWS Glueジョブを起動するAmazon EventBridge (Amazon CloudWatch Events)スケジュールイベントを作成する
D. アプリケーションのAPIからデータを問い合わせるAWS Lambda関数を起動するAmazon EventBridge (Amazon CloudWatch Events)スケジュールイベントを作成する
E. アプリケーションデータをAmazon S3に保存する。メールでレポートを送信するS3イベント先としてAmazon Simple Notification Service (Amazon SNS)トピックを作成する

52 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

52. A company wants to migrate its on-premises application to AWS. The application produces output files that vary in size from tens of gigabytes
to hundreds of terabytes. The application data must be stored in a standard file system structure. The company wants a solution that scales
automatically. is highly available, and requires minimum operational overhead.
Which solution will meet these requirements?
A. Migrate the application to run as containers on Amazon Elastic Container Service (Amazon ECS). Use Amazon S3 for storage.
B. Migrate the application to run as containers on Amazon Elastic Kubernetes Service (Amazon EKS). Use Amazon Elastic Block Store
(Amazon EBS) for storage.
C. Migrate the application to Amazon EC2 instances in a Multi-AZ Auto Scaling group. Use Amazon Elastic File System (Amazon EFS) for
storage.
D. Migrate the application to Amazon EC2 instances in a Multi-AZ Auto Scaling group. Use Amazon Elastic Block Store (Amazon EBS) for
storage.

ある企業がオンプレミスのアプリケーションをAWSに移行したいと考えています。
このアプリケーションは、数十ギガバイトから数百テラバイトまでさまざまなサイズの出力ファイルを生成します。
アプリケーションデータは標準的なファイルシステム構造で保存する必要があります。
同社は、自動的にスケールし、高可用性を備え、運用負担が最小限のソリューションを求めています。
これらの要件を満たすソリューションはどれですか?

A. アプリケーションをAmazon Elastic Container Service(Amazon ECS)上のコンテナとして実行するよう移行します。ストレージにはAmazon S3を使用します。
B. アプリケーションをAmazon Elastic Kubernetes Service(Amazon EKS)上のコンテナとして実行するよう移行します。ストレージにはAmazon Elastic Block Store(Amazon EBS)を使用します。
C. アプリケーションをMulti-AZ Auto Scalingグループ内のAmazon EC2インスタンスに移行します。ストレージにはAmazon Elastic File System(Amazon EFS)を使用します。
D. アプリケーションをMulti-AZ Auto Scalingグループ内のAmazon EC2インスタンスに移行します。ストレージにはAmazon Elastic Block Store(Amazon EBS)を使用します。

53 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

53. A company needs to store its accounting records in Amazon S3. The records must be immediately accessible for 1 year and then must be
archived for an additional 9 years. No one at the company, including administrative users and root users, can be able to delete the records
during the entire 10-year period. The records must be stored with maximum resiliency.
Which solution will meet these requirements?
A. Store the records in S3 Glacier for the entire 10-year period. Use an access control policy to deny deletion of the records for a period of
10 years.
B. Store the records by using S3 Intelligent-Tiering. Use an IAM policy to deny deletion of the records. After 10 years, change the IAM
policy to allow deletion.
C. Use an S3 Lifecycle policy to transition the records from S3 Standard to S3 Glacier Deep Archive after 1 year. Use S3 Object Lock in
compliance mode for a period of 10 years.
D. Use an S3 Lifecycle policy to transition the records from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) after 1 year.
Use S3 Object Lock in governance mode for a period of 10 years.

ある企業は、会計記録をAmazon S3に保存する必要があります。記録は、1年間はすぐにアクセス可能である必要があり、その後さらに9年間アーカイブされなければなりません。会社の誰も、管理ユーザーやルートユーザーを含めて、10年間の全期間中に記録を削除することができません。記録は最大の回復力を持って保存されなければなりません。
これらの要件を満たす解決策はどれですか?
A. 記録を10年間全期間S3 Glacierに保存します。アクセス制御ポリシーを使用して、10年間記録の削除を拒否します。
B. S3 Intelligent-Tieringを使用して記録を保存します。IAMポリシーを使用して記録の削除を拒否します。10年後、IAMポリシーを変更して削除を許可します。
C. S3ライフサイクルポリシーを使用して、1年後に記録をS3 StandardからS3 Glacier Deep Archiveに移行します。10年間の期間、コンプライアンスモードでS3 Object Lockを使用します。
D. S3ライフサイクルポリシーを使用して、1年後に記録をS3 StandardからS3 One Zone-Infrequent Access(S3 One Zone-IA)に移行します。10年間の期間、ガバナンスモードでS3 Object Lockを使用します。

54 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

54. A company runs multiple Windows workloads on AWS. The company’s employees use Windows file shares that are hosted on two Amazon EC2
instances. The file shares synchronize data between themselves and maintain duplicate copies. The company wants a highly available and
durable storage solution that preserves how users currently access the files.
What should a solutions architect do to meet these requirements?
A. Migrate all the data to Amazon S3. Set up IAM authentication for users to access files.
B. Set up an Amazon S3 File Gateway. Mount the S3 File Gateway on the existing EC2 instances.
C. Extend the file share environment to Amazon FSx for Windows File Server with a Multi-AZ configuration. Migrate all the data to FSx for
Windows File Server.
D. Extend the file share environment to Amazon Elastic File System (Amazon EFS) with a Multi-AZ configuration. Migrate all the data to
Amazon EFS.

ある会社がAWS上で複数のWindowsワークロードを実行しています。同社の従業員は、2つのAmazon EC2インスタンスでホストされているWindowsファイル共有を使用しています。
ファイル共有は相互にデータを同期し、重複したコピーを保持しています。同社は、ユーザーが現在ファイルにアクセスする方法を維持しながら、高可用性と耐久性を備えたストレージソリューションを求めています。
ソリューションアーキテクトはこれらの要件を満たすために何をすべきですか?

A. すべてのデータをAmazon S3に移行します。ユーザーがファイルにアクセスするためにIAM認証を設定します。
B. Amazon S3ファイルゲートウェイを設定します。既存のEC2インスタンスにS3ファイルゲートウェイをマウントします。
C. マルチAZ構成でAmazon FSx for Windowsファイルサーバーにファイル共有環境を拡張します。すべてのデータをFSx for Windowsファイルサーバーに移行します。
D. マルチAZ構成でAmazon Elastic File System(Amazon EFS)にファイル共有環境を拡張します。すべてのデータをAmazon EFSに移行します。

55 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

55. A solutions architect is developing a VPC architecture that includes multiple subnets. The architecture will host applications that use Amazon
EC2 instances and Amazon RDS DB instances. The architecture consists of six subnets in two Availability Zones. Each Availability Zone
includes a public subnet, a private subnet, and a dedicated subnet for databases. Only EC2 instances that run in the private subnets can have
access to the RDS databases.
Which solution will meet these requirements?
A. Create a new route table that excludes the route to the public subnets’ CIDR blocks. Associate the route table with the database
subnets.
B. Create a security group that denies inbound traffic from the security group that is assigned to instances in the public subnets. Attach
the security group to the DB instances.
C. Create a security group that allows inbound traffic from the security group that is assigned to instances in the private subnets. Attach
the security group to the DB instances.
D. Create a new peering connection between the public subnets and the private subnets. Create a different peering connection between
the private subnets and the database subnets.

ソリューションアーキテクトは、Amazon EC2インスタンスとAmazon RDS DBインスタンスを使用するアプリケーションをホストするVPCアーキテクチャを開発しています。このアーキテクチャは、2つのアベイラビリティーゾーンにまたがる6つのサブネットで構成されています。各アベイラビリティーゾーンには、パブリックサブネット、プライベートサブネット、およびデータベース専用のサブネットが含まれています。プライベートサブネットで実行されているEC2インスタンスのみがRDSデータベースにアクセスできます。
これらの要件を満たすソリューションはどれですか?
A. パブリックサブネットのCIDRブロックへのルートを除外する新しいルートテーブルを作成します。このルートテーブルをデータベースサブネットに関連付けます。
B. パブリックサブネットのインスタンスに割り当てられているセキュリティグループからのインバウンドトラフィックを拒否するセキュリティグループを作成します。このセキュリティグループをDBインスタンスにアタッチします。
C. プライベートサブネットのインスタンスに割り当てられているセキュリティグループからのインバウンドトラフィックを許可するセキュリティグループを作成します。このセキュリティグループをDBインスタンスにアタッチします。
D. パブリックサブネットとプライベートサブネットの間に新しいピアリング接続を作成します。プライベートサブネットとデータベースサブネットの間に別のピアリング接続を作成します。

56 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

56. A company has registered its domain name with Amazon Route 53. The company uses Amazon API Gateway in the ca-central-1 Region as a
public interface for its backend microservice APIs. Third-party services consume the APIs securely. The company wants to design its API
Gateway URL with the company’s domain name and corresponding certificate so that the third-party services can use HTTPS.
Which solution will meet these requirements?
A. Create stage variables in API Gateway with Name=”Endpoint-URL” and Value=”Company Domain Name” to overwrite the default URL.
Import the public certificate associated with the company’s domain name into AWS Certificate Manager (ACM).
B. Create Route 53 DNS records with the company’s domain name. Point the alias record to the Regional API Gateway stage endpoint.
Import the public certificate associated with the company’s domain name into AWS Certificate Manager (ACM) in the us-east-1 Region.
C. Create a Regional API Gateway endpoint. Associate the API Gateway endpoint with the company’s domain name. Import the public
certificate associated with the company’s domain name into AWS Certificate Manager (ACM) in the same Region. Attach the certificate to
the API Gateway endpoint. Configure Route 53 to route traffic to the API Gateway endpoint.
D. Create a Regional API Gateway endpoint. Associate the API Gateway endpoint with the company’s domain name. Import the public
certificate associated with the company’s domain name into AWS Certificate Manager (ACM) in the us-east-1 Region. Attach the certificate
to the API Gateway APIs. Create Route 53 DNS records with the company’s domain name. Point an A record to the company’s domain
name.

ある企業がAmazon Route 53でドメイン名を登録しています。
この企業は、バックエンドのマイクロサービスAPI向けのパブリックインターフェースとして、ca-central-1リージョンのAmazon API Gatewayを使用しています。
サードパーティのサービスは、これらのAPIを安全に利用しています。
この企業は、自社のドメイン名と対応する証明書を用いてAPI GatewayのURLを設計し、サードパーティのサービスがHTTPSを利用できるようにしたいと考えています。

これらの要件を満たすソリューションはどれでしょうか?

A. API Gatewayでステージ変数を作成し、Name=”Endpoint-URL”、Value=”企業のドメイン名”としてデフォルトURLを上書きします。
企業のドメイン名に関連付けられた公開証明書をAWS Certificate Manager (ACM)にインポートします。

B. 企業のドメイン名でRoute 53のDNSレコードを作成します。
エイリアスレコードをリージョナルなAPI Gatewayステージエンドポイントに向けます。
企業のドメイン名に関連付けられた公開証明書をus-east-1リージョンのAWS Certificate Manager (ACM)にインポートします。

C. リージョナルなAPI Gatewayエンドポイントを作成します。
API Gatewayエンドポイントを企業のドメイン名に関連付けます。
企業のドメイン名に関連付けられた公開証明書を同じリージョンのAWS Certificate Manager (ACM)にインポートします。
証明書をAPI Gatewayエンドポイントにアタッチします。
Route 53を設定してトラフィックをAPI Gatewayエンドポイントにルーティングします。

D. リージョナルなAPI Gatewayエンドポイントを作成します。
API Gatewayエンドポイントを企業のドメイン名に関連付けます。
企業のドメイン名に関連付けられた公開証明書をus-east-1リージョンのAWS Certificate Manager (ACM)にインポートします。
証明書をAPI GatewayのAPIにアタッチします。
企業のドメイン名でRoute 53のDNSレコードを作成します。
Aレコードを企業のドメイン名に向けます。

57 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

57. A company is running a popular social media website. The website gives users the ability to upload images to share with other users. The
company wants to make sure that the images do not contain inappropriate content. The company needs a solution that minimizes
development effort.
What should a solutions architect do to meet these requirements?
A. Use Amazon Comprehend to detect inappropriate content. Use human review for low-con dence predictions.
B. Use Amazon Rekognition to detect inappropriate content. Use human review for low-con dence predictions.
C. Use Amazon SageMaker to detect inappropriate content. Use ground truth to label low-con dence predictions.
D. Use AWS Fargate to deploy a custom machine learning model to detect inappropriate content. Use ground truth to label low-con dence
predictions.

ある企業は人気のあるソーシャルメディアウェブサイトを運営しています。そのウェブサイトでは、ユーザーが他のユーザーと共有するために画像をアップロードできます。
企業は、画像に不適切なコンテンツが含まれていないことを確認したいと考えています。企業は、開発労力を最小限に抑えるソリューションを必要としています。
これらの要件を満たすために、ソリューションアーキテクトは何をすべきでしょうか?
A. Amazon Comprehendを使用して不適切なコンテンツを検出します。信頼度の低い予測については人間によるレビューを使用します。
B. Amazon Rekognitionを使用して不適切なコンテンツを検出します。信頼度の低い予測については人間によるレビューを使用します。
C. Amazon SageMakerを使用して不適切なコンテンツを検出します。信頼度の低い予測についてはGround Truthを使用してラベル付けします。
D. AWS Fargateを使用して、不適切なコンテンツを検出するためのカスタム機械学習モデルをデプロイします。信頼度の低い予測についてはGround Truthを使用してラベル付けします。

58 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

58. A company wants to run its critical applications in containers to meet requirements for scalability and availability. The company prefers to
focus on maintenance of the critical applications. The company does not want to be responsible for provisioning and managing the underlying
infrastructure that runs the containerized workload.
What should a solutions architect do to meet these requirements?
A. Use Amazon EC2 instances, and install Docker on the instances.
B. Use Amazon Elastic Container Service (Amazon ECS) on Amazon EC2 worker nodes.
C. Use Amazon Elastic Container Service (Amazon ECS) on AWS Fargate.
D. Use Amazon EC2 instances from an Amazon Elastic Container Service (Amazon ECS)-optimized Amazon Machine Image (AMI).

ある企業が、拡張性と可用性の要件を満たすために重要なアプリケーションをコンテナで実行したいと考えています。同社は、重要なアプリケーションのメンテナンスに注力することを希望しています。
同社は、コンテナ化されたワークロードを実行する基盤となるインフラストラクチャのプロビジョニングと管理を担当したくないと考えています。
これらの要件を満たすために、ソリューションアーキテクトは何をすべきでしょうか?
A. Amazon EC2インスタンスを使用し、インスタンスにDockerをインストールする。
B. Amazon EC2ワーカーノード上でAmazon Elastic Container Service(Amazon ECS)を使用する。
C. AWS Fargate上でAmazon Elastic Container Service(Amazon ECS)を使用する。
D. Amazon Elastic Container Service(Amazon ECS)に最適化されたAmazon Machine Image(AMI)からAmazon EC2インスタンスを使用する。

59 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

59. A company hosts more than 300 global websites and applications. The company requires a platform to analyze more than 30 TB of
clickstream data each day.
What should a solutions architect do to transmit and process the clickstream data?
A. Design an AWS Data Pipeline to archive the data to an Amazon S3 bucket and run an Amazon EMR cluster with the data to generate
analytics.
B. Create an Auto Scaling group of Amazon EC2 instances to process the data and send it to an Amazon S3 data lake for Amazon Redshift
to use for analysis.
C. Cache the data to Amazon CloudFront. Store the data in an Amazon S3 bucket. When an object is added to the S3 bucket. run an AWS
Lambda function to process the data for analysis.
D. Collect the data from Amazon Kinesis Data Streams. Use Amazon Kinesis Data Firehose to transmit the data to an Amazon S3 data
lake. Load the data in Amazon Redshift for analysis.

ある企業は300以上のグローバルウェブサイトとアプリケーションをホストしています。この企業は、毎日30TB以上のクリックストリームデータを分析するためのプラットフォームを必要としています。
ソリューションアーキテクトは、クリックストリームデータを転送および処理するために何をすべきでしょうか?

A. AWS Data Pipelineを設計し、データをAmazon S3バケットにアーカイブして、そのデータを使用してAmazon EMRクラスターを実行し、分析を生成する。
B. Amazon EC2インスタンスのAuto Scalingグループを作成してデータを処理し、Amazon Redshiftが分析に使用できるようにAmazon S3データレイクに送信する。
C. データをAmazon CloudFrontにキャッシュする。データをAmazon S3バケットに保存する。S3バケットにオブジェクトが追加されたら、AWS Lambda関数を実行して分析用にデータを処理する。
D. Amazon Kinesis Data Streamsからデータを収集する。Amazon Kinesis Data Firehoseを使用してデータをAmazon S3データレイクに転送する。Amazon Redshiftにデータをロードして分析する。

60 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

60. A company has a website hosted on AWS. The website is behind an Application Load Balancer (ALB) that is Configured to handle HTTP and
HTTPS separately. The company wants to forward all requests to the website so that the requests will use HTTPS.
What should a solutions architect do to meet this requirement?
A. Update the ALB’s network ACL to accept only HTTPS traffic.
B. Create a rule that replaces the HTTP in the URL with HTTPS.
C. Create a listener rule on the ALB to redirect HTTP traffic to HTTPS.
D. Replace the ALB with a Network Load Balancer Configured to use Server Name Indication (SNI).

ある企業がAWSでホストされたウェブサイトを運営しています。
そのウェブサイトはアプリケーションロードバランサー(ALB)の背後にあり、HTTPとHTTPSを個別に処理するように設定されています。
この企業は、すべてのリクエストをHTTPSを使用するようにウェブサイトに転送したいと考えています。
この要件を満たすために、ソリューションアーキテクトは何をすべきでしょうか?
A. ALBのネットワークACLを更新し、HTTPSトラフィックのみを受け入れるようにする。
B. URL内のHTTPをHTTPSに置き換えるルールを作成する。
C. ALB上にリスナールールを作成し、HTTPトラフィックをHTTPSにリダイレクトする。
D. サーバー名表示(SNI)を使用するように設定されたネットワークロードバランサーでALBを置き換える。

61 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

61. A company is developing a two-tier web application on AWS. The company’s developers have deployed the application on an Amazon EC2
instance that connects directly to a backend Amazon RDS database. The company must not hardcode database credentials in the application.
The company must also implement a solution to automatically rotate the database credentials on a regular basis.
Which solution will meet these requirements with the LEAST operational overhead?
A. Store the database credentials in the instance metadata. Use Amazon EventBridge (Amazon CloudWatch Events) rules to run a
scheduled AWS Lambda function that updates the RDS credentials and instance metadata at the same time.
B. Store the database credentials in a configuration file in an encrypted Amazon S3 bucket. Use Amazon EventBridge (Amazon
CloudWatch Events) rules to run a scheduled AWS Lambda function that updates the RDS credentials and the credentials in the
configuration file at the same time. Use S3 Versioning to ensure the ability to fall back to previous values.
C. Store the database credentials as a secret in AWS Secrets Manager. Turn on automatic rotation for the secret. Attach the required
permission to the EC2 role to grant access to the secret.
D. Store the database credentials as encrypted parameters in AWS Systems Manager Parameter Store. Turn on automatic rotation for the
encrypted parameters. Attach the required permission to the EC2 role to grant access to the encrypted parameters.

ある企業がAWS上で2層のウェブアプリケーションを開発しています。同社の開発者は、バックエンドのAmazon RDSデータベースに直接接続するAmazon EC2インスタンスにアプリケーションをデプロイしました。同社は、アプリケーション内でデータベースの認証情報をハードコードしてはいけません。
また、定期的にデータベースの認証情報を自動的にローテーションするソリューションを実装する必要があります。
これらの要件を最も少ない運用負荷で満たすソリューションはどれですか?
A. データベースの認証情報をインスタンスメタデータに保存する。Amazon EventBridge(Amazon CloudWatch Events)ルールを使用して、RDSの認証情報とインスタンスメタデータを同時に更新するスケジュールされたAWS Lambda関数を実行する。
B. 暗号化されたAmazon S3バケット内の設定ファイルにデータベースの認証情報を保存する。Amazon EventBridge(Amazon CloudWatch Events)ルールを使用して、RDSの認証情報と設定ファイル内の認証情報を同時に更新するスケジュールされたAWS Lambda関数を実行する。以前の値に戻せるようにするためにS3バージョニングを使用する。
C. データベースの認証情報をAWS Secrets Managerのシークレットとして保存する。シークレットの自動ローテーションを有効にする。シークレットへのアクセス権を付与するために必要な権限をEC2ロールにアタッチする。
D. データベースの認証情報をAWS Systems Manager Parameter Storeの暗号化されたパラメータとして保存する。暗号化されたパラメータの自動ローテーションを有効にする。暗号化されたパラメータへのアクセス権を付与するために必要な権限をEC2ロールにアタッチする。

62 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

62. A company is deploying a new public web application to AWS. The application will run behind an Application Load Balancer (ALB). The
application needs to be encrypted at the edge with an SSL/TLS certificate that is issued by an external certificate authority (CA). The
certificate must be rotated each year before the certificate expires.
What should a solutions architect do to meet these requirements?
A. Use AWS Certificate Manager (ACM) to issue an SSL/TLS certificate. Apply the certificate to the ALB. Use the managed renewal feature
to automatically rotate the certificate.
B. Use AWS Certificate Manager (ACM) to issue an SSL/TLS certificate. Import the key material from the certificate. Apply the certificate to
the ALUse the managed renewal feature to automatically rotate the certificate.
C. Use AWS Certificate Manager (ACM) Private Certificate Authority to issue an SSL/TLS certificate from the root CA. Apply the certificate
to the ALB. Use the managed renewal feature to automatically rotate the certificate.
D. Use AWS Certificate Manager (ACM) to import an SSL/TLS certificate. Apply the certificate to the ALB. Use Amazon EventBridge
(Amazon CloudWatch Events) to send a notification when the certificate is nearing expiration. Rotate the certificate manually.

ある会社がAWSに新しいパブリックウェブアプリケーションをデプロイしようとしています。このアプリケーションはApplication Load Balancer(ALB)の背後で実行されます。
このアプリケーションは、外部の認証局(CA)によって発行されたSSL/TLS証明書を使用してエッジで暗号化される必要があります。
証明書は有効期限が切れる前に毎年ローテーションしなければなりません。
ソリューションアーキテクトはこれらの要件を満たすために何をすべきでしょうか?

A. AWS Certificate Manager(ACM)を使用してSSL/TLS証明書を発行します。証明書をALBに適用します。管理対象の更新機能を使用して証明書を自動的にローテーションします。

B. AWS Certificate Manager(ACM)を使用してSSL/TLS証明書を発行します。証明書からキー素材をインポートします。証明書をALBに適用します。管理対象の更新機能を使用して証明書を自動的にローテーションします。

C. AWS Certificate Manager(ACM)Private Certificate Authorityを使用して、ルートCAからSSL/TLS証明書を発行します。証明書をALBに適用します。管理対象の更新機能を使用して証明書を自動的にローテーションします。

D. AWS Certificate Manager(ACM)を使用してSSL/TLS証明書をインポートします。証明書をALBに適用します。Amazon EventBridge(Amazon CloudWatch Events)を使用して、証明書の有効期限が近づいたときに通知を送信します。証明書を手動でローテーションします。

63 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

63. A company runs its infrastructure on AWS and has a registered base of 700,000 users for its document management application. The company
intends to create a product that converts large .pdf files to .jpg imagefiles. The .pdf files average 5 MB in size. The company needs to store
the original files and the convertedfiles. A solutions architect must design a scalable solution to accommodate demand that will grow rapidly
over time.
Which solution meets these requirements MOST cost-effectively?
A. Save the .pdf files to Amazon S3. Configure an S3 PUT event to invoke an AWS Lambda function to convert the files to .jpg format and
store them back in Amazon S3.
B. Save the .pdf files to Amazon DynamoDUse the DynamoDB Streams feature to invoke an AWS Lambda function to convert the files to
.jpg format and store them back in DynamoDB.
C. Upload the .pdf files to an AWS Elastic Beanstalk application that includes Amazon EC2 instances, Amazon Elastic Block Store (Amazon
EBS) storage, and an Auto Scaling group. Use a program in the EC2 instances to convert the files to .jpg format. Save the .pdf files and the
.jpg files in the EBS store.
D. Upload the .pdf files to an AWS Elastic Beanstalk application that includes Amazon EC2 instances, Amazon Elastic File System (Amazon
EFS) storage, and an Auto Scaling group. Use a program in the EC2 instances to convert the file to .jpg format. Save the .pdf files and the
.jpg files in the EBS store.

ある会社はAWS上でインフラを運用しており、文書管理アプリケーションの登録ユーザー数は70万人にのぼります。同社は、大型の.pdfファイルを.jpg画像ファイルに変換する製品を開発する予定です。.pdfファイルの平均サイズは5MBです。同社は元ファイルと変換後のファイルを保存する必要があります。ソリューションアーキテクトは、時間の経過とともに急速に需要が増加する状況に対応できる、拡張可能なソリューションを設計しなければなりません。

これらの要件を最も費用対効果の高い方法で満たすソリューションはどれでしょうか?

A. .pdfファイルをAmazon S3に保存します。S3 PUTイベントを設定し、AWS Lambda関数を呼び出してファイルを.jpg形式に変換し、変換したファイルをAmazon S3に保存します。

B. .pdfファイルをAmazon DynamoDBに保存します。DynamoDB Streams機能を使用してAWS Lambda関数を呼び出し、ファイルを.jpg形式に変換してDynamoDBに保存します。

C. .pdfファイルをAWS Elastic Beanstalkアプリケーションにアップロードします。このアプリケーションにはAmazon EC2インスタンス、Amazon Elastic Block Store(Amazon EBS)ストレージ、Auto Scalingグループが含まれます。EC2インスタンス内のプログラムを使用してファイルを.jpg形式に変換します。.pdfファイルと.jpgファイルをEBSストアに保存します。

D. .pdfファイルをAWS Elastic Beanstalkアプリケーションにアップロードします。このアプリケーションにはAmazon EC2インスタンス、Amazon Elastic File System(Amazon EFS)ストレージ、Auto Scalingグループが含まれます。EC2インスタンス内のプログラムを使用してファイルを.jpg形式に変換します。.pdfファイルと.jpgファイルをEBSストアに保存します。

64 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

64. A company has more than 5 TB of file data on Windows file servers that run on premises. Users and applications interact with the data each
day.
The company is moving its Windows workloads to AWS. As the company continues this process, the company requires access to AWS and on
premises file storage with minimum latency. The company needs a solution that minimizes operational overhead and requires no signi cant
changes to the existing file access patterns. The company uses an AWS Site-to-Site VPN connection for connectivity to AWS.
What should a solutions architect do to meet these requirements?
A. Deploy and Configure Amazon FSx for Windows File Server on AWS. Move the on-premises file data to FSx for Windows File Server.
ReConfigure the workloads to use FSx for Windows File Server on AWS.
B. Deploy and Configure an Amazon S3 File Gateway on premises. Move the on-premises file data to the S3 File Gateway. ReConfigure the
on-premises workloads and the cloud workloads to use the S3 File Gateway.
C. Deploy and Configure an Amazon S3 File Gateway on premises. Move the on-premises file data to Amazon S3. ReConfigure the
workloads to use either Amazon S3 directly or the S3 File Gateway. depending on each workload’s location.
D. Deploy and Configure Amazon FSx for Windows File Server on AWS. Deploy and Configure an Amazon FSx File Gateway on premises.
Move the on-premises file data to the FSx File Gateway. Configure the cloud workloads to use FSx for Windows File Server on AWS.
Configure the on-premises workloads to use the FSx File Gateway.

ある企業は、オンプレミスで稼働するWindowsファイルサーバー上に5TB以上のファイルデータを保有しています。ユーザーとアプリケーションは毎日このデータにアクセスしています。

同社は現在、WindowsワークロードをAWSに移行中です。この移行プロセスを継続する中で、同社はAWSとオンプレミスのファイルストレージに最小限のレイテンシーでアクセスできることを求めています。また、運用負荷を最小限に抑え、既存のファイルアクセスパターンに大きな変更を加える必要のないソリューションが必要です。同社はAWSとの接続にAWSサイト間VPN接続を利用しています。

ソリューションアーキテクトはこれらの要件を満たすために何をすべきでしょうか?

A. AWS上でAmazon FSx for Windows File Serverを展開・設定し、オンプレミスのファイルデータをFSx for Windows File Serverに移行します。AWS上のFSx for Windows File Serverを使用するようにワークロードを再設定します。

B. オンプレミスにAmazon S3 File Gatewayを展開・設定し、オンプレミスのファイルデータをS3 File Gatewayに移行します。オンプレミスのワークロードとクラウドワークロードがS3 File Gatewayを使用するように再設定します。

C. オンプレミスにAmazon S3 File Gatewayを展開・設定し、オンプレミスのファイルデータをAmazon S3に移行します。各ワークロードの場所に応じて、Amazon S3を直接使用するか、S3 File Gatewayを使用するようにワークロードを再設定します。

D. AWS上でAmazon FSx for Windows File Serverを展開・設定し、オンプレミスにAmazon FSx File Gatewayを展開・設定します。オンプレミスのファイルデータをFSx File Gatewayに移行します。クラウドワークロードはAWS上のFSx for Windows File Serverを使用するように設定し、オンプレミスワークロードはFSx File Gatewayを使用するように設定します。

65 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

65. A hospital recently deployed a RESTful API with Amazon API Gateway and AWS Lambda. The hospital uses API Gateway and Lambda to upload
reports that are in PDF format and JPEG format. The hospital needs to modify the Lambda code to identify protected health information (PHI)
in the reports.
Which solution will meet these requirements with the LEAST operational overhead?
A. Use existing Python libraries to extract the text from the reports and to identify the PHI from the extracted text.
B. Use Amazon Textract to extract the text from the reports. Use Amazon SageMaker to identify the PHI from the extracted text.
C. Use Amazon Textract to extract the text from the reports. Use Amazon Comprehend Medical to identify the PHI from the extracted text.
D. Use Amazon Rekognition to extract the text from the reports. Use Amazon Comprehend Medical to identify the PHI from the extracted
text.

ある病院が最近、Amazon API GatewayとAWS Lambdaを使用してRESTful APIを導入しました。
病院はAPI GatewayとLambdaを使用してPDF形式とJPEG形式のレポートをアップロードしています。
病院はレポート内の保護された健康情報(PHI)を識別するため、Lambdaコードを変更する必要があります。
これらの要件を満たすのに、運用上の負担が最も少ない解決策はどれですか?

A. 既存のPythonライブラリを使用してレポートからテキストを抽出し、抽出されたテキストからPHIを識別します。
B. Amazon Textractを使用してレポートからテキストを抽出します。抽出されたテキストからPHIを識別するためにAmazon SageMakerを使用します。
C. Amazon Textractを使用してレポートからテキストを抽出します。抽出されたテキストからPHIを識別するためにAmazon Comprehend Medicalを使用します。
D. Amazon Rekognitionを使用してレポートからテキストを抽出します。抽出されたテキストからPHIを識別するためにAmazon Comprehend Medicalを使用します。

66 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

66. A company has an application that generates a large number of les, each approximately 5 MB in size. The files are stored in Amazon S3.
Company policy requires the files to be stored for 4 years before they can be deleted. Immediate accessibility is always required as the les
contain critical business data that is not easy to reproduce. The files are frequently accessed in the first 30 days of the object creation but are
rarely accessed after the first 30 days.
Which storage solution is MOST cost-effective?
A. Create an S3 bucket lifecycle policy to move files from S3 Standard to S3 Glacier 30 days from object creation. Delete the files 4 years
after object creation.
B. Create an S3 bucket lifecycle policy to move files from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) 30 days from
object creation. Delete the files 4 years after object creation.
C. Create an S3 bucket lifecycle policy to move files from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-IA) 30 days from
object creation. Delete the files 4 years after object creation.
D. Create an S3 bucket lifecycle policy to move files from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-IA) 30 days from
object creation. Move the files to S3 Glacier 4 years after object creation.

ある企業には、多数のファイル(各ファイルのサイズは約5MB)を生成するアプリケーションがあります。ファイルはAmazon S3に保存されます。
会社のポリシーでは、ファイルを削除する前に4年間保存する必要があります。ファイルには再現が困難な重要なビジネスデータが含まれているため、常に即座にアクセスできる必要があります。ファイルは、オブジェクト作成後30日以内には頻繁にアクセスされますが、30日を過ぎるとアクセス頻度が大幅に減少します。
最もコスト効率の良いストレージソリューションはどれですか?

A. S3バケットのライフサイクルポリシーを作成し、オブジェクト作成から30日後にファイルをS3 StandardからS3 Glacierに移動します。オブジェクト作成から4年後にファイルを削除します。
B. S3バケットのライフサイクルポリシーを作成し、オブジェクト作成から30日後にファイルをS3 StandardからS3 One Zone-Infrequent Access(S3 One Zone-IA)に移動します。オブジェクト作成から4年後にファイルを削除します。
C. S3バケットのライフサイクルポリシーを作成し、オブジェクト作成から30日後にファイルをS3 StandardからS3 Standard-Infrequent Access(S3 Standard-IA)に移動します。オブジェクト作成から4年後にファイルを削除します。
D. S3バケットのライフサイクルポリシーを作成し、オブジェクト作成から30日後にファイルをS3 StandardからS3 Standard-Infrequent Access(S3 Standard-IA)に移動します。オブジェクト作成から4年後にファイルをS3 Glacierに移動します。

67 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

67. A company hosts an application on multiple Amazon EC2 instances. The application processes messages from an Amazon SQS queue, writes
to an Amazon RDS table, and deletes the message from the queue. Occasional duplicate records are found in the RDS table. The SQS queue
does not contain any duplicate messages.
What should a solutions architect do to ensure messages are being processed once only?
A. Use the CreateQueue API call to create a new queue.
B. Use the AddPermission API call to add appropriate permissions.
C. Use the ReceiveMessage API call to set an appropriate wait time.
D. Use the ChangeMessageVisibility API call to increase the visibility timeout.

ある会社では、複数のAmazon EC2インスタンス上でアプリケーションをホストしています。このアプリケーションはAmazon SQSキューからのメッセージを処理し、Amazon RDSテーブルに書き込み、キューからメッセージを削除します。時折、RDSテーブルに重複したレコードが見つかります。ただし、SQSキューには重複メッセージは含まれていません。

重複を防ぎ、メッセージが一度だけ処理されるようにするためには、ソリューションアーキテクトはどのような対策を取るべきでしょうか?

A. CreateQueue APIコールを使用して新しいキューを作成する。
B. AddPermission APIコールを使用して適切なパーミッションを追加する。
C. ReceiveMessage APIコールを使用して適切な待機時間を設定する。
D. ChangeMessageVisibility APIコールを使用して可視性タイムアウトを延長する。

68 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

68. A solutions architect is designing a new hybrid architecture to extend a company’s on-premises infrastructure to AWS. The company requires a
highly available connection with consistent low latency to an AWS Region. The company needs to minimize costs and is willing to accept
slower traffic if the primary connection fails.
What should the solutions architect do to meet these requirements?
A. Provision an AWS Direct Connect connection to a Region. Provision a VPN connection as a backup if the primary Direct Connect
connection fails.
B. Provision a VPN tunnel connection to a Region for private connectivity. Provision a second VPN tunnel for private connectivity and as a
backup if the primary VPN connection fails.
C. Provision an AWS Direct Connect connection to a Region. Provision a second Direct Connect connection to the same Region as a backup
if the primary Direct Connect connection fails.
D. Provision an AWS Direct Connect connection to a Region. Use the Direct Connect failover attribute from the AWS CLI to automatically
create a backup connection if the primary Direct Connect connection fails.

ソリューションアーキテクトは、企業のオンプレミスインフラストラクチャをAWSに拡張するための新しいハイブリッドアーキテクチャを設計しています。企業は、AWSリージョンとの間で一貫した低遅延を保ちながら高可用性の接続を必要としています。企業はコストを最小限に抑える必要があり、プライマリ接続が失敗した場合にはトラフィックが遅くなることは許容する意向です。

これらの要件を満たすために、ソリューションアーキテクトは何を行うべきですか?

A. AWS Direct Connect接続をリージョンにプロビジョニングする。プライマリDirect Connect接続が失敗した場合のバックアップとしてVPN接続をプロビジョニングする。

B. プライベート接続のためのVPNトンネル接続をリージョンにプロビジョニングする。プライマリVPN接続が失敗した場合のバックアップとして、2つ目のVPNトンネルをプライベート接続用にプロビジョニングする。

C. AWS Direct Connect接続をリージョンにプロビジョニングする。プライマリDirect Connect接続が失敗した場合のバックアップとして、同じリージョンに2つ目のDirect Connect接続をプロビジョニングする。

D. AWS Direct Connect接続をリージョンにプロビジョニングする。プライマリDirect Connect接続が失敗した場合に自動的にバックアップ接続を作成するために、AWS CLIからDirect Connectフェイルオーバー属性を使用する。

69 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

69. A company is running a business-critical web application on Amazon EC2 instances behind an Application Load Balancer. The EC2 instances
are in an Auto Scaling group. The application uses an Amazon Aurora PostgreSQL database that is deployed in a single Availability Zone. The
company wants the application to be highly available with minimum downtime and minimum loss of data.
Which solution will meet these requirements with the LEAST operational effort?
A. Place the EC2 instances in different AWS Regions. Use Amazon Route 53 health checks to redirect traffic. Use Aurora PostgreSQL Cross
Region Replication.
B. Configure the Auto Scaling group to use multiple Availability Zones. Configure the database as Multi-AZ. Configure an Amazon RDS
Proxy instance for the database.
C. Configure the Auto Scaling group to use one Availability Zone. Generate hourly snapshots of the database. Recover the database from
the snapshots in the event of a failure.
D. Configure the Auto Scaling group to use multiple AWS Regions. Write the data from the application to Amazon S3. Use S3 Event
Notifications to launch an AWS Lambda function to write the data to the database.

ある会社は、Application Load Balancerの背後にあるAmazon EC2インスタンス上でビジネスクリティカルなウェブアプリケーションを実行しています。EC2インスタンスはAuto Scalingグループ内にあります。このアプリケーションは、単一のアベイラビリティーゾーンにデプロイされたAmazon Aurora PostgreSQLデータベースを使用しています。
同社は、最小限のダウンタイムと最小限のデータ損失で、アプリケーションを高可用性にしたいと考えています。
これらの要件を最小限の運用努力で満たす解決策はどれですか?
A. EC2インスタンスを異なるAWSリージョンに配置する。Amazon Route 53のヘルスチェックを使用してトラフィックをリダイレクトする。Aurora PostgreSQLのクロスリージョンレプリケーションを使用する。
B. Auto Scalingグループを複数のアベイラビリティーゾーンを使用するように設定する。データベースをマルチAZとして設定する。データベース用のAmazon RDS Proxyインスタンスを設定する。
C. Auto Scalingグループを1つのアベイラビリティーゾーンを使用するように設定する。データベースの毎時のスナップショットを作成する。障害発生時にはスナップショットからデータベースを復元する。
D. Auto Scalingグループを複数のAWSリージョンを使用するように設定する。アプリケーションからのデータをAmazon S3に書き込む。S3イベント通知を使用してAWS Lambda関数を起動し、データをデータベースに書き込む。

70 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

70. A company’s HTTP application is behind a Network Load Balancer (NLB). The NLB’s target group is Configured to use an Amazon EC2 Auto
Scaling group with multiple EC2 instances that run the web service.
The company notices that the NLB is not detecting HTTP errors for the application. These errors require a manual restart of the EC2 instances
that run the web service. The company needs to improve the application’s availability without writing custom scripts or code.
What should a solutions architect do to meet these requirements?
A. Enable HTTP health checks on the NLB, supplying the URL of the company’s application.
B. Add a cron job to the EC2 instances to check the local application’s logs once each minute. If HTTP errors are detected. the application
will restart.
C. Replace the NLB with an Application Load Balancer. Enable HTTP health checks by supplying the URL of the company’s application.
Configure an Auto Scaling action to replace unhealthy instances.
D. Create an Amazon Cloud Watch alarm that monitors the UnhealthyHostCount metric for the NLB. Configure an Auto Scaling action to
replace unhealthy instances when the alarm is in the ALARM state.

ある企業のHTTPアプリケーションがNetwork Load Balancer(NLB)の背後にあります。NLBのターゲットグループは、ウェブサービスを実行する複数のEC2インスタンスで構成されたAmazon EC2 Auto Scalingグループを使用するように設定されています。

企業は、NLBがアプリケーションのHTTPエラーを検出していないことに気づきました。これらのエラーは、ウェブサービスを実行しているEC2インスタンスを手動で再起動する必要があります。企業は、カスタムスクリプトやコードを書かずにアプリケーションの可用性を向上させる必要があります。

これらの要件を満たすためにソリューションアーキテクトは何をすべきですか?

A. NLBでHTTPヘルスチェックを有効にし、企業のアプリケーションのURLを提供します。

B. EC2インスタンスにcronジョブを追加し、1分ごとにローカルアプリケーションのログをチェックします。HTTPエラーが検出された場合、アプリケーションは再起動します。

C. NLBをApplication Load Balancerに置き換えます。企業のアプリケーションのURLを提供してHTTPヘルスチェックを有効にします。 unhealthyなインスタンスを置き換えるためにAuto Scalingアクションを設定します。

D. NLBのUnhealthyHostCountメトリックを監視するAmazon CloudWatchアラームを作成します。アラームがALARM状態のときにunhealthyなインスタンスを置き換えるようAuto Scalingアクションを設定します。

71 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

71. A company runs a shopping application that uses Amazon DynamoDB to store customer information. In case of data corruption, a solutions
architect needs to design a solution that meets a recovery point objective (RPO) of 15 minutes and a recovery time objective (RTO) of 1 hour.
What should the solutions architect recommend to meet these requirements?
A. Configure DynamoDB global tables. For RPO recovery, point the application to a different AWS Region.
B. Configure DynamoDB point-in-time recovery. For RPO recovery, restore to the desired point in time.
C. Export the DynamoDB data to Amazon S3 Glacier on a daily basis. For RPO recovery, import the data from S3 Glacier to DynamoDB.
D. Schedule Amazon Elastic Block Store (Amazon EBS) snapshots for the DynamoDB table every 15 minutes. For RPO recovery, restore the
DynamoDB table by using the EBS snapshot.

ある会社は、顧客情報を保存するためにAmazon DynamoDBを使用するショッピングアプリケーションを運用しています。データ破損の際に、ソリューションアーキテクトは、15分の回復ポイント目標(RPO)と1時間の復旧時間目標(RTO)を満たすソリューションを設計する必要があります。
これらの要件を満たすためには、ソリューションアーキテクトはどのような推奨を行うべきですか?
A. DynamoDBグローバルテーブルを設定します。RPO復旧のために、アプリケーションを別のAWSリージョンに向けます。
B. DynamoDBポイントインタイムリカバリを設定します。RPO復旧のために、希望する時点にリストアします。
C. DynamoDBデータを毎日Amazon S3 Glacierにエクスポートします。RPO復旧のために、S3 GlacierからDynamoDBにデータをインポートします。
D. DynamoDBテーブルのAmazon Elastic Block Store(Amazon EBS)スナップショットを15分ごとにスケジュールします。RPO復旧のために、EBSスナップショットを使用してDynamoDBテーブルを復元します。

72 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

72. A company runs a photo processing application that needs to frequently upload and download pictures from Amazon S3 buckets that are
located in the same AWS Region. A solutions architect has noticed an increased cost in data transfer fees and needs to implement a solution
to reduce these costs.
How can the solutions architect meet this requirement?
A. Deploy Amazon API Gateway into a public subnet and adjust the route table to route S3 calls through it.
B. Deploy a NAT gateway into a public subnet and attach an endpoint policy that allows access to the S3 buckets.
C. Deploy the application into a public subnet and allow it to route through an internet gateway to access the S3 buckets.
D. Deploy an S3 VPC gateway endpoint into the VPC and attach an endpoint policy that allows access to the S3 buckets.

ある会社が、同じAWSリージョン内にあるAmazon S3バケットから頻繁に画像をアップロードおよびダウンロードする必要のある写真処理アプリケーションを運用しています。
ソリューションアーキテクトは、データ転送料金の増加に気づき、これらのコストを削減するためのソリューションを実装する必要があります。
ソリューションアーキテクトは、この要件を満たすためにどのように対応できますか?

A. Amazon API Gatewayをパブリックサブネットにデプロイし、S3呼び出しをそれ経由でルーティングするようにルートテーブルを調整します。
B. NATゲートウェイをパブリックサブネットにデプロイし、S3バケットへのアクセスを許可するエンドポイントポリシーを添付します。
C. アプリケーションをパブリックサブネットにデプロイし、S3バケットにアクセスするためにインターネットゲートウェイ経由でルーティングできるようにします。
D. S3 VPCゲートウェイエンドポイントをVPCにデプロイし、S3バケットへのアクセスを許可するエンドポイントポリシーを添付します。

73 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

73. A company recently launched Linux-based application instances on Amazon EC2 in a private subnet and launched a Linux-based bastion host
on an Amazon EC2 instance in a public subnet of a VPC. A solutions architect needs to connect from the on-premises network, through the
company’s internet connection, to the bastion host, and to the application servers. The solutions architect must make sure that the security
groups of all the EC2 instances will allow that access.
Which combination of steps should the solutions architect take to meet these requirements? (Choose two.)
A. Replace the current security group of the bastion host with one that only allows inbound access from the application instances.
B. Replace the current security group of the bastion host with one that only allows inbound access from the internal IP range for the
company.
C. Replace the current security group of the bastion host with one that only allows inbound access from the external IP range for the
company.
D. Replace the current security group of the application instances with one that allows inbound SSH access from only the private IP
address of the bastion host.
E. Replace the current security group of the application instances with one that allows inbound SSH access from only the public IP address
of the bastion host.

ある企業が最近、プライベートサブネット内のAmazon EC2上でLinuxベースのアプリケーションインスタンスを立ち上げ、
パブリックサブネット内のAmazon EC2インスタンス上でLinuxベースの踏み台ホストをVPC内に立ち上げました。
ソリューションアーキテクトは、オンプレミスネットワークから会社のインターネット接続を経由し、
踏み台ホストを介してアプリケーションサーバーに接続する必要があります。
ソリューションアーキテクトは、全てのEC2インスタンスのセキュリティグループがそのアクセスを許可することを確認しなければなりません。
これらの要件を満たすには、ソリューションアーキテクトはどの組み合わせの手順を取るべきですか?(2つ選択してください)

A. 踏み台ホストの現在のセキュリティグループを、アプリケーションインスタンスからのインバウンドアクセスのみを許可するものに置き換える。

B. 踏み台ホストの現在のセキュリティグループを、会社の内部IP範囲からのインバウンドアクセスのみを許可するものに置き換える。

C. 踏み台ホストの現在のセキュリティグループを、会社の外部IP範囲からのインバウンドアクセスのみを許可するものに置き換える。

D. アプリケーションインスタンスの現在のセキュリティグループを、踏み台ホストのプライベートIPアドレスのみからのSSHインバウンドアクセスを許可するものに置き換える。

E. アプリケーションインスタンスの現在のセキュリティグループを、踏み台ホストのパブリックIPアドレスのみからのSSHインバウンドアクセスを許可するものに置き換える。

74 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

74. A solutions architect is designing a two-tier web application. The application consists of a public-facing web tier hosted on Amazon EC2 in
public subnets. The database tier consists of Microsoft SQL Server running on Amazon EC2 in a private subnet. Security is a high priority for
the company.
How should security groups be Configured in this situation? (Choose two.)
A. Configure the security group for the web tier to allow inbound traffic on port 443 from 0.0.0.0/0.
B. Configure the security group for the web tier to allow outbound traffic on port 443 from 0.0.0.0/0.
C. Configure the security group for the database tier to allow inbound traffic on port 1433 from the security group for the web tier.
D. Configure the security group for the database tier to allow outbound traffic on ports 443 and 1433 to the security group for the web tier.
E. Configure the security group for the database tier to allow inbound traffic on ports 443 and 1433 from the security group for the web
tier.

ソリューションアーキテクトは、2層のWebアプリケーションを設計しています。このアプリケーションは、パブリックサブネット内のAmazon EC2上にホストされた、一般向けのWeb層で構成されています。
データベース層は、プライベートサブネット内のAmazon EC2上で動作するMicrosoft SQL Serverで構成されています。セキュリティはこの会社にとって最優先事項です。
この状況でセキュリティグループはどのように設定すべきでしょうか?(2つ選択してください)
A. Web層のセキュリティグループを設定し、ポート443での0.0.0.0/0からのインバウンドトラフィックを許可する。
B. Web層のセキュリティグループを設定し、ポート443での0.0.0.0/0へのアウトバウンドトラフィックを許可する。
C. データベース層のセキュリティグループを設定し、ポート1433でのWeb層のセキュリティグループからのインバウンドトラフィックを許可する。
D. データベース層のセキュリティグループを設定し、ポート443および1433でのWeb層のセキュリティグループへのアウトバウンドトラフィックを許可する。
E. データベース層のセキュリティグループを設定し、ポート443および1433でのWeb層のセキュリティグループからのインバウンドトラフィックを許可する。

75 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

75. A company wants to move a multi-tiered application from on premises to the AWS Cloud to improve the application’s performance. The
application consists of application tiers that communicate with each other by way of RESTful services. Transactions are dropped when one tier
becomes overloaded. A solutions architect must design a solution that resolves these issues and modernizes the application.
Which solution meets these requirements and is the MOST operationally e cient?
A. Use Amazon API Gateway and direct transactions to the AWS Lambda functions as the application layer. Use Amazon Simple Queue
Service (Amazon SQS) as the communication layer between application services.
B. Use Amazon CloudWatch metrics to analyze the application performance history to determine the servers’ peak utilization during the
performance failures. Increase the size of the application server’s Amazon EC2 instances to meet the peak requirements.
C. Use Amazon Simple Notification Service (Amazon SNS) to handle the messaging between application servers running on Amazon EC2 in
an Auto Scaling group. Use Amazon CloudWatch to monitor the SNS queue length and scale up and down as required.
D. Use Amazon Simple Queue Service (Amazon SQS) to handle the messaging between application servers running on Amazon EC2 in an
Auto Scaling group. Use Amazon CloudWatch to monitor the SQS queue length and scale up when communication failures are detected.

ある企業は、オンプレミス環境からAWSクラウドに多層アプリケーションを移行し、アプリケーションのパフォーマンスを向上させたいと考えています。
このアプリケーションは、RESTfulサービスを介して相互に通信するアプリケーション層で構成されています。
いずれかの層が過負荷になると、トランザクションがドロップされます。
ソリューションアーキテクトは、これらの問題を解決し、アプリケーションを近代化するソリューションを設計する必要があります。
これらの要件を満たし、最も運用効率の高いソリューションはどれでしょうか?
A. Amazon API Gatewayを使用し、トランザクションをアプリケーション層としてAWS Lambda関数に直接送信します。
アプリケーションサービス間の通信層としてAmazon Simple Queue Service(Amazon SQS)を使用します。
B. Amazon CloudWatchメトリクスを使用して、パフォーマンス障害時のサーバーのピーク使用率を分析するために、アプリケーションパフォーマンスの履歴を分析します。
ピーク要件を満たすために、アプリケーションサーバーのAmazon EC2インスタンスのサイズを増やします。
C. Auto Scalingグループ内のAmazon EC2で実行されているアプリケーションサーバー間のメッセージングを処理するために、Amazon Simple Notification Service(Amazon SNS)を使用します。
Amazon CloudWatchを使用してSNSキューの長さを監視し、必要に応じてスケールアップおよびスケールダウンします。
D. Auto Scalingグループ内のAmazon EC2で実行されているアプリケーションサーバー間のメッセージングを処理するために、Amazon Simple Queue Service(Amazon SQS)を使用します。
Amazon CloudWatchを使用してSQSキューの長さを監視し、通信障害が検出された場合にスケールアップします。

76 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

76. A company receives 10 TB of instrumentation data each day from several machines located at a single factory. The data consists of JSON
files stored on a storage area network (SAN) in an on-premises data center located within the factory. The company wants to send this data to
Amazon S3 where it can be accessed by several additional systems that provide critical near-real-time analytics. A secure transfer is
important because the data is considered sensitive.
Which solution offers the MOST reliable data transfer?
A. AWS DataSync over public internet
B. AWS DataSync over AWS Direct Connect
C. AWS Database Migration Service (AWS DMS) over public internet
D. AWS Database Migration Service (AWS DMS) over AWS Direct Connect

とある企業では、1つの工場内にある複数のマシンから毎日10TBの計器データを受信しています。
このデータはJSONファイルで構成され、工場内にあるオンプレミスデータセンターのストレージエリアネットワーク(SAN)に保存されています。
同社はこのデータをAmazon S3に送信したいと考えています。S3に送信することで、重要なニアリアルタイム分析を提供する追加システム群からこのデータにアクセスできるようになります。
データは機密と見なされているため、安全な転送が重要です。
最も信頼性の高いデータ転送を実現するソリューションはどれでしょうか?

A. 公衆インターネット経由のAWS DataSync
B. AWS Direct Connect経由のAWS DataSync
C. 公衆インターネット経由のAWS Database Migration Service(AWS DMS)
D. AWS Direct Connect経由のAWS Database Migration Service(AWS DMS)

77 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

77. A company needs to Configure a real-time data ingestion architecture for its application. The company needs an API, a process that
transforms data as the data is streamed, and a storage solution for the data.
Which solution will meet these requirements with the LEAST operational overhead?
A. Deploy an Amazon EC2 instance to host an API that sends data to an Amazon Kinesis data stream. Create an Amazon Kinesis Data
Firehose delivery stream that uses the Kinesis data stream as a data source. Use AWS Lambda functions to transform the data. Use the
Kinesis Data Firehose delivery stream to send the data to Amazon S3.
B. Deploy an Amazon EC2 instance to host an API that sends data to AWS Glue. Stop source/destination checking on the EC2 instance.
Use AWS Glue to transform the data and to send the data to Amazon S3.
C. Configure an Amazon API Gateway API to send data to an Amazon Kinesis data stream. Create an Amazon Kinesis Data Firehose
delivery stream that uses the Kinesis data stream as a data source. Use AWS Lambda functions to transform the data. Use the Kinesis
Data Firehose delivery stream to send the data to Amazon S3.
D. Configure an Amazon API Gateway API to send data to AWS Glue. Use AWS Lambda functions to transform the data. Use AWS Glue to
send the data to Amazon S3.

ある企業は、自社のアプリケーション向けにリアルタイムデータインジェスションアーキテクチャを設定する必要があります。
同社は、API、データがストリーミングされる際にデータを変換するプロセス、およびデータのストレージソリューションを必要としています。
これらの要件を最も少ない運用オーバーヘッドで満たすソリューションはどれですか?

A. APIをホストするためにAmazon EC2インスタンスをデプロイし、データをAmazon Kinesisデータストリームに送信します。
Kinesisデータストリームをデータソースとして使用するAmazon Kinesis Data Firehoseデリバリーストリームを作成します。
AWS Lambda関数を使用してデータを変換します。
Kinesis Data Firehoseデリバリーストリームを使用して、データをAmazon S3に送信します。

B. APIをホストするためにAmazon EC2インスタンスをデプロイし、データをAWS Glueに送信します。
EC2インスタンスで送信元/送信先チェックを停止します。
AWS Glueを使用してデータを変換し、データをAmazon S3に送信します。

C. Amazon API Gateway APIを設定して、データをAmazon Kinesisデータストリームに送信します。
Kinesisデータストリームをデータソースとして使用するAmazon Kinesis Data Firehoseデリバリーストリームを作成します。
AWS Lambda関数を使用してデータを変換します。
Kinesis Data Firehoseデリバリーストリームを使用して、データをAmazon S3に送信します。

D. Amazon API Gateway APIを設定して、データをAWS Glueに送信します。
AWS Lambda関数を使用してデータを変換します。
AWS Glueを使用して、データをAmazon S3に送信します。

78 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

78. A company needs to keep user transaction data in an Amazon DynamoDB table. The company must retain the data for 7 years.
What is the MOST operationally e cient solution that meets these requirements?
A. Use DynamoDB point-in-time recovery to back up the table continuously.
B. Use AWS Backup to create backup schedules and retention policies for the table.
C. Create an on-demand backup of the table by using the DynamoDB console. Store the backup in an Amazon S3 bucket. Set an S3
Lifecycle configuration for the S3 bucket.
D. Create an Amazon EventBridge (Amazon CloudWatch Events) rule to invoke an AWS Lambda function. Configure the Lambda function to
back up the table and to store the backup in an Amazon S3 bucket. Set an S3 Lifecycle configuration for the S3 bucket.

ある会社は、ユーザーの取引データをAmazon DynamoDBテーブルに保持する必要があります。その会社は、データを7年間保持しなければなりません。
これらの要件を満たす、最も運用効率の高いソリューションはどれですか?
A. DynamoDBのポイントインタイムリカバリを使用して、テーブルを継続的にバックアップする。
B. AWS Backupを使用して、テーブルのバックアップスケジュールと保持ポリシーを作成する。
C. DynamoDBコンソールを使用して、テーブルのオンデマンドバックアップを作成する。バックアップをAmazon S3バケットに保存する。S3バケットに対してS3ライフサイクル構成を設定する。
D. Amazon EventBridge(Amazon CloudWatch Events)ルールを作成して、AWS Lambda関数を呼び出す。Lambda関数を構成して、テーブルをバックアップし、バックアップをAmazon S3バケットに保存する。S3バケットに対してS3ライフサイクル構成を設定する。

79 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

79. A company is planning to use an Amazon DynamoDB table for data storage. The company is concerned about cost optimization. The table will
not be used on most mornings. In the evenings, the read and write traffic will often be unpredictable. When traffic spikes occur, they will
happen very quickly.
What should a solutions architect recommend?
A. Create a DynamoDB table in on-demand capacity mode.
B. Create a DynamoDB table with a global secondary index.
C. Create a DynamoDB table with provisioned capacity and auto scaling.
D. Create a DynamoDB table in provisioned capacity mode, and Configure it as a global table.

ある企業がデータストレージにAmazon DynamoDBテーブルの使用を計画しています。同社はコスト最適化について懸念しています。このテーブルはほとんどの朝には使用されません。夕方になると、読み取りと書き込みのトラフィックは予測不可能な場合が多くなります。トラフィックスパイクが発生すると、その増加は非常に急速に起こります。
ソリューションアーキテクトは何を推奨すべきですか?
A. オンデマンド容量モードでDynamoDBテーブルを作成する。
B. グローバルセカンダリインデックス付きのDynamoDBテーブルを作成する。
C. プロビジョンド容量とオートスケーリングを備えたDynamoDBテーブルを作成する。
D. プロビジョンド容量モードでDynamoDBテーブルを作成し、グローバルテーブルとして設定する。

80 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

80. A company recently signed a contract with an AWS Managed Service Provider (MSP) Partner for help with an application migration initiative. A
solutions architect needs ta share an Amazon Machine Image (AMI) from an existing AWS account with the MSP Partner’s AWS account. The
AMI is backed by Amazon Elastic Block Store (Amazon EBS) and uses an AWS Key Management Service (AWS KMS) customer managed key to
encrypt EBS volume snapshots.
What is the MOST secure way for the solutions architect to share the AMI with the MSP Partner’s AWS account?
A. Make the encrypted AMI and snapshots publicly available. Modify the key policy to allow the MSP Partner’s AWS account to use the key.
B. Modify the launchPermission property of the AMI. Share the AMI with the MSP Partner’s AWS account only. Modify the key policy to
allow the MSP Partner’s AWS account to use the key.
C. Modify the launchPermission property of the AMI. Share the AMI with the MSP Partner’s AWS account only. Modify the key policy to
trust a new KMS key that is owned by the MSP Partner for encryption.
D. Export the AMI from the source account to an Amazon S3 bucket in the MSP Partner’s AWS account, Encrypt the S3 bucket with a new
KMS key that is owned by the MSP Partner. Copy and launch the AMI in the MSP Partner’s AWS account.

ある会社が最近、アプリケーション移行イニシアチブの支援のためにAWSマネージドサービスプロバイダー(MSP)パートナーと契約を締結しました。
ソリューションアーキテクトは、既存のAWSアカウントからMSPパートナーのAWSアカウントにAmazonマシンイメージ(AMI)を共有する必要があります。
このAMIはAmazon Elastic Block Store(Amazon EBS)によってバックアップされており、AWS Key Management Service(AWS KMS)のカスタマー管理キーを使用してEBSボリュームスナップショットを暗号化しています。

ソリューションアーキテクトがMSPパートナーのAWSアカウントとAMIを共有する最も安全な方法はどれですか?

A. 暗号化されたAMIとスナップショットを公開可能に設定します。キーポリシーを変更して、MSPパートナーのAWSアカウントがキーを使用できるようにします。
B. AMIのlaunchPermissionプロパティを変更します。MSPパートナーのAWSアカウントとのみAMIを共有します。キーポリシーを変更して、MSPパートナーのAWSアカウントがキーを使用できるようにします。
C. AMIのlaunchPermissionプロパティを変更します。MSPパートナーのAWSアカウントとのみAMIを共有します。キーポリシーを変更して、MSPパートナーが所有する新しいKMSキーを暗号化用に信頼します。
D. ソースアカウントからAMIをエクスポートし、MSPパートナーのAWSアカウント内のAmazon S3バケットに保存します。S3バケットをMSPパートナーが所有する新しいKMSキーで暗号化します。MSPパートナーのAWSアカウント内でAMIをコピーして起動します。

81 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

81. A solutions architect is designing the cloud architecture for a new application being deployed on AWS. The process should run in parallel
while adding and removing application nodes as needed based on the number of jobs to be processed. The processor application is stateless.
The solutions architect must ensure that the application is loosely coupled and the job items are durably stored.
Which design should the solutions architect use?
A. Create an Amazon SNS topic to send the jobs that need to be processed. Create an Amazon Machine Image (AMI) that consists of the
processor application. Create a launch configuration that uses the AMI. Create an Auto Scaling group using the launch configuration. Set
the scaling policy for the Auto Scaling group to add and remove nodes based on CPU usage.
B. Create an Amazon SQS queue to hold the jobs that need to be processed. Create an Amazon Machine Image (AMI) that consists of the
processor application. Create a launch configuration that uses the AMI. Create an Auto Scaling group using the launch configuration. Set
the scaling policy for the Auto Scaling group to add and remove nodes based on network usage.
C. Create an Amazon SQS queue to hold the jobs that need to be processed. Create an Amazon Machine Image (AMI) that consists of the
processor application. Create a launch template that uses the AMI. Create an Auto Scaling group using the launch template. Set the
scaling policy for the Auto Scaling group to add and remove nodes based on the number of items in the SQS queue.
D. Create an Amazon SNS topic to send the jobs that need to be processed. Create an Amazon Machine Image (AMI) that consists of the
processor application. Create a launch template that uses the AMI. Create an Auto Scaling group using the launch template. Set the
scaling policy for the Auto Scaling group to add and remove nodes based on the number of messages published to the SNS topic.

ソリューションアーキテクトは、AWSにデプロイされる新しいアプリケーションのクラウドアーキテクチャを設計しています。処理すべきジョブの数に基づいて、アプリケーションノードを必要に応じて追加・削除しながら、プロセスを並列で実行する必要があります。プロセッサアプリケーションはステートレスです。
ソリューションアーキテクトは、アプリケーションが疎結合であり、ジョブアイテムが耐久性を持って保存されることを保証しなければなりません。
どの設計を使用すべきでしょうか?

A. 処理が必要なジョブを送信するためにAmazon SNSトピックを作成します。プロセッサアプリケーションを含むAmazon Machine Image(AMI)を作成します。そのAMIを使用する起動設定を作成します。起動設定を使用してAuto Scalingグループを作成します。Auto ScalingグループのスケーリングポリシーをCPU使用率に基づいてノードを追加・削除するように設定します。

B. 処理が必要なジョブを保持するためにAmazon SQSキューを作成します。プロセッサアプリケーションを含むAmazon Machine Image(AMI)を作成します。そのAMIを使用する起動設定を作成します。起動設定を使用してAuto Scalingグループを作成します。Auto Scalingグループのスケーリングポリシーをネットワーク使用率に基づいてノードを追加・削除するように設定します。

C. 処理が必要なジョブを保持するためにAmazon SQSキューを作成します。プロセッサアプリケーションを含むAmazon Machine Image(AMI)を作成します。そのAMIを使用する起動テンプレートを作成します。起動テンプレートを使用してAuto Scalingグループを作成します。Auto ScalingグループのスケーリングポリシーをSQSキューのアイテム数に基づいてノードを追加・削除するように設定します。

D. 処理が必要なジョブを送信するためにAmazon SNSトピックを作成します。プロセッサアプリケーションを含むAmazon Machine Image(AMI)を作成します。そのAMIを使用する起動テンプレートを作成します。起動テンプレートを使用してAuto Scalingグループを作成します。Auto ScalingグループのスケーリングポリシーをSNSトピックに公開されたメッセージ数に基づいてノードを追加・削除するように設定します。

82 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

82. A company hosts its web applications in the AWS Cloud. The company Configures Elastic Load Balancers to use certificates that are imported
into AWS Certificate Manager (ACM). The company’s security team must be noti ed 30 days before the expiration of each certificate.
What should a solutions architect recommend to meet this requirement?
A. Add a rule in ACM to publish a custom message to an Amazon Simple Notification Service (Amazon SNS) topic every day, beginning 30
days before any certificate will expire.
B. Create an AWS Config rule that checks for certificates that will expire within 30 days. Configure Amazon EventBridge (Amazon
CloudWatch Events) to invoke a custom alert by way of Amazon Simple Notification Service (Amazon SNS) when AWS Config reports a
noncompliant resource.
C. Use AWS Trusted Advisor to check for certificates that will expire within 30 days. Create an Amazon CloudWatch alarm that is based on
Trusted Advisor metrics for check status changes. Configure the alarm to send a custom alert by way of Amazon Simple Notification
Service (Amazon SNS).
D. Create an Amazon EventBridge (Amazon CloudWatch Events) rule to detect any certificates that will expire within 30 days. Configure
the rule to invoke an AWS Lambda function. Configure the Lambda function to send a custom alert by way of Amazon Simple Notification
Service (Amazon SNS).

ある企業がAWSクラウドにウェブアプリケーションをホストしています。同社はElastic Load Balancerを設定し、AWS Certificate Manager(ACM)にインポートされた証明書を使用しています。同社のセキュリティチームは、各証明書の有効期限が切れる30日前に通知を受け取る必要があります。
この要件を満たすために、ソリューションアーキテクトはどのような推奨を行うべきですか?
A. ACM内にルールを追加し、証明書の有効期限が切れる30日前から毎日、Amazon Simple Notification Service(Amazon SNS)トピックにカスタムメッセージを公開する。
B. 30日以内に有効期限が切れる証明書をチェックするAWS Configルールを作成する。AWS Configが非準拠リソースを報告したときに、Amazon EventBridge(Amazon CloudWatch Events)を設定して、Amazon Simple Notification Service(Amazon SNS)経由でカスタムアラートを起動する。
C. AWS Trusted Advisorを使用して、30日以内に有効期限が切れる証明書をチェックする。Trusted Advisorのチェックステータス変更に基づいたAmazon CloudWatchアラームを作成する。このアラームを設定して、Amazon Simple Notification Service(Amazon SNS)経由でカスタムアラートを送信する。
D. 30日以内に有効期限が切れる証明書を検出するAmazon EventBridge(Amazon CloudWatch Events)ルールを作成する。このルールを設定して、AWS Lambda関数を起動する。Lambda関数を設定して、Amazon Simple Notification Service(Amazon SNS)経由でカスタムアラートを送信する。

83 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

83. A company’s dynamic website is hosted using on-premises servers in the United States. The company is launching its product in Europe, and it
wants to optimize site loading times for new European users. The site’s backend must remain in the United States. The product is being
launched in a few days, and an immediate solution is needed.
What should the solutions architect recommend?
A. Launch an Amazon EC2 instance in us-east-1 and migrate the site to it.
B. Move the website to Amazon S3. Use Cross-Region Replication between Regions.
C. Use Amazon CloudFront with a custom origin pointing to the on-premises servers.
D. Use an Amazon Route 53 geoproximity routing policy pointing to on-premises servers.

ある企業の動的ウェブサイトは、アメリカにあるオンプレミスサーバーでホストされています。同社はヨーロッパで製品を発売予定で、新しいヨーロッパのユーザー向けにサイトの読み込み時間を最適化したいと考えています。
サイトのバックエンドはアメリカに残さなければなりません。製品は数日以内に発売予定で、即座の解決策が必要です。
ソリューションアーキテクトは何を推奨すべきでしょうか?

A. us-east-1でAmazon EC2インスタンスを起動し、サイトを移行する。
B. ウェブサイトをAmazon S3に移動する。リージョン間でクロスリージョンレプリケーションを使用する。
C. オンプレミスサーバーを指すカスタムオリジンと共にAmazon CloudFrontを使用する。
D. オンプレミスサーバーを指すAmazon Route 53の地理的近接ルーティングポリシーを使用する。

84 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

84. A company wants to reduce the cost of its existing three-tier web architecture. The web, application, and database servers are running on
Amazon EC2 instances for the development, test, and production environments. The EC2 instances average 30% CPU utilization during peak
hours and 10% CPU utilization during non-peak hours.
The production EC2 instances run 24 hours a day. The development and test EC2 instances run for at least 8 hours each day. The company
plans to implement automation to stop the development and test EC2 instances when they are not in use.
Which EC2 instance purchasing solution will meet the company’s requirements MOST cost-effectively?
A. Use Spot Instances for the production EC2 instances. Use Reserved Instances for the development and test EC2 instances.
B. Use Reserved Instances for the production EC2 instances. Use On-Demand Instances for the development and test EC2 instances.
C. Use Spot blocks for the production EC2 instances. Use Reserved Instances for the development and test EC2 instances.
D. Use On-Demand Instances for the production EC2 instances. Use Spot blocks for the development and test EC2 instances.

ある会社が、既存の3層ウェブアーキテクチャのコスト削減を望んでいます。ウェブ、アプリケーション、データベースサーバーは、開発、テスト、および本番環境用にAmazon EC2インスタンスで実行されています。
EC2インスタンスの平均CPU使用率は、ピーク時で30%、非ピーク時で10%です。
本番環境のEC2インスタンスは24時間稼働しています。開発およびテスト用のEC2インスタンスは、毎日少なくとも8時間稼働しています。
会社は、使用されていないときに開発およびテスト用のEC2インスタンスを停止する自動化を導入する予定です。
同社の要件を最も費用対効果よく満たすEC2インスタンスの購入ソリューションはどれでしょうか?
A. 本番EC2インスタンスにはスポットインスタンスを使用します。開発およびテスト用EC2インスタンスにはリザーブドインスタンスを使用します。
B. 本番EC2インスタンスにはリザーブドインスタンスを使用します。開発およびテスト用EC2インスタンスにはオンデマンドインスタンスを使用します。
C. 本番EC2インスタンスにはスポットブロックを使用します。開発およびテスト用EC2インスタンスにはリザーブドインスタンスを使用します。
D. 本番EC2インスタンスにはオンデマンドインスタンスを使用します。開発およびテスト用EC2インスタンスにはスポットブロックを使用します。

85 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

85. A company has a production web application in which users upload documents through a web interface or a mobile app. According to a new
regulatory requirement. new documents cannot be modi ed or deleted after they are stored.
What should a solutions architect do to meet this requirement?
A. Store the uploaded documents in an Amazon S3 bucket with S3 Versioning and S3 Object Lock enabled.
B. Store the uploaded documents in an Amazon S3 bucket. Configure an S3 Lifecycle policy to archive the documents periodically.
C. Store the uploaded documents in an Amazon S3 bucket with S3 Versioning enabled. Configure an ACL to restrict all access to read-only.
D. Store the uploaded documents on an Amazon Elastic File System (Amazon EFS) volume. Access the data by mounting the volume in
read-only mode.

ある企業は、ユーザーがWebインターフェースまたはモバイルアプリを通じてドキュメントをアップロードする本番用Webアプリケーションを運用しています。
新しい規制要件によると、保存された新しいドキュメントは変更または削除できません。
ソリューションアーキテクトはこの要件を満たすために何をすべきですか?
A. アップロードされたドキュメントを、S3 VersioningとS3 Object Lockが有効化されたAmazon S3バケットに保存する。
B. アップロードされたドキュメントをAmazon S3バケットに保存し、定期的にドキュメントをアーカイブするようにS3ライフサイクルポリシーを設定する。
C. S3 Versioningが有効化されたAmazon S3バケットにアップロードされたドキュメントを保存し、すべてのアクセスを読み取り専用に制限するようにACLを設定する。
D. アップロードされたドキュメントをAmazon Elastic File System(Amazon EFS)ボリュームに保存し、読み取り専用モードでボリュームをマウントしてデータにアクセスする。

86 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

86. A company has several web servers that need to frequently access a common Amazon RDS MySQL Multi-AZ DB instance. The company wants
a secure method for the web servers to connect to the database while meeting a security requirement to rotate user credentials frequently.
Which solution meets these requirements?
A. Store the database user credentials in AWS Secrets Manager. Grant the necessary IAM permissions to allow the web servers to access
AWS Secrets Manager.
B. Store the database user credentials in AWS Systems Manager OpsCenter. Grant the necessary IAM permissions to allow the web servers
to access OpsCenter.
C. Store the database user credentials in a secure Amazon S3 bucket. Grant the necessary IAM permissions to allow the web servers to
retrieve credentials and access the database.
D. Store the database user credentials in files encrypted with AWS Key Management Service (AWS KMS) on the web server file system. The
web server should be able to decrypt the files and access the database.

ある会社には、共通のAmazon RDS MySQL Multi-AZ DBインスタンスに頻繁にアクセスする必要がある複数のWebサーバーがあります。
この会社は、ユーザー資格情報を頻繁にローテーションするというセキュリティ要件を満たしながら、Webサーバーがデータベースに安全に接続する方法を求めています。
これらの要件を満たすソリューションはどれですか?
A. データベースのユーザー資格情報をAWS Secrets Managerに保存する。WebサーバーがAWS Secrets Managerにアクセスできるように必要なIAM権限を付与する。
B. データベースのユーザー資格情報をAWS Systems Manager OpsCenterに保存する。WebサーバーがOpsCenterにアクセスできるように必要なIAM権限を付与する。
C. データベースのユーザー資格情報を安全なAmazon S3バケットに保存する。Webサーバーが資格情報を取得し、データベースにアクセスできるように必要なIAM権限を付与する。
D. データベースのユーザー資格情報を、Webサーバーのファイルシステム上でAWS Key Management Service(AWS KMS)で暗号化されたファイルに保存する。Webサーバーはファイルを復号化し、データベースにアクセスできる必要があります。

87 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

87. A company hosts an application on AWS Lambda functions that are invoked by an Amazon API Gateway API. The Lambda functions save
customer data to an Amazon Aurora MySQL database. Whenever the company upgrades the database, the Lambda functions fail to establish
database connections until the upgrade is complete. The result is that customer data is not recorded for some of the event.
A solutions architect needs to design a solution that stores customer data that is created during database upgrades.
Which solution will meet these requirements?
A. Provision an Amazon RDS proxy to sit between the Lambda functions and the database. Configure the Lambda functions to connect to
the RDS proxy.
B. Increase the run time of the Lambda functions to the maximum. Create a retry mechanism in the code that stores the customer data in
the database.
C. Persist the customer data to Lambda local storage. Configure new Lambda functions to scan the local storage to save the customer
data to the database.
D. Store the customer data in an Amazon Simple Queue Service (Amazon SQS) FIFO queue. Create a new Lambda function that polls the
queue and stores the customer data in the database.

ある会社がAWS Lambda関数上でホストするアプリケーションを運用しており、このLambda関数はAmazon API Gateway APIによって呼び出されます。
Lambda関数は顧客データをAmazon Aurora MySQLデータベースに保存します。
データベースのアップグレードが行われるたびに、アップグレードが完了するまでLambda関数はデータベース接続を確立できなくなります。
この結果、一部のイベントにおいて顧客データが記録されないという事態が生じています。
ソリューションアーキテクトは、データベースのアップグレード期間中に生成される顧客データを保存するソリューションを設計する必要があります。
どのソリューションがこの要件を満たすでしょうか?
A. Lambda関数とデータベースの間にAmazon RDSプロキシを配置する。Lambda関数がRDSプロキシに接続するように設定する。
B. Lambda関数の最大実行時間を延長する。顧客データをデータベースに保存するコード内にリトライメカニズムを作成する。
C. 顧客データをLambdaのローカルストレージに永続化する。新しいLambda関数を設定してローカルストレージをスキャンし、顧客データをデータベースに保存する。
D. 顧客データをAmazon Simple Queue Service(Amazon SQS)FIFOキューに保存する。キューをポーリングして顧客データをデータベースに保存する新しいLambda関数を作成する。

88 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

88. A survey company has gathered data for several years from areas in the United States. The company hosts the data in an Amazon S3 bucket
that is 3 TB in size and growing. The company has started to share the data with a European marketing rm that has S3 buckets. The company
wants to ensure that its data transfer costs remain as low as possible.
Which solution will meet these requirements?
A. Configure the Requester Pays feature on the company’s S3 bucket.
B. Configure S3 Cross-Region Replication from the company’s S3 bucket to one of the marketing rm’s S3 buckets.
C. Configure cross-account access for the marketing rm so that the marketing rm has access to the company’s S3 bucket.
D. Configure the company’s S3 bucket to use S3 Intelligent-Tiering. Sync the S3 bucket to one of the marketing rm’s S3 buckets.

調査会社は、米国の複数の地域から数年間にわたりデータを収集しています。
同社はこのデータを3TBのサイズで、なお増加中のAmazon S3バケットにホストしています。
同社は、S3バケットを所有する欧州のマーケティング企業とこのデータを共有し始めました。
同社はデータ転送コストを可能な限り低く抑えたいと考えています。
これらの要件を満たす解決策はどれですか?
A. 同社のS3バケットに「Requester Pays」機能を設定する。
B. 同社のS3バケットからマーケティング企業のS3バケットの1つへ、S3クロスリージョンレプリケーションを設定する。
C. マーケティング企業にクロスアカウントアクセスを設定し、マーケティング企業が同社のS3バケットにアクセスできるようにする。
D. 同社のS3バケットでS3 Intelligent-Tieringを使用するように設定する。S3バケットをマーケティング企業のS3バケットの1つに同期する。

89 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

89. A company uses Amazon S3 to store its con dential audit documents. The S3 bucket uses bucket policies to restrict access to audit team IAM
user credentials according to the principle of least privilege. Company managers are worried about accidental deletion of documents in the
S3 bucket and want a more secure solution.
What should a solutions architect do to secure the audit documents?
A. Enable the versioning and MFA Delete features on the S3 bucket.
B. Enable multi-factor authentication (MFA) on the IAM user credentials for each audit team IAM user account.
C. Add an S3 Lifecycle policy to the audit team’s IAM user accounts to deny the s3:DeleteObject action during audit dates.
D. Use AWS Key Management Service (AWS KMS) to encrypt the S3 bucket and restrict audit team IAM user accounts from accessing the
KMS key.

ある企業では、機密監査文書を保存するためにAmazon S3を利用しています。S3バケットは、最小権限の原則に従い、監査チームのIAMユーザー資格情報に対してアクセスを制限するバケットポリシーを使用しています。
企業の管理者は、S3バケット内の文書が誤って削除されることを懸念しており、より安全な解決策を求めています。
監査文書を保護するために、ソリューションアーキテクトは何をすべきでしょうか?
A. S3バケットでバージョニングとMFA削除機能を有効にします。
B. 各監査チームIAMユーザーアカウントのIAMユーザー資格情報で多要素認証(MFA)を有効にします。
C. 監査チームのIAMユーザーアカウントにS3ライフサイクルポリシーを追加し、監査期間中にs3:DeleteObjectアクションを拒否します。
D. AWS Key Management Service(AWS KMS)を使用してS3バケットを暗号化し、監査チームのIAMユーザーアカウントがKMSキーにアクセスできないように制限します。

90 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

90. A company is using a SQL database to store movie data that is publicly accessible. The database runs on an Amazon RDS Single-AZ DB
instance. A script runs queries at random intervals each day to record the number of new movies that have been added to the database. The
script must report a nal total during business hours.
The company’s development team notices that the database performance is inadequate for development tasks when the script is running. A
solutions architect must recommend a solution to resolve this issue.
Which solution will meet this requirement with the LEAST operational overhead?
A. Modify the DB instance to be a Multi-AZ deployment.
B. Create a read replica of the database. Configure the script to query only the read replica.
C. Instruct the development team to manually export the entries in the database at the end of each day.
D. Use Amazon ElastiCache to cache the common queries that the script runs against the database.

ある企業は、一般公開されている映画データを保存するためにSQLデータベースを使用しています。このデータベースはAmazon RDS Single-AZ DBインスタンスで実行されています。
毎日ランダムな間隔でクエリを実行するスクリプトがあり、データベースに追加された新しい映画の数を記録します。このスクリプトは営業時間中に最終合計を報告する必要があります。
企業の開発チームは、このスクリプトが実行中にデータベースのパフォーマンスが開発タスクに不十分であることに気づきました。
ソリューションアーキテクトは、この問題を解決するためのソリューションを推奨する必要があります。
どのソリューションが最も運用負荷をかけずにこの要件を満たすでしょうか?

A. DBインスタンスをMulti-AZ展開に変更する。
B. データベースの読み取りレプリカを作成する。スクリプトが読み取りレプリカのみをクエリするように設定する。
C. 開発チームに毎日終了時にデータベースのエントリを手動でエクスポートするよう指示する。
D. Amazon ElastiCacheを使用して、スクリプトがデータベースに対して実行する共通クエリをキャッシュする。

91 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

91. A company has applications that run on Amazon EC2 instances in a VPC. One of the applications needs to call the Amazon S3 API to store
and read objects. According to the company’s security regulations, no traffic from the applications is allowed to travel across the internet.
Which solution will meet these requirements?
A. Configure an S3 gateway endpoint.
B. Create an S3 bucket in a private subnet.
C. Create an S3 bucket in the same AWS Region as the EC2 instances.
D. Configure a NAT gateway in the same subnet as the EC2 instances.

ある企業は、VPC内のAmazon EC2インスタンス上で動作するアプリケーションを持っています。これらのアプリケーションの1つは、Amazon S3 APIを呼び出してオブジェクトを保存および読み込む必要があります。企業のセキュリティ規制によると、アプリケーションからのトラフィックがインターネットを経由することは許可されていません。

これらの要件を満たす解決策はどれですか?
A. S3ゲートウェイエンドポイントを設定する。
B. プライベートサブネットにS3バケットを作成する。
C. EC2インスタンスと同じAWSリージョンにS3バケットを作成する。
D. EC2インスタンスと同じサブネットにNATゲートウェイを設定する。

92 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

92. A company is storing sensitive user information in an Amazon S3 bucket. The company wants to provide secure access to this bucket from the
application tier running on Amazon EC2 instances inside a VPC.
Which combination of steps should a solutions architect take to accomplish this? (Choose two.)
A. Configure a VPC gateway endpoint for Amazon S3 within the VPC.
B. Create a bucket policy to make the objects in the S3 bucket public.
C. Create a bucket policy that limits access to only the application tier running in the VPC.
D. Create an IAM user with an S3 access policy and copy the IAM credentials to the EC2 instance.
E. Create a NAT instance and have the EC2 instances use the NAT instance to access the S3 bucket.

ある企業が機密性の高いユーザー情報をAmazon S3バケットに保存しています。
この企業は、VPC内のAmazon EC2インスタンスで動作するアプリケーション層からこのバケットに安全にアクセスできるようにしたいと考えています。
これを達成するために、ソリューションアーキテクトはどの組み合わせの手順を踏むべきでしょうか?(2つ選択してください)

A. VPC内にAmazon S3用のVPCゲートウェイエンドポイントを設定する。
B. S3バケット内のオブジェクトを公開するバケットポリシーを作成する。
C. VPC内で動作するアプリケーション層のみにアクセスを制限するバケットポリシーを作成する。
D. S3アクセスポリシーを持つIAMユーザーを作成し、IAM認証情報をEC2インスタンスにコピーする。
E. NATインスタンスを作成し、EC2インスタンスがS3バケットにアクセスする際にそのNATインスタンスを使用するようにする。

93 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

93. A company runs an on-premises application that is powered by a MySQL database. The company is migrating the application to AWS to
increase the application’s elasticity and availability.
The current architecture shows heavy read activity on the database during times of normal operation. Every 4 hours, the company’s
development team pulls a full export of the production database to populate a database in the staging environment. During this period, users
experience unacceptable application latency. The development team is unable to use the staging environment until the procedure completes.
A solutions architect must recommend replacement architecture that alleviates the application latency issue. The replacement architecture
also must give the development team the ability to continue using the staging environment without delay.
Which solution meets these requirements?
A. Use Amazon Aurora MySQL with Multi-AZ Aurora Replicas for production. Populate the staging database by implementing a backup and
restore process that uses the mysqldump utility.
B. Use Amazon Aurora MySQL with Multi-AZ Aurora Replicas for production. Use database cloning to create the staging database on
demand.
C. Use Amazon RDS for MySQL with a Multi-AZ deployment and read replicas for production. Use the standby instance for the staging
database.
D. Use Amazon RDS for MySQL with a Multi-AZ deployment and read replicas for production. Populate the staging database by
implementing a backup and restore process that uses the mysqldump utility.

ある企業はMySQLデータベースで動作するオンプレミスアプリケーションを運用しています。同社はアプリケーションの弾力性と可用性を高めるため、AWSへの移行を進めています。
現在のアーキテクチャでは、通常運転時にデータベースへの読み取り負荷が集中しています。4時間ごとに開発チームは本番データベースの完全エクスポートを行い、ステージング環境のデータベースに投入しています。この期間中、ユーザーは許容できないアプリケーションの遅延を経験し、開発チームも処理が完了するまでステージング環境を使用できません。
ソリューションアーキテクチャは、アプリケーション遅延問題を解消し、開発チームが遅滞なくステージング環境を使い続けられる代替アーキテクチャを提案する必要があります。
以下のどの解決策がこれらの要件を満たしますか?

A. 本番環境にAmazon Aurora MySQL(マルチAZ Auroraレプリカ)を使用。mysqldumpユーティリティによるバックアップ/復元プロセスでステージングデータベースを投入
B. 本番環境にAmazon Aurora MySQL(マルチAZ Auroraレプリカ)を使用。オンデマンドでデータベースクローニングによりステージングデータベースを作成
C. 本番環境にAmazon RDS for MySQL(マルチAZデプロイ+読み取りレプリカ)を使用。スタンバイインスタンスをステージングデータベースとして活用
D. 本番環境にAmazon RDS for MySQL(マルチAZデプロイ+読み取りレプリカ)を使用。mysqldumpユーティリティによるバックアップ/復元プロセスでステージングデータベースを投入

94 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

94. A company is designing an application where users upload small files into Amazon S3. After a user uploads a le, the file requires one-time
simple processing to transform the data and save the data in JSON format for later analysis.
Each file must be processed as quickly as possible after it is uploaded. Demand will vary. On some days, users will upload a high number of
files. On other days, users will upload a few files or no files.
Which solution meets these requirements with the LEAST operational overhead?
A. Configure Amazon EMR to read text files from Amazon S3. Run processing scripts to transform the data. Store the resulting JSON file in
an Amazon Aurora DB cluster.
B. Configure Amazon S3 to send an event notification to an Amazon Simple Queue Service (Amazon SQS) queue. Use Amazon EC2
instances to read from the queue and process the data. Store the resulting JSON file in Amazon DynamoDB.
C. Configure Amazon S3 to send an event notification to an Amazon Simple Queue Service (Amazon SQS) queue. Use an AWS Lambda
function to read from the queue and process the data. Store the resulting JSON file in Amazon DynamoDB.
D. Configure Amazon EventBridge (Amazon CloudWatch Events) to send an event to Amazon Kinesis Data Streams when a new file is
uploaded. Use an AWS Lambda function to consume the event from the stream and process the data. Store the resulting JSON file in an
Amazon Aurora DB cluster.

ある会社が、ユーザーが小さなファイルをAmazon S3にアップロードするアプリケーションを設計しています。ユーザーがファイルをアップロードした後、そのファイルは一度だけ簡単な処理を行い、データを変換して後で分析できるようにJSON形式で保存する必要があります。
各ファイルはアップロードされた後できるだけ速やかに処理されなければなりません。需要は変動します。ある日にはユーザーが多数のファイルをアップロードし、別の日には少数または全くアップロードされないこともあります。
これらの要件を最小限の運用オーバーヘッドで満たすソリューションはどれですか?

A. Amazon EMRを設定してAmazon S3からテキストファイルを読み込む。処理スクリプトを実行してデータを変換する。生成されたJSONファイルをAmazon Aurora DBクラスターに保存する。

B. Amazon S3を設定して、イベント通知をAmazon Simple Queue Service(Amazon SQS)キューに送信する。Amazon EC2インスタンスを使用してキューからデータを読み取り、処理を行う。生成されたJSONファイルをAmazon DynamoDBに保存する。

C. Amazon S3を設定して、イベント通知をAmazon Simple Queue Service(Amazon SQS)キューに送信する。AWS Lambda関数を使用してキューからデータを読み取り、処理を行う。生成されたJSONファイルをAmazon DynamoDBに保存する。

D. Amazon EventBridge(Amazon CloudWatch Events)を設定して、新しいファイルがアップロードされたときにAmazon Kinesis Data Streamsにイベントを送信する。AWS Lambda関数を使用してストリームからイベントを消費し、データを処理する。生成されたJSONファイルをAmazon Aurora DBクラスターに保存する。

95 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

95. An application allows users at a company’s headquarters to access product data. The product data is stored in an Amazon RDS MySQL DB
instance. The operations team has isolated an application performance slowdown and wants to separate read traffic from write traffic. A
solutions architect needs to optimize the application’s performance quickly.
What should the solutions architect recommend?
A. Change the existing database to a Multi-AZ deployment. Serve the read requests from the primary Availability Zone.
B. Change the existing database to a Multi-AZ deployment. Serve the read requests from the secondary Availability Zone.
C. Create read replicas for the database. Configure the read replicas with half of the compute and storage resources as the source
database.
D. Create read replicas for the database. Configure the read replicas with the same compute and storage resources as the source
database.

アプリケーションにより、企業の本社ユーザーは製品データにアクセスできます。製品データはAmazon RDS MySQL DBインスタンスに保存されています。
運用チームはアプリケーションのパフォーマンス低下を特定し、読み取りトラフィックを書き込みトラフィックから分離したいと考えています。
ソリューションアーキテクトは、アプリケーションのパフォーマンスを迅速に最適化する必要があります。
ソリューションアーキテクトは何を推奨すべきですか?
A. 既存のデータベースをマルチAZ展開に変更します。プライマリ可用性ゾーンから読み取りリクエストを提供します。
B. 既存のデータベースをマルチAZ展開に変更します。セカンダリ可用性ゾーンから読み取りリクエストを提供します。
C. データベースの読み取りレプリカを作成します。ソースデータベースの半分のコンピューティングおよびストレージリソースで読み取りレプリカを構成します。
D. データベースの読み取りレプリカを作成します。ソースデータベースと同じコンピューティングおよびストレージリソースで読み取りレプリカを構成します。

96 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

96. A company has a large Microsoft SharePoint deployment running on-premises that requires Microsoft Windows shared file storage. The
company wants to migrate this workload to the AWS Cloud and is considering various storage options. The storage solution must be highly
available and integrated with Active Directory for access control.
Which solution will satisfy these requirements?
A. Configure Amazon EFS storage and set the Active Directory domain for authentication.
B. Create an SMB file share on an AWS Storage Gateway file gateway in two Availability Zones.
C. Create an Amazon S3 bucket and Configure Microsoft Windows Server to mount it as a volume.
D. Create an Amazon FSx for Windows File Server file system on AWS and set the Active Directory domain for authentication.

ある企業がオンプレミスで大規模なMicrosoft SharePointデプロイメントを実行しており、Microsoft Windowsの共有ファイルストレージが必要です。
この企業はこのワークロードをAWSクラウドに移行したいと考えており、さまざまなストレージオプションを検討しています。
ストレージソリューションは高可用性が確保されており、アクセス制御のためにActive Directoryと統合されている必要があります。
これらの要件を満たすソリューションはどれですか?
A. Amazon EFSストレージを設定し、認証用にActive Directoryドメインを設定します。
B. 2つのアベイラビリティーゾーンでAWS Storage GatewayファイルゲートウェイにSMBファイル共有を作成します。
C. Amazon S3バケットを作成し、Microsoft Windows Serverを設定してボリュームとしてマウントします。
D. AWS上でAmazon FSx for Windows File Serverファイルシステムを作成し、認証用にActive Directoryドメインを設定します。

97 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

97. An image-processing company has a web application that users use to upload images. The application uploads the images into an Amazon S3
bucket. The company has set up S3 event notifications to publish the object creation events to an Amazon Simple Queue Service (Amazon
SQS) standard queue. The SQS queue serves as the event source for an AWS Lambda function that processes the images and sends the
results to users through email.
Users report that they are receiving multiple email messages for every uploaded image. A solutions architect determines that SQS messages
are invoking the Lambda function more than once, resulting in multiple email messages.
What should the solutions architect do to resolve this issue with the LEAST operational overhead?
A. Set up long polling in the SQS queue by increasing the ReceiveMessage wait time to 30 seconds.
B. Change the SQS standard queue to an SQS FIFO queue. Use the message deduplication ID to discard duplicate messages.
C. Increase the visibility timeout in the SQS queue to a value that is greater than the total of the function timeout and the batch window
timeout.
D. Modify the Lambda function to delete each message from the SQS queue immediately after the message is read before processing.

ある画像処理会社には、ユーザーが画像をアップロードするために使用するウェブアプリケーションがあります。このアプリケーションは画像をAmazon S3バケットにアップロードします。

同社はS3イベント通知を設定し、オブジェクト作成イベントをAmazon Simple Queue Service(Amazon SQS)スタンダードキューに公開しています。SQSキューは、画像を処理し結果をユーザーにメールで送信するAWS Lambda関数のイベントソースとして機能します。

ユーザーから、アップロードした画像ごとに複数のメールメッセージを受信しているとの報告がありました。ソリューションアーキテクトは、SQSメッセージがLambda関数を複数回呼び出しているため、複数のメールメッセージが送信されていると判断しました。

この問題を解決するために、ソリューションアーキテクトは、最小限の運用負荷で何をすべきでしょうか?

A. SQSキューでロングポーリングを設定し、ReceiveMessageの待機時間を30秒に増やす。

B. SQSスタンダードキューをSQS FIFOキューに変更する。メッセージ重複排除IDを使用して重複メッセージを破棄する。

C. SQSキューの可視性タイムアウトを、関数タイムアウトとバッチウィンドウタイムアウトの合計よりも大きい値に増やす。

D. Lambda関数を変更し、メッセージが読み込まれた後に処理する前に、各メッセージをSQSキューからすぐに削除する。

98 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

98. A company is implementing a shared storage solution for a gaming application that is hosted in an on-premises data center. The company
needs the ability to use Lustre clients to access data. The solution must be fully managed.
Which solution meets these requirements?
A. Create an AWS Storage Gateway file gateway. Create a file share that uses the required client protocol. Connect the application server
to the file share.
B. Create an Amazon EC2 Windows instance. Install and Configure a Windows file share role on the instance. Connect the application
server to the file share.
C. Create an Amazon Elastic File System (Amazon EFS) file system, and Configure it to support Lustre. Attach the file system to the origin
server. Connect the application server to the file system.
D. Create an Amazon FSx for Lustre file system. Attach the file system to the origin server. Connect the application server to the le
system.

企業がオンプレミスデータセンターでホストされているゲームアプリケーション向けに共有ストレージソリューションを導入しています。この企業は、Lustreクライアントを使用してデータにアクセスする機能が必要です。
このソリューションは完全に管理されている必要があります。
これらの要件を満たすソリューションはどれですか?

A. AWS Storage Gatewayファイルゲートウェイを作成します。必要なクライアントプロトコルを使用するファイル共有を作成します。アプリケーションサーバーをファイル共有に接続します。

B. Amazon EC2 Windowsインスタンスを作成します。インスタンスにWindowsファイル共有ロールをインストールして設定します。アプリケーションサーバーをファイル共有に接続します。

C. Amazon Elastic File System(Amazon EFS)ファイルシステムを作成し、Lustreをサポートするように設定します。オリジンサーバーにファイルシステムを接続します。アプリケーションサーバーをファイルシステムに接続します。

D. Amazon FSx for Lustreファイルシステムを作成します。オリジンサーバーにファイルシステムを接続します。アプリケーションサーバーをファイルシステムに接続します。

99 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

99. A company’s containerized application runs on an Amazon EC2 instance. The application needs to download security certificates before it can
communicate with other business applications. The company wants a highly secure solution to encrypt and decrypt the certificates in near
real time. The solution also needs to store data in highly available storage after the data is encrypted.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create AWS Secrets Manager secrets for encrypted certificates. Manually update the certificates as needed. Control access to the data
by using ne-grained IAM access.
B. Create an AWS Lambda function that uses the Python cryptography library to receive and perform encryption operations. Store the
function in an Amazon S3 bucket.
C. Create an AWS Key Management Service (AWS KMS) customer managed key. Allow the EC2 role to use the KMS key for encryption
operations. Store the encrypted data on Amazon S3.
D. Create an AWS Key Management Service (AWS KMS) customer managed key. Allow the EC2 role to use the KMS key for encryption
operations. Store the encrypted data on Amazon Elastic Block Store (Amazon EBS) volumes.

ある会社のコンテナ化されたアプリケーションは、Amazon EC2インスタンス上で稼働しています。このアプリケーションは、他の業務アプリケーションと通信する前にセキュリティ証明書をダウンロードする必要があります。同社は、証明書をほぼリアルタイムで暗号化および復号化する高度に安全なソリューションを望んでいます。また、データが暗号化された後、そのデータを高可用性ストレージに保存する必要もあります。
これらの要件を最も少ない運用負荷で満たすソリューションはどれですか?
A. 暗号化された証明書用にAWS Secrets Managerのシークレットを作成する。必要に応じて証明書を手動で更新する。きめ細かいIAMアクセスを使用してデータへのアクセスを制御する。
B. Pythonの暗号化ライブラリを使用して暗号化操作を受け取り実行するAWS Lambda関数を作成する。この関数をAmazon S3バケットに保存する。
C. AWS Key Management Service(AWS KMS)のカスタマー管理キーを作成する。EC2ロールがKMSキーを使用して暗号化操作を行うことを許可する。暗号化されたデータをAmazon S3に保存する。
D. AWS Key Management Service(AWS KMS)のカスタマー管理キーを作成する。EC2ロールがKMSキーを使用して暗号化操作を行うことを許可する。暗号化されたデータをAmazon Elastic Block Store(Amazon EBS)ボリュームに保存する。

100 / 100

カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)

100. A solutions architect is designing a VPC with public and private subnets. The VPC and subnets use IPv4 CIDR blocks. There is one public
subnet and one private subnet in each of three Availability Zones (AZs) for high availability. An internet gateway is used to provide internet
access for the public subnets. The private subnets require access to the internet to allow Amazon EC2 instances to download software
updates.
What should the solutions architect do to enable Internet access for the private subnets?
A. Create three NAT gateways, one for each public subnet in each AZ. Create a private route table for each AZ that forwards non-VPC
traffic to the NAT gateway in its AZ.
B. Create three NAT instances, one for each private subnet in each AZ. Create a private route table for each AZ that forwards non-VPC
traffic to the NAT instance in its AZ.
C. Create a second internet gateway on one of the private subnets. Update the route table for the private subnets that forward non-VPC
traffic to the private internet gateway.
D. Create an egress-only internet gateway on one of the public subnets. Update the route table for the private subnets that forward non
VPC traffic to the egress-only Internet gateway.

ソリューションアーキテクトがパブリックサブネットとプライベートサブネットを持つVPCを設計しています。VPCとサブネットはIPv4 CIDRブロックを使用しています。高可用性を確保するため、3つのアベイラビリティーゾーン(AZ)それぞれに1つのパブリックサブネットと1つのプライベートサブネットがあります。インターネットゲートウェイは、パブリックサブネットにインターネットアクセスを提供するために使用されています。プライベートサブネットは、Amazon EC2インスタンスがソフトウェア更新をダウンロードできるようにするためにインターネットアクセスを必要としています。

プライベートサブネットにインターネットアクセスを可能にするためには、ソリューションアーキテクトは何をすべきですか?

A. 3つのNATゲートウェイを作成し、各AZの各パブリックサブネットに1つずつ割り当てます。各AZのプライベートルートテーブルを作成し、非VPCトラフィックをそのAZのNATゲートウェイに転送するように設定します。

B. 3つのNATインスタンスを作成し、各AZの各プライベートサブネットに1つずつ割り当てます。各AZのプライベートルートテーブルを作成し、非VPCトラフィックをそのAZのNATインスタンスに転送するように設定します。

C. プライベートサブネットの1つに2つ目のインターネットゲートウェイを作成します。非VPCトラフィックをプライベートインターネットゲートウェイに転送するように、プライベートサブネットのルートテーブルを更新します。

D. パブリックサブネットの1つにegress-onlyインターネットゲートウェイを作成します。非VPCトラフィックをegress-onlyインターネットゲートウェイに転送するように、プライベートサブネットのルートテーブルを更新します。

あなたのスコアは

平均スコアは 0%

0%

評価フォーム

ご評価ありがとうございます。

本文のリンク:https://www.matsuhana.com/2025/03/saa-c03-%e5%95%8f%e9%a1%8c%e9%9b%86no-1-100-aws-%e8%aa%8d%e5%ae%9a%e3%82%bd%e3%83%aa%e3%83%a5%e3%83%bc%e3%82%b7%e3%83%a7%e3%83%b3%e3%82%a2%e3%83%bc%e3%82%ad%e3%83%86%e3%82%af%e3%83%88-%e3%82%a2/,転載禁止です。
0

コメント0

キャプチャを表示する
アカウントをお持ちでないですか?登録  パスワードをお忘れですか?