SAP-C02 問題集No.1-100 (AWS 認定ソリューションアーキテクト – プロフェッショナル)

日英二つ言語付き、各選択解析付き、最新問題追加中
0%
0 投票, 0 平均
3

Report a question

You cannot submit an empty report. Please add some details.

SAP-C02(ソリューションアーキテクト – プロフェッショナル)

AWS 認定ソリューションアーキテクト – プロフェッショナル

SAP-C02 問題集No.1-100 (AWS 認定ソリューションアーキテクト – プロフェッショナル)

日英二つ言語付き 解析付き SAP-C02 問題集No.1-100 (AWS 認定ソリューションアーキテクト – プロフェッショナル)

1 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

1. A company needs to architect a hybrid DNS solution. This solution will use an Amazon Route 53 private hosted zone for the domain
cloud.example.com for the resources stored within VPCs.
The company has the following DNS resolution requirements:
On-premises systems should be able to resolve and connect to cloud.example.com.
All VPCs should be able to resolve cloud.example.com.
There is already an AWS Direct Connect connection between the on-premises corporate network and AWS Transit Gateway.
Which architecture should the company use to meet these requirements with the HIGHEST performance?
A. Associate the private hosted zone to all the VPCs. Create a Route 53 inbound resolver in the shared services VPC. Attach all VPCs to the
transit gateway and create forwarding rules in the on-premises DNS server for cloud.example.com that point to the inbound resolver.
B. Associate the private hosted zone to all the VPCs. Deploy an Amazon EC2 conditional forwarder in the shared services VPC. Attach all
VPCs to the transit gateway and create forwarding rules in the on-premises DNS server for cloud.example.com that point to the conditional
forwarder.
C. Associate the private hosted zone to the shared services VPCreate a Route 53 outbound resolver in the shared services VPAttach all VPCs
to the transit gateway and create forwarding rules in the on-premises DNS server for cloud.example.com that point to the outbound resolver.
D. Associate the private hosted zone to the shared services VPC. Create a Route 53 inbound resolver in the shared services VPC. Attach the
shared services VPC to the transit gateway and create forwarding rules in the on-premises DNS server for cloud.example.com that point to the
inbound resolver.

ある会社はハイブリッドDNSソリューションを設計する必要があります。
このソリューションは、VPC内に保存されたリソースに対してドメインcloud.example.comのAmazon Route 53プライベートホステッドゾーンを使用します。

この会社には以下のDNS解決要件があります:
オンプレミスのシステムは、cloud.example.comを解決して接続できる必要があります。
すべてのVPCはcloud.example.comを解決できる必要があります。
オンプレミスの企業ネットワークとAWS Transit Gatewayの間には、すでにAWS Direct Connect接続が存在します。

これらの要件を最高のパフォーマンスで満たすために、この会社はどのアーキテクチャを使用すべきですか?

A. プライベートホステッドゾーンをすべてのVPCに関連付けます。共有サービスVPCにRoute 53インバウンドリゾルバを作成します。すべてのVPCをトランジットゲートウェイに接続し、オンプレミスDNSサーバーにcloud.example.comの転送ルールを作成して、インバウンドリゾルバを指すようにします。

B. プライベートホステッドゾーンをすべてのVPCに関連付けます。共有サービスVPCにAmazon EC2条件付きフォワーダをデプロイします。すべてのVPCをトランジットゲートウェイに接続し、オンプレミスDNSサーバーにcloud.example.comの転送ルールを作成して、条件付きフォワーダを指すようにします。

C. プライベートホステッドゾーンを共有サービスVPCに関連付けます。共有サービスVPCにRoute 53アウトバウンドリゾルバを作成します。すべてのVPCをトランジットゲートウェイに接続し、オンプレミスDNSサーバーにcloud.example.comの転送ルールを作成して、アウトバウンドリゾルバを指すようにします。

D. プライベートホステッドゾーンを共有サービスVPCに関連付けます。共有サービスVPCにRoute 53インバウンドリゾルバを作成します。共有サービスVPCをトランジットゲートウェイに接続し、オンプレミスDNSサーバーにcloud.example.comの転送ルールを作成して、インバウンドリゾルバを指すようにします。

2 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

2. A company is providing weather data over a REST-based API to several customers. The API is hosted by Amazon API Gateway and is integrated
with different AWS Lambda functions for each API operation. The company uses Amazon Route 53 for DNS and has created a resource record of
weather.example.com. The company stores data for the API in Amazon DynamoDB tables. The company needs a solution that will give the API the
ability to fail over to a different AWS Region.
Which solution will meet these requirements?
A. Deploy a new set of Lambda functions in a new Region. Update the API Gateway API to use an edge-optimized API endpoint with Lambda
functions from both Regions as targets. Convert the DynamoDB tables to global tables.
B. Deploy a new API Gateway API and Lambda functions in another Region. Change the Route 53 DNS record to a multivalue answer. Add both
API Gateway APIs to the answer. Enable target health monitoring. Convert the DynamoDB tables to global tables.
C. Deploy a new API Gateway API and Lambda functions in another Region. Change the Route 53 DNS record to a failover record. Enable
target health monitoring. Convert the DynamoDB tables to global tables.
D. Deploy a new API Gateway API in a new Region. Change the Lambda functions to global functions. Change the Route 53 DNS record to a
multivalue answer. Add both API Gateway APIs to the answer. Enable target health monitoring. Convert the DynamoDB tables to global tables.

ある企業がRESTベースのAPIを介していくつかの顧客に気象データを提供しています。APIはAmazon API Gatewayでホストされており、各API操作に対して異なるAWS Lambda関数と統合されています。
企業はDNSにAmazon Route 53を使用しており、weather.example.comのリソースレコードを作成しています。企業はAPIのデータをAmazon DynamoDBテーブルに保存しています。
企業はAPIが別のAWSリージョンにフェイルオーバーする能力を提供するソリューションを必要としています。
これらの要件を満たすソリューションはどれですか?
A. 新しいリージョンにLambda関数の新しいセットをデプロイします。両リージョンのLambda関数をターゲットとするエッジ最適化APIエンドポイントを使用するようにAPI Gateway APIを更新します。DynamoDBテーブルをグローバルテーブルに変換します。
B. 別のリージョンに新しいAPI Gateway APIとLambda関数をデプロイします。Route 53 DNSレコードをマルチバリュー回答に変更します。両方のAPI Gateway APIを回答に追加します。ターゲットヘルスモニタリングを有効にします。DynamoDBテーブルをグローバルテーブルに変換します。
C. 別のリージョンに新しいAPI Gateway APIとLambda関数をデプロイします。Route 53 DNSレコードをフェイルオーバーレコードに変更します。ターゲットヘルスモニタリングを有効にします。DynamoDBテーブルをグローバルテーブルに変換します。
D. 新しいリージョンに新しいAPI Gateway APIをデプロイします。Lambda関数をグローバル関数に変更します。Route 53 DNSレコードをマルチバリュー回答に変更します。両方のAPI Gateway APIを回答に追加します。ターゲットヘルスモニタリングを有効にします。DynamoDBテーブルをグローバルテーブルに変換します。

3 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

3. A company uses AWS Organizations with a single OU named Production to manage multiple accounts. All accounts are members of the
Production OU. Administrators use deny list SCPs in the root of the organization to manage access to restricted services.
The company recently acquired a new business unit and invited the new unit’s existing AWS account to the organization. Once onboarded, the
administrators of the new business unit discovered that they are not able to update existing AWS Config rules to meet the company’s policies.
Which option will allow administrators to make changes and continue to enforce the current policies without introducing additional long-term
maintenance?
A. Remove the organization’s root SCPs that limit access to AWS Config. Create AWS Service Catalog products for the company’s standard
AWS Config rules and deploy them throughout the organization, including the new account.
B. Create a temporary OU named Onboarding for the new account. Apply an SCP to the Onboarding OU to allow AWS Config actions. Move the
new account to the Production OU when adjustments to AWS Config are complete.
C. Convert the organization’s root SCPs from deny list SCPs to allow list SCPs to allow the required services only. Temporarily apply an SCP to
the organization’s root that allows AWS Config actions for principals only in the new account.
D. Create a temporary OU named Onboarding for the new account. Apply an SCP to the Onboarding OU to allow AWS Config actions. Move the
organization’s root SCP to the Production OU. Move the new account to the Production OU when adjustments to AWS Config are complete.

ある企業は、複数のアカウントを管理するために「Production」という単一のOU(組織単位)を持つAWS Organizationsを使用しています。すべてのアカウントはProduction OUのメンバーです。管理者は、制限されたサービスへのアクセスを管理するために、組織のルートに拒否リスト型のSCP(サービスコントロールポリシー)を使用しています。

この企業は最近、新しい事業部門を買収し、その部門の既存のAWSアカウントを組織に招待しました。オンボーディング後、新しい事業部門の管理者は、会社のポリシーを満たすために既存のAWS Configルールを更新できないことに気づきました。

追加の長期的なメンテナンスを必要とせず、管理者が変更を行い、現在のポリシーを引き続き適用できるようにするには、どのオプションが適していますか?

A. AWS Configへのアクセスを制限する組織のルートSCPを削除します。会社の標準的なAWS ConfigルールのAWS Service Catalog製品を作成し、新しいアカウントを含む組織全体に展開します。

B. 新しいアカウント用に「Onboarding」という一時的なOUを作成します。Onboarding OUにAWS Configアクションを許可するSCPを適用します。AWS Configの調整が完了したら、新しいアカウントをProduction OUに移動します。

C. 組織のルートSCPを拒否リスト型から許可リスト型に変換し、必要なサービスのみを許可します。一時的に、新しいアカウントのプリンシパルのみがAWS Configアクションを実行できるようにするSCPを組織のルートに適用します。

D. 新しいアカウント用に「Onboarding」という一時的なOUを作成します。Onboarding OUにAWS Configアクションを許可するSCPを適用します。組織のルートSCPをProduction OUに移動します。AWS Configの調整が完了したら、新しいアカウントをProduction OUに移動します。

4 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

4. A company is running a two-tier web-based application in an on-premises data center. The application layer consists of a single server running a
stateful application. The application connects to a PostgreSQL database running on a separate server. The application’s user base is expected to
grow signi cantly, so the company is migrating the application and database to AWS. The solution will use Amazon Aurora PostgreSQL, Amazon
EC2 Auto Scaling, and Elastic Load Balancing.
Which solution will provide a consistent user experience that will allow the application and database tiers to scale?
A. Enable Aurora Auto Scaling for Aurora Replicas. Use a Network Load Balancer with the least outstanding requests routing algorithm and
sticky sessions enabled.
B. Enable Aurora Auto Scaling for Aurora writers. Use an Application Load Balancer with the round robin routing algorithm and sticky sessions
enabled.
C. Enable Aurora Auto Scaling for Aurora Replicas. Use an Application Load Balancer with the round robin routing and sticky sessions
enabled.
D. Enable Aurora Scaling for Aurora writers. Use a Network Load Balancer with the least outstanding requests routing algorithm and sticky
sessions enabled.

ある企業がオンプレミスのデータセンターで2層のウェブベースアプリケーションを運用しています。アプリケーション層は、ステートフルアプリケーションを実行する単一のサーバーで構成されています。アプリケーションは、別のサーバーで実行されているPostgreSQLデータベースに接続します。アプリケーションのユーザーベースは大幅に増加すると予想されるため、同社はアプリケーションとデータベースをAWSに移行しています。ソリューションには、Amazon Aurora PostgreSQL、Amazon EC2 Auto Scaling、およびElastic Load Balancingが使用されます。

アプリケーションとデータベース層のスケーリングを可能にし、一貫したユーザーエクスペリエンスを提供するソリューションはどれでしょうか?
A. Auroraレプリカに対してAurora Auto Scalingを有効にします。未処理リクエストが最も少ないルーティングアルゴリズムとスティッキーセッションが有効化されたネットワークロードバランサーを使用します。
B. Auroraライターに対してAurora Auto Scalingを有効にします。ラウンドロビンルーティングアルゴリズムとスティッキーセッションが有効化されたアプリケーションロードバランサーを使用します。
C. Auroraレプリカに対してAurora Auto Scalingを有効にします。ラウンドロビンルーティングとスティッキーセッションが有効化されたアプリケーションロードバランサーを使用します。
D. Auroraライターに対してAurora Auto Scalingを有効にします。未処理リクエストが最も少ないルーティングアルゴリズムとスティッキーセッションが有効化されたネットワークロードバランサーを使用します。

5 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

5. A company uses a service to collect metadata from applications that the company hosts on premises. Consumer devices such as TVs and
internet radios access the applications. Many older devices do not support certain HTTP headers and exhibit errors when these headers are
present in responses. The company has configured an on-premises load balancer to remove the unsupported headers from responses sent to
older devices, which the company identi ed by the User-Agent headers.
The company wants to migrate the service to AWS, adopt serverless technologies, and retain the ability to support the older devices. The company
has already migrated the applications into a set of AWS Lambda functions.
Which solution will meet these requirements?
A. Create an Amazon CloudFront distribution for the metadata service. Create an Application Load Balancer (ALB). Configure the CloudFront
distribution to forward requests to the ALB. Configure the ALB to invoke the correct Lambda function for each type of request. Create a
CloudFront function to remove the problematic headers based on the value of the User-Agent header.
B. Create an Amazon API Gateway REST API for the metadata service. Configure API Gateway to invoke the correct Lambda function for each
type of request. Modify the default gateway responses to remove the problematic headers based on the value of the User-Agent header.
C. Create an Amazon API Gateway HTTP API for the metadata service. Configure API Gateway to invoke the correct Lambda function for each
type of request. Create a response mapping template to remove the problematic headers based on the value of the User-Agent. Associate the
response data mapping with the HTTP API.
D. Create an Amazon CloudFront distribution for the metadata service. Create an Application Load Balancer (ALB). Configure the CloudFront
distribution to forward requests to the ALB. Configure the ALB to invoke the correct Lambda function for each type of request. Create a
Lambda@Edge function that will remove the problematic headers in response to viewer requests based on the value of the User-Agent header.

ある企業は、自社のオンプレミスでホストしているアプリケーションからメタデータを収集するサービスを利用しています。
テレビやインターネットラジオなどのコンシューマー機器がこれらのアプリケーションにアクセスしています。
多くの古いデバイスは特定のHTTPヘッダーをサポートしておらず、これらのヘッダーがレスポンスに含まれているとエラーが発生します。
同社は、オンプレミスのロードバランサーを設定し、User-Agentヘッダーで識別される古いデバイスに送信されるレスポンスから、サポートされていないヘッダーを削除しています。

この企業は、サービスをAWSに移行し、サーバーレステクノロジーを採用しながら、古いデバイスをサポートする機能を維持したいと考えています。
同社はすでにアプリケーションを一連のAWS Lambda関数に移行しています。

これらの要件を満たすソリューションはどれですか?
A. メタデータサービスのためにAmazon CloudFrontディストリビューションを作成します。Application Load Balancer(ALB)を作成します。
CloudFrontディストリビューションを設定して、リクエストをALBに転送します。
ALBを設定して、リクエストの種類ごとに適切なLambda関数を呼び出します。
User-Agentヘッダーの値に基づいて問題のあるヘッダーを削除するCloudFront関数を作成します。

B. メタデータサービスのためにAmazon API Gateway REST APIを作成します。
API Gatewayを設定して、リクエストの種類ごとに適切なLambda関数を呼び出します。
User-Agentヘッダーの値に基づいて問題のあるヘッダーを削除するように、デフォルトのゲートウェイレスポンスを変更します。

C. メタデータサービスのためにAmazon API Gateway HTTP APIを作成します。
API Gatewayを設定して、リクエストの種類ごとに適切なLambda関数を呼び出します。
User-Agentの値に基づいて問題のあるヘッダーを削除するレスポンスマッピングテンプレートを作成します。
レスポンスデータマッピングをHTTP APIに関連付けます。

D. メタデータサービスのためにAmazon CloudFrontディストリビューションを作成します。Application Load Balancer(ALB)を作成します。
CloudFrontディストリビューションを設定して、リクエストをALBに転送します。
ALBを設定して、リクエストの種類ごとに適切なLambda関数を呼び出します。
User-Agentヘッダーの値に基づいて、ビューアーリクエストに応じて問題のあるヘッダーを削除するLambda@Edge関数を作成します。

6 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

6. A company is running a traditional web application on Amazon EC2 instances. The company needs to refactor the application as microservices
that run on containers. Separate versions of the application exist in two distinct environments: production and testing. Load for the application is
variable, but the minimum load and the maximum load are known. A solutions architect needs to design the updated application with a serverless
architecture that minimizes operational complexity.
Which solution will meet these requirements MOST cost-effectively?
A. Upload the container images to AWS Lambda as functions. Configure a concurrency limit for the associated Lambda functions to handle
the expected peak load. Configure two separate Lambda integrations within Amazon API Gateway: one for production and one for testing.
B. Upload the container images to Amazon Elastic Container Registry (Amazon ECR). Configure two auto scaled Amazon Elastic Container
Service (Amazon ECS) clusters with the Fargate launch type to handle the expected load. Deploy tasks from the ECR images. Configure two
separate Application Load Balancers to direct traffic to the ECS clusters.
C. Upload the container images to Amazon Elastic Container Registry (Amazon ECR). Configure two auto scaled Amazon Elastic Kubernetes
Service (Amazon EKS) clusters with the Fargate launch type to handle the expected load. Deploy tasks from the ECR images. Configure two
separate Application Load Balancers to direct traffic to the EKS clusters.
D. Upload the container images to AWS Elastic Beanstalk. In Elastic Beanstalk, create separate environments and deployments for production
and testing. Configure two separate Application Load Balancers to direct traffic to the Elastic Beanstalk deployments.

ある企業がAmazon EC2インスタンス上で従来型のウェブアプリケーションを稼働させています。
この企業は、このアプリケーションをコンテナ上で動作するマイクロサービスとしてリファクタリングする必要があります。
アプリケーションには、本番環境とテスト環境という2つの異なる環境で別々のバージョンが存在します。
アプリケーションの負荷は変動しますが、最小負荷と最大負荷は既知です。
ソリューションアーキテクトは、運用の複雑さを最小限に抑えたサーバーレスアーキテクチャで更新されたアプリケーションを設計する必要があります。

これらの要件を最もコスト効率よく満たすソリューションはどれでしょうか?

A. コンテナイメージをAWS Lambdaの関数としてアップロードします。
関連するLambda関数に対して、予想されるピーク負荷に対応するための同時実行制限を設定します。
Amazon API Gateway内で、本番用とテスト用の2つの別々のLambda統合を構成します。

B. コンテナイメージをAmazon Elastic Container Registry(Amazon ECR)にアップロードします。
予想される負荷に対応するために、Fargate起動タイプの2つのオートスケーリングAmazon Elastic Container Service(Amazon ECS)クラスターを構成します。
ECRイメージからタスクをデプロイします。
ECSクラスターにトラフィックを転送するために、2つの別々のApplication Load Balancerを構成します。

C. コンテナイメージをAmazon Elastic Container Registry(Amazon ECR)にアップロードします。
予想される負荷に対応するために、Fargate起動タイプの2つのオートスケーリングAmazon Elastic Kubernetes Service(Amazon EKS)クラスターを構成します。
ECRイメージからタスクをデプロイします。
EKSクラスターにトラフィックを転送するために、2つの別々のApplication Load Balancerを構成します。

D. コンテナイメージをAWS Elastic Beanstalkにアップロードします。
Elastic Beanstalkで、本番とテストのための別々の環境とデプロイメントを作成します。
Elastic Beanstalkのデプロイメントにトラフィックを転送するために、2つの別々のApplication Load Balancerを構成します。

7 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

7. A company has a multi-tier web application that runs on a eet of Amazon EC2 instances behind an Application Load Balancer (ALB). The
instances are in an Auto Scaling group. The ALB and the Auto Scaling group are replicated in a backup AWS Region. The minimum value and the
maximum value for the Auto Scaling group are set to zero. An Amazon RDS Multi-AZ DB instance stores the application’s data. The DB instance
has a read replica in the backup Region. The application presents an endpoint to end users by using an Amazon Route 53 record.
The company needs to reduce its RTO to less than 15 minutes by giving the application the ability to automatically fail over to the backup Region.
The company does not have a large enough budget for an active-active strategy.
What should a solutions architect recommend to meet these requirements?
A. Reconfigure the application’s Route 53 record with a latency-based routing policy that load balances traffic between the two ALBs. Create
an AWS Lambda function in the backup Region to promote the read replica and modify the Auto Scaling group values. Create an Amazon
CloudWatch alarm that is based on the HTTPCode_Target_5XX_Count metric for the ALB in the primary Region. Configure the CloudWatch
alarm to invoke the Lambda function.
B. Create an AWS Lambda function in the backup Region to promote the read replica and modify the Auto Scaling group values. Configure
Route 53 with a health check that monitors the web application and sends an Amazon Simple Notification Service (Amazon SNS) notification
to the Lambda function when the health check status is unhealthy. Update the application’s Route 53 record with a failover policy that routes
traffic to the ALB in the backup Region when a health check failure occurs.
C. Configure the Auto Scaling group in the backup Region to have the same values as the Auto Scaling group in the primary Region.
Reconfigure the application’s Route 53 record with a latency-based routing policy that load balances traffic between the two ALBs. Remove the
read replica. Replace the read replica with a standalone RDS DB instance. Configure Cross-Region Replication between the RDS DB instances
by using snapshots and Amazon S3.
D. Configure an endpoint in AWS Global Accelerator with the two ALBs as equal weighted targets. Create an AWS Lambda function in the
backup Region to promote the read replica and modify the Auto Scaling group values. Create an Amazon CloudWatch alarm that is based on
the HTTPCode_Target_5XX_Count metric for the ALB in the primary Region. Configure the CloudWatch alarm to invoke the Lambda function.

ある企業が、Application Load Balancer(ALB)の背後にあるAmazon EC2インスタンス群で実行されている多層ウェブアプリケーションを運用しています。
これらのインスタンスはAuto Scalingグループに所属しています。ALBとAuto Scalingグループは、バックアップ用のAWSリージョンに複製されています。Auto Scalingグループの最小値と最大値はゼロに設定されています。
アプリケーションのデータはAmazon RDS Multi-AZ DBインスタンスに保存されており、バックアップリージョンには読み取りレプリカが存在します。
アプリケーションは、Amazon Route 53レコードを使用してエンドユーザーにエンドポイントを提供しています。
この企業は、アプリケーションがバックアップリージョンに自動的にフェイルオーバーする機能を追加することで、RTOを15分未満に短縮する必要があります。
企業の予算はアクティブ-アクティブ戦略を実施するのに十分ではありません。
これらの要件を満たすために、ソリューションアーキテクトはどのような対策を推奨すべきでしょうか?

A. 2つのALB間でトラフィックを負荷分散するレイテンシーベーストラウティングポリシーでアプリケーションのRoute 53レコードを再設定します。
バックアップリージョンに、読み取りレプリカを昇格させAuto Scalingグループの値を変更するAWS Lambda関数を作成します。
プライマリリージョンのALBのHTTPCode_Target_5XX_Countメトリックに基づくAmazon CloudWatchアラームを作成し、このアラームがLambda関数を起動するように設定します。

B. バックアップリージョンに、読み取りレプリカを昇格させAuto Scalingグループの値を変更するAWS Lambda関数を作成します。
ウェブアプリケーションを監視するヘルスチェックをRoute 53に設定し、ヘルスチェックステータスが異常な場合にAmazon Simple Notification Service(Amazon SNS)通知をLambda関数に送信します。
ヘルスチェック失敗時にトラフィックをバックアップリージョンのALBにルーティングするフェイルオーバーポリシーで、アプリケーションのRoute 53レコードを更新します。

C. バックアップリージョンのAuto Scalingグループを、プライマリリージョンのAuto Scalingグループと同じ値になるように設定します。
2つのALB間でトラフィックを負荷分散するレイテンシーベーストラウティングポリシーでアプリケーションのRoute 53レコードを再設定します。
読み取りレプリカを削除し、スタンドアロンRDS DBインスタンスで置き換えます。スナップショットとAmazon S3を使用してRDS DBインスタンス間のクロスリージョンレプリケーションを設定します。

D. 2つのALBを等加重ターゲットとするAWS Global Acceleratorにエンドポイントを設定します。
バックアップリージョンに、読み取りレプリカを昇格させAuto Scalingグループの値を変更するAWS Lambda関数を作成します。
プライマリリージョンのALBのHTTPCode_Target_5XX_Countメトリックに基づくAmazon CloudWatchアラームを作成し、このアラームがLambda関数を起動するように設定します。

8 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

8. A company is hosting a critical application on a single Amazon EC2 instance. The application uses an Amazon ElastiCache for Redis single-node
cluster for an in-memory data store. The application uses an Amazon RDS for MariaDB DB instance for a relational database. For the application
to function, each piece of the infrastructure must be healthy and must be in an active state.
A solutions architect needs to improve the application’s architecture so that the infrastructure can automatically recover from failure with the least
possible downtime.
Which combination of steps will meet these requirements? (Choose three.)
A. Use an Elastic Load Balancer to distribute traffic across multiple EC2 instances. Ensure that the EC2 instances are part of an Auto Scaling
group that has a minimum capacity of two instances.
B. Use an Elastic Load Balancer to distribute traffic across multiple EC2 instances. Ensure that the EC2 instances are configured in unlimited
mode.
C. Modify the DB instance to create a read replica in the same Availability Zone. Promote the read replica to be the primary DB instance in
failure scenarios.
D. Modify the DB instance to create a Multi-AZ deployment that extends across two Availability Zones.
E. Create a replication group for the ElastiCache for Redis cluster. Configure the cluster to use an Auto Scaling group that has a minimum
capacity of two instances.
F. Create a replication group for the ElastiCache for Redis cluster. Enable Multi-AZ on the cluster.

ある会社が重要なアプリケーションを単一のAmazon EC2インスタンスでホストしています。
このアプリケーションは、インメモリデータストアとしてAmazon ElastiCache for Redisのシングルノードクラスターを使用しています。
アプリケーションは、リレーショナルデータベースとしてAmazon RDS for MariaDB DBインスタンスを使用しています。
アプリケーションが機能するためには、インフラの各部分が正常であり、アクティブな状態でなければなりません。
ソリューションアーキテクトは、インフラが自動的に障害から回復し、ダウンタイムを最小限に抑えるために、アプリケーションのアーキテクチャを改善する必要があります。
これらの要件を満たすためのステップの組み合わせはどれですか?(3つ選択してください)

A. Elastic Load Balancerを使用して、複数のEC2インスタンス間でトラフィックを分散します。
EC2インスタンスが最小容量2インスタンスのAuto Scalingグループの一部であることを確認します。

B. Elastic Load Balancerを使用して、複数のEC2インスタンス間でトラフィックを分散します。
EC2インスタンスが無制限モードで構成されていることを確認します。

C. DBインスタンスを変更して、同じアベイラビリティーゾーン内に読み取りレプリカを作成します。
障害が発生した場合、読み取りレプリカをプライマリDBインスタンスとして昇格させます。

D. DBインスタンスを変更して、2つのアベイラビリティーゾーンにまたがるMulti-AZデプロイを作成します。

E. ElastiCache for Redisクラスターのレプリケーショングループを作成します。
クラスターが最小容量2インスタンスのAuto Scalingグループを使用するように構成します。

F. ElastiCache for Redisクラスターのレプリケーショングループを作成します。
クラスターでMulti-AZを有効にします。

9 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

9. A retail company is operating its ecommerce application on AWS. The application runs on Amazon EC2 instances behind an Application Load
Balancer (ALB). The company uses an Amazon RDS DB instance as the database backend. Amazon CloudFront is configured with one origin that
points to the ALB. Static content is cached. Amazon Route 53 is used to host all public zones.
After an update of the application, the ALB occasionally returns a 502 status code (Bad Gateway) error. The root cause is malformed HTTP
headers that are returned to the ALB. The webpage returns successfully when a solutions architect reloads the webpage immediately after the
error occurs.
While the company is working on the problem, the solutions architect needs to provide a custom error page instead of the standard ALB error
page to visitors.
Which combination of steps will meet this requirement with the LEAST amount of operational overhead? (Choose two.)
A. Create an Amazon S3 bucket. Configure the S3 bucket to host a static webpage. Upload the custom error pages to Amazon S3.
B. Create an Amazon CloudWatch alarm to invoke an AWS Lambda function if the ALB health check response Target.FailedHealthChecks is
greater than 0. Configure the Lambda function to modify the forwarding rule at the ALB to point to a publicly accessible web server.
C. Modify the existing Amazon Route 53 records by adding health checks. Configure a fallback target if the health check fails. Modify DNS
records to point to a publicly accessible webpage.
D. Create an Amazon CloudWatch alarm to invoke an AWS Lambda function if the ALB health check response Elb.InternalError is greater than
0. Configure the Lambda function to modify the forwarding rule at the ALB to point to a public accessible web server.
E. Add a custom error response by configuring a CloudFront custom error page. Modify DNS records to point to a publicly accessible web
page.

ある小売会社は、AWS上で自社のECアプリケーションを運用しています。そのアプリケーションは、Application Load Balancer (ALB) の背後にあるAmazon EC2インスタンス上で動作しています。同社はデータベースのバックエンドとしてAmazon RDS DBインスタンスを利用しています。Amazon CloudFrontはALBを指し示す単一のオリジンで構成されており、静的コンテンツはキャッシュされています。すべてのパブリックゾーンはAmazon Route 53を使用してホストされています。

アプリケーションの更新後、ALBが時々502ステータスコード(不正なゲートウェイ)のエラーを返すようになりました。根本原因はALBに返される不正なHTTPヘッダーです。エラー発生後すぐにソリューションアーキテクトがページをリロードすると、ウェブページは正常に返ってきます。

会社がこの問題に取り組んでいる間、ソリューションアーキテクトは訪問者に対して標準のALBエラーページの代わりにカスタムエラーページを提供する必要があります。

最小限の運用負荷でこの要件を満たすには、どの組み合わせの手順を選択すればよいでしょうか?(2つ選択してください。)

A. Amazon S3バケットを作成し、S3バケットを静的ウェブサイトのホスティング用に設定します。カスタムエラーページをAmazon S3にアップロードします。

B. ALBのヘルスチェック応答Target.FailedHealthChecksが0より大きい場合にAWS Lambda関数を呼び出すAmazon CloudWatchアラームを作成します。Lambda関数を設定し、ALBの転送ルールをパブリックにアクセス可能なウェブサーバーを指すように変更します。

C. 既存のAmazon Route 53レコードを変更し、ヘルスチェックを追加します。ヘルスチェックが失敗した場合の代替ターゲットを設定します。DNSレコードをパブリックにアクセス可能なウェブページを指すように変更します。

D. ALBのヘルスチェック応答Elb.InternalErrorが0より大きい場合にAWS Lambda関数を呼び出すAmazon CloudWatchアラームを作成します。Lambda関数を設定し、ALBの転送ルールをパブリックにアクセス可能なウェブサーバーを指すように変更します。

E. CloudFrontのカスタムエラーページを設定してカスタムエラーレスポンスを追加します。DNSレコードをパブリックにアクセス可能なウェブページを指すように変更します。

10 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

10. A company has many AWS accounts and uses AWS Organizations to manage all of them. A solutions architect must implement a solution that the
company can use to share a common network across multiple accounts.
The company’s infrastructure team has a dedicated infrastructure account that has a VPC. The infrastructure team must use this account to
manage the network. Individual accounts cannot have the ability to manage their own networks. However, individual accounts must be able to
create AWS resources within subnets.
Which combination of actions should the solutions architect perform to meet these requirements? (Choose two.)
A. Create a transit gateway in the infrastructure account.
B. Enable resource sharing from the AWS Organizations management account.
C. Create VPCs in each AWS account within the organization in AWS Organizations. Configure the VPCs to share the same CIDR range and
subnets as the VPC in the infrastructure account. Peer the VPCs in each individual account with the VPC in the infrastructure account.
D. Create a resource share in AWS Resource Access Manager in the infrastructure account. Select the speci c AWS Organizations OU that will
use the shared network. Select each subnet to associate with the resource share.
E. Create a resource share in AWS Resource Access Manager in the infrastructure account. Select the speci c AWS Organizations OU that will
use the shared network. Select each pre x list to associate with the resource share.

ある企業は多数のAWSアカウントを所有しており、それらすべてをAWS Organizationsで管理しています。ソリューションアーキテクトは、複数のアカウント間で共通のネットワークを共有できるソリューションを実装する必要があります。

この企業のインフラストラクチャチームは、VPCを持つ専用のインフラストラクチャアカウントを所有しています。インフラストラクチャチームはこのアカウントを使用してネットワークを管理する必要があります。個々のアカウントでは、独自のネットワークを管理する権限を持つことはできません。しかし、個々のアカウントでは、サブネット内にAWSリソースを作成できる必要があります。

これらの要件を満たすために、ソリューションアーキテクトはどの組み合わせのアクションを実行すべきでしょうか?(2つ選択してください。)

A. インフラストラクチャアカウントにトランジットゲートウェイを作成します。
B. AWS Organizationsの管理アカウントからリソース共有を有効にします。
C. AWS Organizations内の各AWSアカウントにVPCを作成します。これらのVPCを、インフラストラクチャアカウントのVPCと同じCIDR範囲とサブネットで共有するように設定します。各アカウントのVPCをインフラストラクチャアカウントのVPCとピアリングします。
D. インフラストラクチャアカウントのAWS Resource Access Managerでリソース共有を作成します。共有ネットワークを使用する特定のAWS Organizations OUを選択します。リソース共有に関連付ける各サブネットを選択します。
E. インフラストラクチャアカウントのAWS Resource Access Managerでリソース共有を作成します。共有ネットワークを使用する特定のAWS Organizations OUを選択します。リソース共有に関連付ける各プレフィックスリストを選択します。

11 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

11. A company wants to use a third-party software-as-a-service (SaaS) application. The third-party SaaS application is consumed through several API
calls. The third-party SaaS application also runs on AWS inside a VPC.
The company will consume the third-party SaaS application from inside a VPC. The company has internal security policies that mandate the use
of private connectivity that does not traverse the internet. No resources that run in the company VPC are allowed to be accessed from outside the
company’s VPC. All permissions must conform to the principles of least privilege.
Which solution meets these requirements?
A. Create an AWS PrivateLink interface VPC endpoint. Connect this endpoint to the endpoint service that the third-party SaaS application
provides. Create a security group to limit the access to the endpoint. Associate the security group with the endpoint.
B. Create an AWS Site-to-Site VPN connection between the third-party SaaS application and the company VPC. Configure network ACLs to
limit access across the VPN tunnels.
C. Create a VPC peering connection between the third-party SaaS application and the company VPUpdate route tables by adding the needed
routes for the peering connection.
D. Create an AWS PrivateLink endpoint service. Ask the third-party SaaS provider to create an interface VPC endpoint for this endpoint service.
Grant permissions for the endpoint service to the speci c account of the third-party SaaS provider.

ある企業が、サードパーティのソフトウェア・アズ・ア・サービス(SaaS)アプリケーションを利用したいと考えています。
サードパーティのSaaSアプリケーションは、複数のAPIコールを通じて利用されます。
また、このサードパーティのSaaSアプリケーションはAWS内のVPCで実行されています。

同社は、自社のVPC内からサードパーティのSaaSアプリケーションを利用します。
同社の内部セキュリティポリシーでは、インターネットを経由しないプライベート接続の使用が義務付けられています。
同社のVPCで実行されているリソースは、同社のVPCの外部からアクセスすることは一切許可されていません。
すべての権限は最小限の特権の原則に従わなければなりません。

これらの要件を満たすソリューションはどれですか?

A. AWS PrivateLinkインターフェースVPCエンドポイントを作成します。
このエンドポイントを、サードパーティのSaaSアプリケーションが提供するエンドポイントサービスに接続します。
エンドポイントへのアクセスを制限するセキュリティグループを作成し、そのセキュリティグループをエンドポイントに関連付けます。

B. サードパーティのSaaSアプリケーションと同社のVPCの間にAWSサイト間VPN接続を作成します。
VPNトンネルを介したアクセスを制限するためにネットワークACLを設定します。

C. サードパーティのSaaSアプリケーションと同社のVPCの間にVPCピアリング接続を作成します。
ピアリング接続に必要なルートを追加してルートテーブルを更新します。

D. AWS PrivateLinkエンドポイントサービスを作成します。
サードパーティのSaaSプロバイダーに、このエンドポイントサービスのためのインターフェースVPCエンドポイントを作成するよう依頼します。
サードパーティのSaaSプロバイダーの特定のアカウントに対して、エンドポイントサービスへの権限を付与します。

12 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

12. A company needs to implement a patching process for its servers. The on-premises servers and Amazon EC2 instances use a variety of tools to
perform patching. Management requires a single report showing the patch status of all the servers and instances.
Which set of actions should a solutions architect take to meet these requirements?
A. Use AWS Systems Manager to manage patches on the on-premises servers and EC2 instances. Use Systems Manager to generate patch
compliance reports.
B. Use AWS OpsWorks to manage patches on the on-premises servers and EC2 instances. Use Amazon QuickSight integration with OpsWorks
to generate patch compliance reports.
C. Use an Amazon EventBridge rule to apply patches by scheduling an AWS Systems Manager patch remediation job. Use Amazon Inspector
to generate patch compliance reports.
D. Use AWS OpsWorks to manage patches on the on-premises servers and EC2 instances. Use AWS X-Ray to post the patch status to AWS
Systems Manager OpsCenter to generate patch compliance reports.

ある企業がサーバーのパッチ適用プロセスを導入する必要があります。
オンプレミスサーバーとAmazon EC2インスタンスは、パッチ適用を行うためにさまざまなツールを使用しています。
管理側は、すべてのサーバーとインスタンスのパッチ状況を表示する単一のレポートを要求しています。
これらの要件を満たすために、ソリューションアーキテクトはどの一連のアクションを取るべきですか?

A. AWS Systems Managerを使用して、オンプレミスサーバーとEC2インスタンスのパッチを管理します。
Systems Managerを使用してパッチコンプライアンスレポートを生成します。

B. AWS OpsWorksを使用して、オンプレミスサーバーとEC2インスタンスのパッチを管理します。
Amazon QuickSightとOpsWorksの統合を使用してパッチコンプライアンスレポートを生成します。

C. Amazon EventBridgeルールを使用して、AWS Systems Managerパッチ修復ジョブをスケジュールすることでパッチを適用します。
Amazon Inspectorを使用してパッチコンプライアンスレポートを生成します。

D. AWS OpsWorksを使用して、オンプレミスサーバーとEC2インスタンスのパッチを管理します。
AWS X-Rayを使用してパッチステータスをAWS Systems Manager OpsCenterに送信し、パッチコンプライアンスレポートを生成します。

13 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

13. A company is running an application on several Amazon EC2 instances in an Auto Scaling group behind an Application Load Balancer. The load on
the application varies throughout the day, and EC2 instances are scaled in and out on a regular basis. Log files from the EC2 instances are copied
to a central Amazon S3 bucket every 15 minutes. The security team discovers that log files are missing from some of the terminated EC2
instances.
Which set of actions will ensure that log files are copied to the central S3 bucket from the terminated EC2 instances?
A. Create a script to copy log files to Amazon S3, and store the script in a file on the EC2 instance. Create an Auto Scaling lifecycle hook and
an Amazon EventBridge rule to detect lifecycle events from the Auto Scaling group. Invoke an AWS Lambda function on the
autoscaling:EC2_INSTANCE_TERMINATING transition to send ABANDON to the Auto Scaling group to prevent termination, run the script to
copy the log les, and terminate the instance using the AWS SDK.
B. Create an AWS Systems Manager document with a script to copy log files to Amazon S3. Create an Auto Scaling lifecycle hook and an
Amazon EventBridge rule to detect lifecycle events from the Auto Scaling group. Invoke an AWS Lambda function on the
autoscaling:EC2_INSTANCE_TERMINATING transition to call the AWS Systems Manager API SendCommand operation to run the document to
copy the log files and send CONTINUE to the Auto Scaling group to terminate the instance.
C. Change the log delivery rate to every 5 minutes. Create a script to copy log files to Amazon S3, and add the script to EC2 instance user
data. Create an Amazon EventBridge rule to detect EC2 instance termination. Invoke an AWS Lambda function from the EventBridge rule that
uses the AWS CLI to run the user-data script to copy the log files and terminate the instance.
D. Create an AWS Systems Manager document with a script to copy log files to Amazon S3. Create an Auto Scaling lifecycle hook that
publishes a message to an Amazon Simple Notification Service (Amazon SNS) topic. From the SNS notification, call the AWS Systems
Manager API SendCommand operation to run the document to copy the log files and send ABANDON to the Auto Scaling group to terminate
the instance.

ある会社が、Application Load Balancerの背後にあるAuto Scalingグループ内の複数のAmazon EC2インスタンス上でアプリケーションを実行しています。
アプリケーションの負荷は一日を通して変動し、EC2インスタンスは定期的にスケールインおよびスケールアウトされます。
EC2インスタンスからのログファイルは、15分ごとに中央のAmazon S3バケットにコピーされます。
セキュリティチームは、終了したEC2インスタンスの一部からログファイルが欠落していることを発見しました。
終了したEC2インスタンスからログファイルが中央のS3バケットにコピーされることを確実にするための一連のアクションはどれですか?

A. Amazon S3にログファイルをコピーするスクリプトを作成し、そのスクリプトをEC2インスタンス上のファイルに保存します。
Auto ScalingライフサイクルフックとAmazon EventBridgeルールを作成し、Auto Scalingグループからのライフサイクルイベントを検出します。
autoscaling:EC2_INSTANCE_TERMINATING遷移時にAWS Lambda関数を呼び出して、終了を防ぐためにABANDONをAuto Scalingグループに送信し、
スクリプトを実行してログファイルをコピーした後、AWS SDKを使用してインスタンスを終了します。

B. Amazon S3にログファイルをコピーするスクリプトを含むAWS Systems Managerドキュメントを作成します。
Auto ScalingライフサイクルフックとAmazon EventBridgeルールを作成し、Auto Scalingグループからのライフサイクルイベントを検出します。
autoscaling:EC2_INSTANCE_TERMINATING遷移時にAWS Lambda関数を呼び出して、AWS Systems Manager API SendCommand操作を呼び出し、
ドキュメントを実行してログファイルをコピーし、CONTINUEをAuto Scalingグループに送信してインスタンスを終了します。

C. ログ配信間隔を5分ごとに変更します。
Amazon S3にログファイルをコピーするスクリプトを作成し、そのスクリプトをEC2インスタンスのユーザーデータに追加します。
EC2インスタンスの終了を検出するAmazon EventBridgeルールを作成します。
EventBridgeルールからAWS Lambda関数を呼び出し、AWS CLIを使用してユーザーデータスクリプトを実行してログファイルをコピーし、インスタンスを終了します。

D. Amazon S3にログファイルをコピーするスクリプトを含むAWS Systems Managerドキュメントを作成します。
Amazon Simple Notification Service (Amazon SNS)トピックにメッセージを公開するAuto Scalingライフサイクルフックを作成します。
SNS通知から、AWS Systems Manager API SendCommand操作を呼び出してドキュメントを実行し、ログファイルをコピーした後、
ABANDONをAuto Scalingグループに送信してインスタンスを終了します。

14 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

14. A company is using multiple AWS accounts. The DNS records are stored in a private hosted zone for Amazon Route 53 in Account A. The
company’s applications and databases are running in Account B.
A solutions architect will deploy a two-tier application in a new VPC. To simplify the configuration, the db.example.com CNAME record set for the
Amazon RDS endpoint was created in a private hosted zone for Amazon Route 53.
During deployment, the application failed to start. Troubleshooting revealed that db.example.com is not resolvable on the Amazon EC2 instance.
The solutions architect con rmed that the record set was created correctly in Route 53.
Which combination of steps should the solutions architect take to resolve this issue? (Choose two.)
A. Deploy the database on a separate EC2 instance in the new VPC. Create a record set for the instance’s private IP in the private hosted zone.
B. Use SSH to connect to the application tier EC2 instance. Add an RDS endpoint IP address to the /etc/resolv.conf file.
C. Create an authorization to associate the private hosted zone in Account A with the new VPC in Account B.
D. Create a private hosted zone for the example com domain in Account B. Configure Route 53 replication between AWS accounts.
E. Associate a new VPC in Account B with a hosted zone in Account A. Delete the association authorization in Account A.

とある企業は複数のAWSアカウントを利用しています。DNSレコードはアカウントAのAmazon Route 53のプライベートホストゾーンに保存されています。この企業のアプリケーションとデータベースはアカウントBで稼働しています。
ソリューションアーキテクトは新しいVPCに2層アプリケーションをデプロイしようとしています。設定を簡素化するため、Amazon RDSエンドポイント用のdb.example.com CNAMEレコードセットがAmazon Route 53のプライベートホストゾーンに作成されました。
デプロイ中、アプリケーションが起動に失敗しました。トラブルシューティングの結果、Amazon EC2インスタンス上でdb.example.comが解決できないことが判明しました。
ソリューションアーキテクトはRoute 53でレコードセットが正しく作成されていることを確認しました。
この問題を解決するためにソリューションアーキテクトが取るべきステップの組み合わせはどれですか?(2つ選択してください)
A. 新しいVPC内の別のEC2インスタンスにデータベースをデプロイする。プライベートホストゾーンにインスタンスのプライベートIP用レコードセットを作成する。
B. SSHを使ってアプリケーション層EC2インスタンスに接続する。/etc/resolv.confファイルにRDSエンドポイントIPアドレスを追加する。
C. アカウントAのプライベートホストゾーンとアカウントBの新しいVPCを関連付ける承認を作成する。
D. アカウントBにexample.comドメイン用のプライベートホストゾーンを作成する。AWSアカウント間でRoute 53レプリケーションを設定する。
E. アカウントBの新しいVPCをアカウントAのホストゾーンに関連付ける。アカウントAの関連付け承認を削除する。

15 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

15. A company used Amazon EC2 instances to deploy a web eet to host a blog site. The EC2 instances are behind an Application Load Balancer
(ALB) and are configured in an Auto Scaling group. The web application stores all blog content on an Amazon EFS volume.
The company recently added a feature for bloggers to add video to their posts, attracting 10 times the previous user traffic. At peak times of day,
users report buffering and timeout issues while attempting to reach the site or watch videos.
Which is the MOST cost-e cient and scalable deployment that will resolve the issues for users?
A. Reconfigure Amazon EFS to enable maximum I/O.
B. Update the blog site to use instance store volumes for storage. Copy the site contents to the volumes at launch and to Amazon S3 at
shutdown.
C. Configure an Amazon CloudFront distribution. Point the distribution to an S3 bucket, and migrate the videos from EFS to Amazon S3.
D. Set up an Amazon CloudFront distribution for all site contents, and point the distribution at the ALB.

ある企業は、ブログサイトをホストするためにAmazon EC2インスタンスを使用してWebアプリケーションを展開しました。EC2インスタンスはApplication Load Balancer(ALB)の背後にあり、Auto Scalingグループで構成されています。このWebアプリケーションは、すべてのブログコンテンツをAmazon EFSボリュームに保存しています。

最近、企業はブロガーが投稿に動画を追加できる機能を追加したため、以前の10倍のユーザートラフィックを引き寄せました。一日のピーク時には、ユーザーがサイトにアクセスしたり動画を視聴したりしようとすると、バッファリングやタイムアウトの問題が報告されています。

ユーザーの問題を解決するために、最もコスト効率が高くスケーラブルな展開はどれですか?

A. Amazon EFSを再構成して、最大I/Oを有効にします。
B. ブログサイトを更新して、ストレージにインスタンスストアボリュームを使用します。起動時にサイトコンテンツをボリュームにコピーし、シャットダウン時にAmazon S3にコピーします。
C. Amazon CloudFrontディストリビューションを設定します。ディストリビューションをS3バケットにポイントし、動画をEFSからAmazon S3に移行します。
D. すべてのサイトコンテンツに対してAmazon CloudFrontディストリビューションを設定し、ディストリビューションをALBにポイントします。

16 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

16. A company with global o ces has a single 1 Gbps AWS Direct Connect connection to a single AWS Region. The company’s on-premises network
uses the connection to communicate with the company’s resources in the AWS Cloud. The connection has a single private virtual interface that
connects to a single VPC.
A solutions architect must implement a solution that adds a redundant Direct Connect connection in the same Region. The solution also must
provide connectivity to other Regions through the same pair of Direct Connect connections as the company expands into other Regions.
Which solution meets these requirements?
A. Provision a Direct Connect gateway. Delete the existing private virtual interface from the existing connection. Create the second Direct
Connect connection. Create a new private virtual interface on each connection, and connect both private virtual interfaces to the Direct
Connect gateway. Connect the Direct Connect gateway to the single VPC.
B. Keep the existing private virtual interface. Create the second Direct Connect connection. Create a new private virtual interface on the new
connection, and connect the new private virtual interface to the single VPC.
C. Keep the existing private virtual interface. Create the second Direct Connect connection. Create a new public virtual interface on the new
connection, and connect the new public virtual interface to the single VPC.
D. Provision a transit gateway. Delete the existing private virtual interface from the existing connection. Create the second Direct Connect
connection. Create a new private virtual interface on each connection, and connect both private virtual interfaces to the transit gateway.
Associate the transit gateway with the single VPC.

以下是将AWS问题完整翻译成日文的内容:

グローバルオフィスを持つ企業は、単一のAWSリージョンに対して1GbpsのAWS Direct Connect接続を1本持っています。企業のオンプレミスネットワークは、この接続を使用してAWSクラウド内のリソースと通信しています。この接続には単一のプライベート仮想インターフェースがあり、単一のVPCに接続されています。

ソリューションアーキテクトは、同じリージョンに冗長なDirect Connect接続を追加するソリューションを実装する必要があります。また、企業が他のリージョンに拡張する際に、同じDirect Connect接続のペアを通じて他のリージョンへの接続を提供する必要があります。

これらの要件を満たすソリューションはどれでしょうか?

A. Direct Connectゲートウェイをプロビジョニングします。既存の接続から既存のプライベート仮想インターフェースを削除します。2つ目のDirect Connect接続を作成します。各接続に新しいプライベート仮想インターフェースを作成し、両方のプライベート仮想インターフェースをDirect Connectゲートウェイに接続します。Direct Connectゲートウェイを単一のVPCに接続します。

B. 既存のプライベート仮想インターフェースを保持します。2つ目のDirect Connect接続を作成します。新しい接続に新しいプライベート仮想インターフェースを作成し、新しいプライベート仮想インターフェースを単一のVPCに接続します。

C. 既存のプライベート仮想インターフェースを保持します。2つ目のDirect Connect接続を作成します。新しい接続に新しいパブリック仮想インターフェースを作成し、新しいパブリック仮想インターフェースを単一のVPCに接続します。

D. トランジットゲートウェイをプロビジョニングします。既存の接続から既存のプライベート仮想インターフェースを削除します。2つ目のDirect Connect接続を作成します。各接続に新しいプライベート仮想インターフェースを作成し、両方のプライベート仮想インターフェースをトランジットゲートウェイに接続します。トランジットゲートウェイを単一のVPCに関連付けます。

17 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

17. A company has a web application that allows users to upload short videos. The videos are stored on Amazon EBS volumes and analyzed by
custom recognition software for categorization.
The website contains static content that has variable traffic with peaks in certain months. The architecture consists of Amazon EC2 instances
running in an Auto Scaling group for the web application and EC2 instances running in an Auto Scaling group to process an Amazon SQS queue.
The company wants to re-architect the application to reduce operational overhead using AWS managed services where possible and remove
dependencies on third-party software.
Which solution meets these requirements?
A. Use Amazon ECS containers for the web application and Spot instances for the Auto Scaling group that processes the SQS queue. Replace
the custom software with Amazon Rekognition to categorize the videos.
B. Store the uploaded videos in Amazon EFS and mount the file system to the EC2 instances for the web application. Process the SQS queue
with an AWS Lambda function that calls the Amazon Rekognition API to categorize the videos.
C. Host the web application in Amazon S3. Store the uploaded videos in Amazon S3. Use S3 event notification to publish events to the SQS
queue. Process the SQS queue with an AWS Lambda function that calls the Amazon Rekognition API to categorize the videos.
D. Use AWS Elastic Beanstalk to launch EC2 instances in an Auto Scaling group for the web application and launch a worker environment to
process the SQS queue. Replace the custom software with Amazon Rekognition to categorize the videos.

ある企業は、ユーザーが短い動画をアップロードできるウェブアプリケーションを所有しています。
動画はAmazon EBSボリュームに保存され、カスタム認識ソフトウェアによって分析されカテゴリー分けされます。
ウェブサイトには、特定の月にピークがある変動するトラフィックをもつ静的コンテンツが含まれています。
アーキテクチャは、ウェブアプリケーション用のAuto Scalingグループで実行されるAmazon EC2インスタンスと、
Amazon SQSキューを処理するAuto Scalingグループで実行されるEC2インスタンスで構成されています。

この企業は、可能な限りAWSマネージドサービスを利用して運用オーバーヘッドを削減し、
サードパーティ製ソフトウェアへの依存をなくすために、アプリケーションを再構築したいと考えています。
これらの要件を満たすソリューションはどれですか?

A. ウェブアプリケーションにはAmazon ECSコンテナを使用し、SQSキューを処理するAuto ScalingグループにはSpotインスタンスを使用します。
動画のカテゴリー分けにはカスタムソフトウェアをAmazon Rekognitionに置き換えます。

B. アップロードされた動画をAmazon EFSに保存し、ウェブアプリケーション用のEC2インスタンスにファイルシステムをマウントします。
SQSキューは、Amazon Rekognition APIを呼び出して動画をカテゴリー分けするAWS Lambda関数で処理します。

C. ウェブアプリケーションをAmazon S3でホストします。アップロードされた動画をAmazon S3に保存します。
S3イベント通知を使用してイベントをSQSキューに公開します。
SQSキューは、Amazon Rekognition APIを呼び出して動画をカテゴリー分けするAWS Lambda関数で処理します。

D. ウェブアプリケーション用にAuto ScalingグループでEC2インスタンスを起動するためAWS Elastic Beanstalkを使用し、
SQSキューを処理するワーカー環境を起動します。
動画のカテゴリー分けにはカスタムソフトウェアをAmazon Rekognitionに置き換えます。

18 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

18. A company has a serverless application comprised of Amazon CloudFront, Amazon API Gateway, and AWS Lambda functions. The current
deployment process of the application code is to create a new version number of the Lambda function and run an AWS CLI script to update. If the
new function version has errors, another CLI script reverts by deploying the previous working version of the function. The company would like to
decrease the time to deploy new versions of the application logic provided by the Lambda functions, and also reduce the time to detect and revert
when errors are identi ed.
How can this be accomplished?
A. Create and deploy nested AWS CloudFormation stacks with the parent stack consisting of the AWS CloudFront distribution and API
Gateway, and the child stack containing the Lambda function. For changes to Lambda, create an AWS CloudFormation change set and deploy;
if errors are triggered, revert the AWS CloudFormation change set to the previous version.
B. Use AWS SAM and built-in AWS CodeDeploy to deploy the new Lambda version, gradually shift traffic to the new version, and use pre-traffic
and post-traffic test functions to verify code. Rollback if Amazon CloudWatch alarms are triggered.
C. Refactor the AWS CLI scripts into a single script that deploys the new Lambda version. When deployment is completed, the script tests
execute. If errors are detected, revert to the previous Lambda version.
D. Create and deploy an AWS CloudFormation stack that consists of a new API Gateway endpoint that references the new Lambda version.
Change the CloudFront origin to the new API Gateway endpoint, monitor errors and if detected, change the AWS CloudFront origin to the
previous API Gateway endpoint.

ある企業において、Amazon CloudFront、Amazon API Gateway、およびAWS Lambda関数で構成されるサーバーレスアプリケーションが稼働しています。
現在のアプリケーションコードのデプロイプロセスでは、Lambda関数の新しいバージョン番号を作成し、AWS CLIスクリプトを実行して更新を行っています。
もし新しい関数バージョンにエラーが発生した場合、別のCLIスクリプトを実行して以前の正常に動作していたバージョンに戻しています。
この企業では、Lambda関数によって提供されるアプリケーションロジックの新しいバージョンのデプロイにかかる時間を短縮し、さらにエラーの検出と復旧にかかる時間も削減したいと考えています。

これを実現するにはどうすればよいでしょうか?
A. 親スタックにAWS CloudFrontディストリビューションとAPI Gatewayを含み、子スタックにLambda関数を含むネストされたAWS CloudFormationスタックを作成し、デプロイします。
Lambdaに変更を加える場合は、AWS CloudFormation変更セットを作成してデプロイし、エラーが発生した場合は変更セットを以前のバージョンに戻します。

B. AWS SAMと組み込みのAWS CodeDeployを使用して新しいLambdaバージョンをデプロイし、トラフィックを徐々に新しいバージョンに移行し、
プレトラフィックおよびポストトラフィックテスト関数を使用してコードを検証します。
Amazon CloudWatchアラームがトリガーされた場合はロールバックします。

C. AWS CLIスクリプトを1つのスクリプトにリファクタリングし、新しいLambdaバージョンをデプロイします。
デプロイが完了すると、スクリプトテストが実行されます。エラーが検出された場合は、以前のLambdaバージョンに戻します。

D. 新しいLambdaバージョンを参照する新しいAPI Gatewayエンドポイントで構成されるAWS CloudFormationスタックを作成し、デプロイします。
CloudFrontオリジンを新しいAPI Gatewayエンドポイントに変更し、エラーを監視して検出された場合は、AWS CloudFrontオリジンを以前のAPI Gatewayエンドポイントに変更します。

19 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

19. A company is planning to store a large number of archived documents and make the documents available to employees through the corporate
intranet. Employees will access the system by connecting through a client VPN service that is attached to a VPC. The data must not be accessible
to the public.
The documents that the company is storing are copies of data that is held on physical media elsewhere. The number of requests will be low.
Availability and speed of retrieval are not concerns of the company.
Which solution will meet these requirements at the LOWEST cost?
A. Create an Amazon S3 bucket. Configure the S3 bucket to use the S3 One Zone-Infrequent Access (S3 One Zone-IA) storage class as default.
Configure the S3 bucket for website hosting. Create an S3 interface endpoint. Configure the S3 bucket to allow access only through that
endpoint.
B. Launch an Amazon EC2 instance that runs a web server. Attach an Amazon Elastic File System (Amazon EFS) file system to store the
archived data in the EFS One Zone-Infrequent Access (EFS One Zone-IA) storage class Configure the instance security groups to allow access
only from private networks.
C. Launch an Amazon EC2 instance that runs a web server Attach an Amazon Elastic Block Store (Amazon EBS) volume to store the archived
data. Use the Cold HDD (sc1) volume type. Configure the instance security groups to allow access only from private networks.
D. Create an Amazon S3 bucket. Configure the S3 bucket to use the S3 Glacier Deep Archive storage class as default. Configure the S3 bucket
for website hosting. Create an S3 interface endpoint. Configure the S3 bucket to allow access only through that endpoint.

ある会社では、大量のアーカイブ文書を保存し、それらの文書を社内イントラネットを通じて従業員が利用できるようにすることを計画しています。従業員は、VPCに接続されたクライアントVPNサービスを介してシステムにアクセスします。データは一般に公開されないようにする必要があります。

この会社が保存する文書は、他の場所の物理メディアに保存されているデータのコピーです。リクエスト数は少ないと予想されます。可用性と検索速度は、この会社にとって重要な懸念事項ではありません。

これらの要件を最低コストで満たす解決策はどれですか?

A. Amazon S3バケットを作成する。S3バケットのデフォルトストレージクラスとしてS3 One Zone-Infrequent Access (S3 One Zone-IA)を設定する。S3バケットをウェブサイトホスティング用に設定する。S3インターフェイスエンドポイントを作成する。S3バケットがそのエンドポイント経由でのみアクセスを許可するように設定する。

B. Webサーバーを実行するAmazon EC2インスタンスを起動する。アーカイブデータを保存するためにAmazon Elastic File System (Amazon EFS)ファイルシステムを接続し、EFS One Zone-Infrequent Access (EFS One Zone-IA)ストレージクラスを使用する。インスタンスのセキュリティグループをプライベートネットワークからのみアクセスを許可するように設定する。

C. Webサーバーを実行するAmazon EC2インスタンスを起動する。アーカイブデータを保存するためにAmazon Elastic Block Store (Amazon EBS)ボリュームを接続する。Cold HDD (sc1)ボリュームタイプを使用する。インスタンスのセキュリティグループをプライベートネットワークからのみアクセスを許可するように設定する。

D. Amazon S3バケットを作成する。S3バケットのデフォルトストレージクラスとしてS3 Glacier Deep Archiveを設定する。S3バケットをウェブサイトホスティング用に設定する。S3インターフェイスエンドポイントを作成する。S3バケットがそのエンドポイント経由でのみアクセスを許可するように設定する。

20 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

20. A company is using an on-premises Active Directory service for user authentication. The company wants to use the same authentication service
to sign in to the company’s AWS accounts, which are using AWS Organizations. AWS Site-to-Site VPN connectivity already exists between the on
premises environment and all the company’s AWS accounts.
The company’s security policy requires conditional access to the accounts based on user groups and roles. User identities must be managed in a
single location.
Which solution will meet these requirements?
A. Configure AWS IAM Identity Center (AWS Single Sign-On) to connect to Active Directory by using SAML 2.0. Enable automatic provisioning
by using the System for Cross-domain Identity Management (SCIM) v2.0 protocol. Grant access to the AWS accounts by using attribute-based
access controls (ABACs).
B. Configure AWS IAM Identity Center (AWS Single Sign-On) by using IAM Identity Center as an identity source. Enable automatic provisioning
by using the System for Cross-domain Identity Management (SCIM) v2.0 protocol. Grant access to the AWS accounts by using IAM Identity
Center permission sets.
C. In one of the company’s AWS accounts, configure AWS Identity and Access Management (IAM) to use a SAML 2.0 identity provider.
Provision IAM users that are mapped to the federated users. Grant access that corresponds to appropriate groups in Active Directory. Grant
access to the required AWS accounts by using cross-account IAM users.
D. In one of the company’s AWS accounts, configure AWS Identity and Access Management (IAM) to use an OpenID Connect (OIDC) identity
provider. Provision IAM roles that grant access to the AWS account for the federated users that correspond to appropriate groups in Active
Directory. Grant access to the required AWS accounts by using cross-account IAM roles.

ある企業がオンプレミスのActive Directoryサービスをユーザー認証に使用している。この企業は、AWS Organizationsを使用している同社のAWSアカウントに同じ認証サービスを使ってサインインしたいと考えている。オンプレミス環境と全ての同社AWSアカウント間には既にAWSサイト間VPN接続が存在する。

同社のセキュリティポリシーでは、ユーザーグループとロールに基づいた条件付きアクセスがアカウントに必要とされている。ユーザーIDは単一の場所で管理されなければならない。

これらの要件を満たすソリューションはどれか?

A. AWS IAM Identity Center (AWSシングルサインオン)をSAML 2.0を使用してActive Directoryに接続するように設定する。System for Cross-domain Identity Management (SCIM) v2.0プロトコルを使用して自動プロビジョニングを有効にする。属性ベースのアクセス制御(ABACs)を使用してAWSアカウントへのアクセスを許可する。

B. IAM Identity CenterをIDソースとして使用してAWS IAM Identity Center (AWSシングルサインオン)を設定する。System for Cross-domain Identity Management (SCIM) v2.0プロトコルを使用して自動プロビジョニングを有効にする。IAM Identity Centerのアクセス許可セットを使用してAWSアカウントへのアクセスを許可する。

C. 同社のAWSアカウントの1つで、AWS Identity and Access Management (IAM)をSAML 2.0 IDプロバイダーを使用するように設定する。フェデレーティッドユーザーにマッピングされたIAMユーザーをプロビジョニングする。Active Directoryの適切なグループに対応するアクセスを許可する。クロスアカウントIAMユーザーを使用して必要なAWSアカウントへのアクセスを許可する。

D. 同社のAWSアカウントの1つで、AWS Identity and Access Management (IAM)をOpenID Connect (OIDC) IDプロバイダーを使用するように設定する。Active Directoryの適切なグループに対応するフェデレーティッドユーザーにAWSアカウントへのアクセスを許可するIAMロールをプロビジョニングする。クロスアカウントIAMロールを使用して必要なAWSアカウントへのアクセスを許可する。

21 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

21. A software company has deployed an application that consumes a REST API by using Amazon API Gateway, AWS Lambda functions, and an
Amazon DynamoDB table. The application is showing an increase in the number of errors during PUT requests. Most of the PUT calls come from a
small number of clients that are authenticated with speci c API keys.
A solutions architect has identi ed that a large number of the PUT requests originate from one client. The API is noncritical, and clients can
tolerate retries of unsuccessful calls. However, the errors are displayed to customers and are causing damage to the API’s reputation.
What should the solutions architect recommend to improve the customer experience?
A. Implement retry logic with exponential backoff and irregular variation in the client application. Ensure that the errors are caught and
handled with descriptive error messages.
B. Implement API throttling through a usage plan at the API Gateway level. Ensure that the client application handles code 429 replies without
error.
C. Turn on API caching to enhance responsiveness for the production stage. Run 10-minute load tests. Verify that the cache capacity is
appropriate for the workload.
D. Implement reserved concurrency at the Lambda function level to provide the resources that are needed during sudden increases in traffic.

あるソフトウェア会社は、Amazon API Gateway、AWS Lambda関数、およびAmazon DynamoDBテーブルを使用してREST APIを消費するアプリケーションをデプロイしました。
そのアプリケーションは、PUTリクエスト中のエラー数の増加を示しています。
ほとんどのPUT呼び出しは、特定のAPIキーで認証された少数のクライアントから来ています。
ソリューションアーキテクトは、多くのPUTリクエストが1つのクライアントから発生していることを特定しました。
このAPIは非クリティカルであり、クライアントは失敗した呼び出しの再試行に耐えることができます。
しかし、エラーが顧客に表示され、APIの評判に損害を与えています。
顧客体験を改善するために、ソリューションアーキテクトは何を推奨すべきですか?
A. クライアントアプリケーションで指数バックオフと不規則な変動を伴う再試行ロジックを実装します。エラーが捕捉され、説明的なエラーメッセージで処理されるようにします。
B. API Gatewayレベルで使用プランを通じてAPIスロットリングを実装します。クライアントアプリケーションがエラーなしでコード429の応答を処理するようにします。
C. APIキャッシュを有効にして、プロダクションステージの応答性を向上させます。10分間の負荷テストを実行します。キャッシュ容量がワークロードに適していることを確認します。
D. Lambda関数レベルで予約済みコンカレンシーを実装し、トラフィックの急増時に必要なリソースを提供します。

22 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

22. A company is running a data-intensive application on AWS. The application runs on a cluster of hundreds of Amazon EC2 instances. A shared le
system also runs on several EC2 instances that store 200 TB of data. The application reads and modi es the data on the shared file system and
generates a report. The job runs once monthly, reads a subset of the files from the shared file system, and takes about 72 hours to complete. The
compute instances scale in an Auto Scaling group, but the instances that host the shared file system run continuously. The compute and storage
instances are all in the same AWS Region.
A solutions architect needs to reduce costs by replacing the shared file system instances. The file system must provide high performance access
to the needed data for the duration of the 72-hour run.
Which solution will provide the LARGEST overall cost reduction while meeting these requirements?
A. Migrate the data from the existing shared file system to an Amazon S3 bucket that uses the S3 Intelligent-Tiering storage class. Before the
job runs each month, use Amazon FSx for Lustre to create a new file system with the data from Amazon S3 by using lazy loading. Use the new
file system as the shared storage for the duration of the job. Delete the file system when the job is complete.
B. Migrate the data from the existing shared file system to a large Amazon Elastic Block Store (Amazon EBS) volume with Multi-Attach
enabled. Attach the EBS volume to each of the instances by using a user data script in the Auto Scaling group launch template. Use the EBS
volume as the shared storage for the duration of the job. Detach the EBS volume when the job is complete
C. Migrate the data from the existing shared file system to an Amazon S3 bucket that uses the S3 Standard storage class. Before the job runs
each month, use Amazon FSx for Lustre to create a new file system with the data from Amazon S3 by using batch loading. Use the new le
system as the shared storage for the duration of the job. Delete the file system when the job is complete.
D. Migrate the data from the existing shared file system to an Amazon S3 bucket. Before the job runs each month, use AWS Storage Gateway
to create a file gateway with the data from Amazon S3. Use the file gateway as the shared storage for the job. Delete the file gateway when the
job is complete.

ある企業がAWS上でデータ集約型のアプリケーションを実行しています。このアプリケーションは数百台のAmazon EC2インスタンスから成るクラスタ上で動作しています。
また、200TBのデータを格納する共有ファイルシステムも複数のEC2インスタンス上で稼働しています。アプリケーションは共有ファイルシステム上のデータを読み書きし、レポートを生成します。
このジョブは月に1度実行され、共有ファイルシステムからファイルの一部を読み取り、完了までに約72時間を要します。
コンピュートインスタンスはAuto Scalingグループ内でスケールしますが、共有ファイルシステムをホストするインスタンスは常時稼働しています。コンピュートとストレージのインスタンスはすべて同じAWSリージョン内にあります。
ソリューションアーキテクトは、共有ファイルシステムインスタンスを置き換えることでコスト削減を図る必要があります。ファイルシステムは72時間の実行期間中、必要なデータへの高性能アクセスを提供しなければなりません。
これらの要件を満たしつつ、全体のコストを最大限削減できるソリューションはどれでしょうか?

A. 既存の共有ファイルシステムからAmazon S3バケット(S3 Intelligent-Tieringストレージクラス使用)にデータを移行します。毎月のジョブ実行前に、Amazon FSx for Lustreを使用してS3データから遅延ロード方式で新しいファイルシステムを作成します。ジョブ実行期間中はこの新しいファイルシステムを共有ストレージとして使用し、ジョブ完了後にファイルシステムを削除します。

B. 既存の共有ファイルシステムからマルチアタッチ対応の大容量Amazon Elastic Block Store(Amazon EBS)ボリュームにデータを移行します。Auto Scalingグループの起動テンプレート内のユーザーデータスクリプトを使用して、EBSボリュームを各インスタンスにアタッチします。ジョブ実行期間中はこのEBSボリュームを共有ストレージとして使用し、ジョブ完了後にボリュームをデタッチします。

C. 既存の共有ファイルシステムからAmazon S3バケット(S3 Standardストレージクラス使用)にデータを移行します。毎月のジョブ実行前に、Amazon FSx for Lustreを使用してS3データからバッチロード方式で新しいファイルシステムを作成します。ジョブ実行期間中はこの新しいファイルシステムを共有ストレージとして使用し、ジョブ完了後にファイルシステムを削除します。

D. 既存の共有ファイルシステムからAmazon S3バケットにデータを移行します。毎月のジョブ実行前に、AWS Storage Gatewayを使用してS3データからファイルゲートウェイを作成します。ジョブ実行期間中はこのファイルゲートウェイを共有ストレージとして使用し、ジョブ完了後にファイルゲートウェイを削除します。

23 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

23. A company is developing a new service that will be accessed using TCP on a static port. A solutions architect must ensure that the service is
highly available, has redundancy across Availability Zones, and is accessible using the DNS name my.service.com, which is publicly accessible.
The service must use xed address assignments so other companies can add the addresses to their allow lists.
Assuming that resources are deployed in multiple Availability Zones in a single Region, which solution will meet these requirements?
A. Create Amazon EC2 instances with an Elastic IP address for each instance. Create a Network Load Balancer (NLB) and expose the static
TCP port. Register EC2 instances with the NLB. Create a new name server record set named my.service.com, and assign the Elastic IP
addresses of the EC2 instances to the record set. Provide the Elastic IP addresses of the EC2 instances to the other companies to add to their
allow lists.
B. Create an Amazon ECS cluster and a service de nition for the application. Create and assign public IP addresses for the ECS cluster. Create
a Network Load Balancer (NLB) and expose the TCP port. Create a target group and assign the ECS cluster name to the NLCreate a new A
record set named my.service.com, and assign the public IP addresses of the ECS cluster to the record set. Provide the public IP addresses of
the ECS cluster to the other companies to add to their allow lists.
C. Create Amazon EC2 instances for the service. Create one Elastic IP address for each Availability Zone. Create a Network Load Balancer
(NLB) and expose the assigned TCP port. Assign the Elastic IP addresses to the NLB for each Availability Zone. Create a target group and
register the EC2 instances with the NLB. Create a new A (alias) record set named my.service.com, and assign the NLB DNS name to the record
set.
D. Create an Amazon ECS cluster and a service de nition for the application. Create and assign public IP address for each host in the cluster.
Create an Application Load Balancer (ALB) and expose the static TCP port. Create a target group and assign the ECS service de nition name
to the ALB. Create a new CNAME record set and associate the public IP addresses to the record set. Provide the Elastic IP addresses of the
Amazon EC2 instances to the other companies to add to their allow lists.

以下是对AWS问题的完整日文翻译:

ある会社が、静的ポートでTCPを使用してアクセスされる新しいサービスを開発しています。ソリューションアーキテクトは、そのサービスが高可用性であり、複数のアベイラビリティーゾーンに冗長性を持ち、公開アクセス可能なDNS名my.service.comを使用してアクセス可能であることを保証する必要があります。サービスは固定アドレス割り当てを使用する必要があり、他の会社がそれらのアドレスを許可リストに追加できるようにする必要があります。

リソースが単一リージョン内の複数のアベイラビリティーゾーンにデプロイされていると仮定した場合、これらの要件を満たすソリューションはどれですか?

A. 各インスタンスにElastic IPアドレスを割り当てたAmazon EC2インスタンスを作成します。Network Load Balancer (NLB)を作成し、静的なTCPポートを公開します。EC2インスタンスをNLBに登録します。my.service.comという名前の新しいネームサーバーレコードセットを作成し、EC2インスタンスのElastic IPアドレスをレコードセットに割り当てます。他の会社が許可リストに追加できるように、EC2インスタンスのElastic IPアドレスを提供します。

B. Amazon ECSクラスターとアプリケーションのサービス定義を作成します。ECSクラスターにパブリックIPアドレスを作成して割り当てます。Network Load Balancer (NLB)を作成し、TCPポートを公開します。ターゲットグループを作成し、ECSクラスター名をNLBに割り当てます。my.service.comという名前の新しいAレコードセットを作成し、ECSクラスターのパブリックIPアドレスをレコードセットに割り当てます。他の会社が許可リストに追加できるように、ECSクラスターのパブリックIPアドレスを提供します。

C. サービスのためのAmazon EC2インスタンスを作成します。各アベイラビリティーゾーンに対して1つのElastic IPアドレスを作成します。Network Load Balancer (NLB)を作成し、割り当てられたTCPポートを公開します。各アベイラビリティーゾーンに対してElastic IPアドレスをNLBに割り当てます。ターゲットグループを作成し、EC2インスタンスをNLBに登録します。my.service.comという名前の新しいA(エイリアス)レコードセットを作成し、NLBのDNS名をレコードセットに割り当てます。

D. Amazon ECSクラスターとアプリケーションのサービス定義を作成します。クラスター内の各ホストにパブリックIPアドレスを作成して割り当てます。Application Load Balancer (ALB)を作成し、静的なTCPポートを公開します。ターゲットグループを作成し、ECSサービス定義名をALBに割り当てます。新しいCNAMEレコードセットを作成し、パブリックIPアドレスをレコードセットに関連付けます。他の会社が許可リストに追加できるように、Amazon EC2インスタンスのElastic IPアドレスを提供します。

24 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

24. A company uses an on-premises data analytics platform. The system is highly available in a fully redundant configuration across 12 servers in the
company’s data center.
The system runs scheduled jobs, both hourly and daily, in addition to one-time requests from users. Scheduled jobs can take between 20 minutes
and 2 hours to nish running and have tight SLAs. The scheduled jobs account for 65% of the system usage. User jobs typically nish running in
less than 5 minutes and have no SLA. The user jobs account for 35% of system usage. During system failures, scheduled jobs must continue to
meet SLAs. However, user jobs can be delayed.
A solutions architect needs to move the system to Amazon EC2 instances and adopt a consumption-based model to reduce costs with no long
term commitments. The solution must maintain high availability and must not affect the SLAs.
Which solution will meet these requirements MOST cost-effectively?
A. Split the 12 instances across two Availability Zones in the chosen AWS Region. Run two instances in each Availability Zone as On-Demand
Instances with Capacity Reservations. Run four instances in each Availability Zone as Spot Instances.
B. Split the 12 instances across three Availability Zones in the chosen AWS Region. In one of the Availability Zones, run all four instances as
On-Demand Instances with Capacity Reservations. Run the remaining instances as Spot Instances.
C. Split the 12 instances across three Availability Zones in the chosen AWS Region. Run two instances in each Availability Zone as On-Demand
Instances with a Savings Plan. Run two instances in each Availability Zone as Spot Instances.
D. Split the 12 instances across three Availability Zones in the chosen AWS Region. Run three instances in each Availability Zone as On
Demand Instances with Capacity Reservations. Run one instance in each Availability Zone as a Spot Instance.

ある企業がオンプレミスのデータ分析プラットフォームを使用しています。そのシステムは、同社のデータセンターにある12台のサーバーで完全に冗長化された構成で高可用性を実現しています。

このシステムは、ユーザーからの随時リクエストに加え、毎時および毎日スケジュールされたジョブを実行します。スケジュールされたジョブは20分から2時間かかる場合があり、厳格なSLAがあります。スケジュールされたジョブはシステム使用率の65%を占めます。ユーザージョブは通常5分以内で終了し、SLAはありません。ユーザージョブはシステム使用率の35%を占めます。システム障害時でも、スケジュールされたジョブはSLAを遵守する必要があります。ただし、ユーザージョブは遅延しても構いません。

ソリューションアーキテクトは、このシステムをAmazon EC2インスタンスに移行し、長期的なコミットメントなしにコストを削減するため、従量制モデルを採用する必要があります。ソリューションは高可用性を維持し、SLAに影響を与えてはなりません。

これらの要件を最もコスト効率的に満たす解決策はどれですか?

A. 選択したAWSリージョン内の2つのアベイラビリティーゾーン(AZ)に12のインスタンスを分散配置します。各AZで2つのインスタンスをCapacity Reservations付きのOn-Demandインスタンスとして実行します。残りの各AZで4つのインスタンスをSpotインスタンスとして実行します。

B. 選択したAWSリージョン内の3つのアベイラビリティーゾーン(AZ)に12のインスタンスを分散配置します。1つのAZで4つのインスタンスすべてをCapacity Reservations付きのOn-Demandインスタンスとして実行します。残りのインスタンスはSpotインスタンスとして実行します。

C. 選択したAWSリージョン内の3つのアベイラビリティーゾーン(AZ)に12のインスタンスを分散配置します。各AZで2つのインスタンスをSavings Plan付きのOn-Demandインスタンスとして実行します。残りの各AZで2つのインスタンスをSpotインスタンスとして実行します。

D. 選択したAWSリージョン内の3つのアベイラビリティーゾーン(AZ)に12のインスタンスを分散配置します。各AZで3つのインスタンスをCapacity Reservations付きのOn-Demandインスタンスとして実行します。残りの各AZで1つのインスタンスをSpotインスタンスとして実行します。

25 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

25. A security engineer determined that an existing application retrieves credentials to an Amazon RDS for MySQL database from an encrypted file in
Amazon S3. For the next version of the application, the security engineer wants to implement the following application design changes to improve
security:
The database must use strong, randomly generated passwords stored in a secure AWS managed service.
The application resources must be deployed through AWS CloudFormation.
The application must rotate credentials for the database every 90 days.
A solutions architect will generate a CloudFormation template to deploy the application.
Which resources speci ed in the CloudFormation template will meet the security engineer’s requirements with the LEAST amount of operational
overhead?
A. Generate the database password as a secret resource using AWS Secrets Manager. Create an AWS Lambda function resource to rotate the
database password. Specify a Secrets Manager RotationSchedule resource to rotate the database password every 90 days.
B. Generate the database password as a SecureString parameter type using AWS Systems Manager Parameter Store. Create an AWS Lambda
function resource to rotate the database password. Specify a Parameter Store RotationSchedule resource to rotate the database password
every 90 days.
C. Generate the database password as a secret resource using AWS Secrets Manager. Create an AWS Lambda function resource to rotate the
database password. Create an Amazon EventBridge scheduled rule resource to trigger the Lambda function password rotation every 90 days.
D. Generate the database password as a SecureString parameter type using AWS Systems Manager Parameter Store. Specify an AWS AppSync
DataSource resource to automatically rotate the database password every 90 days.

以下是将AWS问题完整翻译成日文的内容:

セキュリティエンジニアは、既存のアプリケーションがAmazon RDS for MySQLデータベースの認証情報をAmazon S3内の暗号化されたファイルから取得していることを確認しました。次のバージョンのアプリケーションでは、セキュリティを向上させるために次のアプリケーション設計変更を実装したいと考えています:

データベースは、強力でランダムに生成されたパスワードを使用し、安全なAWS管理サービスに保存する必要があります。
アプリケーションリソースはAWS CloudFormationを通じてデプロイする必要があります。
アプリケーションは、データベースの認証情報を90日ごとにローテーションする必要があります。
ソリューションアーキテクトは、アプリケーションをデプロイするためのCloudFormationテンプレートを作成します。

CloudFormationテンプレートで指定されたリソースのうち、セキュリティエンジニアの要件を最も運用負荷が少なく満たすのはどれですか?

A. AWS Secrets Managerを使用してデータベースパスワードをシークレットリソースとして生成します。データベースパスワードをローテーションするためのAWS Lambda関数リソースを作成します。Secrets Manager RotationScheduleリソースを指定して、90日ごとにデータベースパスワードをローテーションします。

B. AWS Systems Manager Parameter Storeを使用して、SecureStringパラメータタイプとしてデータベースパスワードを生成します。データベースパスワードをローテーションするためのAWS Lambda関数リソースを作成します。Parameter Store RotationScheduleリソースを指定して、90日ごとにデータベースパスワードをローテーションします。

C. AWS Secrets Managerを使用してデータベースパスワードをシークレットリソースとして生成します。データベースパスワードをローテーションするためのAWS Lambda関数リソースを作成します。90日ごとにLambda関数によるパスワードローテーションをトリガーするAmazon EventBridgeスケジュールルールリソースを作成します。

D. AWS Systems Manager Parameter Storeを使用して、SecureStringパラメータタイプとしてデータベースパスワードを生成します。90日ごとにデータベースパスワードを自動的にローテーションするAWS AppSync DataSourceリソースを指定します。

26 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

26. A company is storing data in several Amazon DynamoDB tables. A solutions architect must use a serverless architecture to make the data
accessible publicly through a simple API over HTTPS. The solution must scale automatically in response to demand.
Which solutions meet these requirements? (Choose two.)
A. Create an Amazon API Gateway REST API. Configure this API with direct integrations to DynamoDB by using API Gateway’s AWS integration
type.
B. Create an Amazon API Gateway HTTP API. Configure this API with direct integrations to Dynamo DB by using API Gateway’s AWS
integration type.
C. Create an Amazon API Gateway HTTP API. Configure this API with integrations to AWS Lambda functions that return data from the
DynamoDB tables.
D. Create an accelerator in AWS Global Accelerator. Configure this accelerator with AWS Lambda@Edge function integrations that return data
from the DynamoDB tables.
E. Create a Network Load Balancer. Configure listener rules to forward requests to the appropriate AWS Lambda functions.

以下是将AWS问题完整翻译成日文的内容:

ある会社は、いくつかのAmazon DynamoDBテーブルにデータを保存しています。ソリューションアーキテクトは、サーバーレスアーキテクチャを使用して、HTTPS経由のシンプルなAPIでデータを公開できるようにする必要があります。ソリューションは、需要に応じて自動的にスケーリングできなければなりません。
これらの要件を満たすソリューションはどれですか?(2つ選択してください。)

A. Amazon API Gateway REST APIを作成します。API GatewayのAWS統合タイプを使用して、DynamoDBへの直接統合でこのAPIを構成します。

B. Amazon API Gateway HTTP APIを作成します。API GatewayのAWS統合タイプを使用して、DynamoDBへの直接統合でこのAPIを構成します。

C. Amazon API Gateway HTTP APIを作成します。DynamoDBテーブルからデータを返すAWS Lambda関数との統合でこのAPIを構成します。

D. AWS Global Acceleratorでアクセラレータを作成します。DynamoDBテーブルからデータを返すAWS Lambda@Edge関数統合でこのアクセラレータを構成します。

E. Network Load Balancerを作成します。適切なAWS Lambda関数にリクエストを転送するリスナールールを構成します。

27 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

27. A company has registered 10 new domain names. The company uses the domains for online marketing. The company needs a solution that will
redirect online visitors to a speci c URL for each domain. All domains and target URLs are de ned in a JSON document. All DNS records are
managed by Amazon Route 53.
A solutions architect must implement a redirect service that accepts HTTP and HTTPS requests.
Which combination of steps should the solutions architect take to meet these requirements with the LEAST amount of operational effort? (Choose
three.)
A. Create a dynamic webpage that runs on an Amazon EC2 instance. Configure the webpage to use the JSON document in combination with
the event message to look up and respond with a redirect URL.
B. Create an Application Load Balancer that includes HTTP and HTTPS listeners.
C. Create an AWS Lambda function that uses the JSON document in combination with the event message to look up and respond with a
redirect URL.
D. Use an Amazon API Gateway API with a custom domain to publish an AWS Lambda function.
E. Create an Amazon CloudFront distribution. Deploy a Lambda@Edge function.
F. Create an SSL certi cate by using AWS Certificate Manager (ACM). Include the domains as Subject Alternative Names.

以下の問題を日本語に翻訳します。

問題:

ある企業が10個の新しいドメイン名を登録しました。同社はオンラインマーケティングのためにこれらのドメインを使用しています。各ドメインのオンライン訪問者を特定のURLにリダイレクトするソリューションが必要です。すべてのドメインとターゲットURLはJSONドキュメントで定義されています。すべてのDNSレコードはAmazon Route 53で管理されています。

ソリューションアーキテクトは、HTTPおよびHTTPSリクエストを受け入れるリダイレクトサービスを実装する必要があります。

これらの要件を最小限の運用作業で満たすためには、ソリューションアーキテクトはどのステップの組み合わせを取るべきですか?(3つ選択してください)

A. Amazon EC2インスタンスで実行される動的ウェブページを作成します。イベントメッセージと組み合わせてJSONドキュメントを使用し、リダイレクトURLを検索して応答するようにウェブページを設定します。

B. HTTPおよびHTTPSリスナーを含むApplication Load Balancerを作成します。

C. イベントメッセージと組み合わせてJSONドキュメントを使用し、リダイレクトURLを検索して応答するAWS Lambda関数を作成します。

D. カスタムドメインを使用したAmazon API Gateway APIを利用して、AWS Lambda関数を公開します。

E. Amazon CloudFrontディストリビューションを作成します。Lambda@Edge関数をデプロイします。

F. AWS Certificate Manager(ACM)を使用してSSL証明書を作成します。ドメインをSubject Alternative Namesとして含めます。

28 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

28. A company that has multiple AWS accounts is using AWS Organizations. The company’s AWS accounts host VPCs, Amazon EC2 instances, and
containers.
The company’s compliance team has deployed a security tool in each VPC where the company has deployments. The security tools run on EC2
instances and send information to the AWS account that is dedicated for the compliance team. The company has tagged all the compliance
related resources with a key of “costCenter” and a value or “compliance”.
The company wants to identify the cost of the security tools that are running on the EC2 instances so that the company can charge the
compliance team’s AWS account. The cost calculation must be as accurate as possible.
What should a solutions architect do to meet these requirements?
A. In the management account of the organization, activate the costCenter user-de ned tag. Configure monthly AWS Cost and Usage Reports
to save to an Amazon S3 bucket in the management account. Use the tag breakdown in the report to obtain the total cost for the costCenter
tagged resources.
B. In the member accounts of the organization, activate the costCenter user-de ned tag. Configure monthly AWS Cost and Usage Reports to
save to an Amazon S3 bucket in the management account. Schedule a monthly AWS Lambda function to retrieve the reports and calculate the
total cost for the costCenter tagged resources.
C. In the member accounts of the organization activate the costCenter user-de ned tag. From the management account, schedule a monthly
AWS Cost and Usage Report. Use the tag breakdown in the report to calculate the total cost for the costCenter tagged resources.
D. Create a custom report in the organization view in AWS Trusted Advisor. Configure the report to generate a monthly billing summary for the
costCenter tagged resources in the compliance team’s AWS account.

複数のAWSアカウントを持つ企業がAWS Organizationsを使用しています。同社のAWSアカウントにはVPC、Amazon EC2インスタンス、およびコンテナがホストされています。

同社のコンプライアンスチームは、展開がある各VPCにセキュリティツールを導入しました。セキュリティツールはEC2インスタンス上で動作し、コンプライアンスチーム専用のAWSアカウントに情報を送信します。同社はすべてのコンプライアンス関連リソースに「costCenter」というキーと「compliance」という値のタグを付けています。

同社は、EC2インスタンス上で実行されているセキュリティツールのコストを正確に把握し、コンプライアンスチームのAWSアカウントに請求したいと考えています。コスト計算は可能な限り正確である必要があります。

これらの要件を満たすためにソリューションアーキテクトはどうすべきですか?

A. 組織の管理アカウントで、costCenterユーザー定義タグを有効にします。毎月のAWSコストと使用状況レポートを管理アカウントのAmazon S3バケットに保存するように設定します。レポートのタグ内訳を使用して、costCenterタグ付きリソースの総コストを取得します。

B. 組織のメンバーアカウントで、costCenterユーザー定義タグを有効にします。毎月のAWSコストと使用状況レポートを管理アカウントのAmazon S3バケットに保存するように設定します。毎月AWS Lambda関数をスケジュールしてレポートを取得し、costCenterタグ付きリソースの総コストを計算します。

C. 組織のメンバーアカウントで、costCenterユーザー定義タグを有効にします。管理アカウントから、毎月のAWSコストと使用状況レポートをスケジュールします。レポートのタグ内訳を使用して、costCenterタグ付きリソースの総コストを計算します。

D. AWS Trusted Advisorの組織ビューでカスタムレポートを作成します。レポートを設定して、コンプライアンスチームのAWSアカウント内のcostCenterタグ付きリソースの毎月の課金要約を生成します。

29 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

29. A company has 50 AWS accounts that are members of an organization in AWS Organizations. Each account contains multiple VPCs. The company
wants to use AWS Transit Gateway to establish connectivity between the VPCs in each member account. Each time a new member account is
created, the company wants to automate the process of creating a new VPC and a transit gateway attachment.
Which combination of steps will meet these requirements? (Choose two.)
A. From the management account, share the transit gateway with member accounts by using AWS Resource Access Manager.
B. From the management account, share the transit gateway with member accounts by using an AWS Organizations SCP.
C. Launch an AWS CloudFormation stack set from the management account that automatically creates a new VPC and a VPC transit gateway
attachment in a member account. Associate the attachment with the transit gateway in the management account by using the transit gateway
ID.
D. Launch an AWS CloudFormation stack set from the management account that automatically creates a new VPC and a peering transit
gateway attachment in a member account. Share the attachment with the transit gateway in the management account by using a transit
gateway service-linked role.
E. From the management account, share the transit gateway with member accounts by using AWS Service Catalog.

ある企業は、AWS Organizationsの組織内のメンバーである50のAWSアカウントを所有しています。各アカウントには複数のVPCが含まれています。同社は、各メンバーアカウント内のVPC間の接続を確立するためにAWS Transit Gatewayを使用したいと考えています。新しいメンバーアカウントが作成されるたびに、新しいVPCとトランジットゲートウェイアタッチメントを作成するプロセスを自動化したいと考えています。

これらの要件を満たすには、どの組み合わせの手順を選択すればよいでしょうか?(2つ選択してください)

A. 管理アカウントから、AWS Resource Access Managerを使用してメンバーアカウントとトランジットゲートウェイを共有する。

B. 管理アカウントから、AWS OrganizationsのSCPを使用してメンバーアカウントとトランジットゲートウェイを共有する。

C. 管理アカウントからAWS CloudFormationスタックセットを起動し、メンバーアカウント内に新しいVPCとVPCトランジットゲートウェイアタッチメントを自動的に作成する。トランジットゲートウェイIDを使用して、管理アカウント内のトランジットゲートウェイにアタッチメントを関連付ける。

D. 管理アカウントからAWS CloudFormationスタックセットを起動し、メンバーアカウント内に新しいVPCとピアリングトランジットゲートウェイアタッチメントを自動的に作成する。トランジットゲートウェイサービスリンクロールを使用して、管理アカウント内のトランジットゲートウェイとアタッチメントを共有する。

E. 管理アカウントから、AWS Service Catalogを使用してメンバーアカウントとトランジットゲートウェイを共有する。

30 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

30. An enterprise company wants to allow its developers to purchase third-party software through AWS Marketplace. The company uses an AWS
Organizations account structure with full features enabled, and has a shared services account in each organizational unit (OU) that will be used by
procurement managers. The procurement team’s policy indicates that developers should be able to obtain third-party software from an approved
list only and use Private Marketplace in AWS Marketplace to achieve this requirement. The procurement team wants administration of Private
Marketplace to be restricted to a role named procurement-manager-role, which could be assumed by procurement managers. Other IAM users,
groups, roles, and account administrators in the company should be denied Private Marketplace administrative access.
What is the MOST e cient way to design an architecture to meet these requirements?
A. Create an IAM role named procurement-manager-role in all AWS accounts in the organization. Add the PowerUserAccess managed policy to
the role. Apply an inline policy to all IAM users and roles in every AWS account to deny permissions on the
AWSPrivateMarketplaceAdminFullAccess managed policy.
B. Create an IAM role named procurement-manager-role in all AWS accounts in the organization. Add the AdministratorAccess managed
policy to the role. De ne a permissions boundary with the AWSPrivateMarketplaceAdminFullAccess managed policy and attach it to all the
developer roles.
C. Create an IAM role named procurement-manager-role in all the shared services accounts in the organization. Add the
AWSPrivateMarketplaceAdminFullAccess managed policy to the role. Create an organization root-level SCP to deny permissions to administer
Private Marketplace to everyone except the role named procurement-manager-role. Create another organization root-level SCP to deny
permissions to create an IAM role named procurement-manager-role to everyone in the organization.
D. Create an IAM role named procurement-manager-role in all AWS accounts that will be used by developers. Add the
AWSPrivateMarketplaceAdminFullAccess managed policy to the role. Create an SCP in Organizations to deny permissions to administer
Private Marketplace to everyone except the role named procurement-manager-role. Apply the SCP to all the shared services accounts in the
organization.

ある企業が、開発者がAWS Marketplaceを通じてサードパーティ製ソフトウェアを購入できるようにしたいと考えています。同社はAWS Organizationsのアカウント構造を使用しており、すべての機能が有効になっています。また、各組織単位(OU)には調達マネージャーが使用する共有サービスアカウントがあります。
調達チームのポリシーでは、開発者は承認されたリストからのみサードパーティ製ソフトウェアを入手できるようにし、AWS MarketplaceのPrivate Marketplaceを使用してこの要件を達成する必要があるとされています。
調達チームは、Private Marketplaceの管理をprocurement-manager-roleという名前のロールに制限したいと考えています。このロールは調達マネージャーが引き受けることができます。会社内の他のIAMユーザー、グループ、ロール、およびアカウント管理者には、Private Marketplaceの管理アクセスを拒否する必要があります。
これらの要件を満たすための最も効率的なアーキテクチャ設計は何ですか?

A. 組織内のすべてのAWSアカウントにprocurement-manager-roleという名前のIAMロールを作成します。このロールにPowerUserAccess管理ポリシーを追加します。すべてのAWSアカウントのすべてのIAMユーザーとロールに、AWSPrivateMarketplaceAdminFullAccess管理ポリシーに対する権限を拒否するインラインポリシーを適用します。

B. 組織内のすべてのAWSアカウントにprocurement-manager-roleという名前のIAMロールを作成します。このロールにAdministratorAccess管理ポリシーを追加します。AWSPrivateMarketplaceAdminFullAccess管理ポリシーで権限境界を定義し、すべての開発者ロールにアタッチします。

C. 組織内のすべての共有サービスアカウントにprocurement-manager-roleという名前のIAMロールを作成します。このロールにAWSPrivateMarketplaceAdminFullAccess管理ポリシーを追加します。組織ルートレベルのSCPを作成し、procurement-manager-roleという名前のロールを除くすべてのユーザーに対してPrivate Marketplaceを管理する権限を拒否します。さらに、組織内のすべてのユーザーに対してprocurement-manager-roleという名前のIAMロールを作成する権限を拒否する別の組織ルートレベルのSCPを作成します。

D. 開発者が使用するすべてのAWSアカウントにprocurement-manager-roleという名前のIAMロールを作成します。このロールにAWSPrivateMarketplaceAdminFullAccess管理ポリシーを追加します。OrganizationsでSCPを作成し、procurement-manager-roleという名前のロールを除くすべてのユーザーに対してPrivate Marketplaceを管理する権限を拒否します。このSCPを組織内のすべての共有サービスアカウントに適用します。

31 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

31. A company is hosting a monolithic REST-based API for a mobile app on ve Amazon EC2 instances in public subnets of a VPC. Mobile clients
connect to the API by using a domain name that is hosted on Amazon Route 53. The company has created a Route 53 multivalue answer routing
policy with the IP addresses of all the EC2 instances. Recently, the app has been overwhelmed by large and sudden increases to traffic. The app
has not been able to keep up with the traffic.
A solutions architect needs to implement a solution so that the app can handle the new and varying load.
Which solution will meet these requirements with the LEAST operational overhead?
A. Separate the API into individual AWS Lambda functions. Configure an Amazon API Gateway REST API with Lambda integration for the
backend. Update the Route 53 record to point to the API Gateway API.
B. Containerize the API logic. Create an Amazon Elastic Kubernetes Service (Amazon EKS) cluster. Run the containers in the cluster by using
Amazon EC2. Create a Kubernetes ingress. Update the Route 53 record to point to the Kubernetes ingress.
C. Create an Auto Scaling group. Place all the EC2 instances in the Auto Scaling group. Configure the Auto Scaling group to perform scaling
actions that are based on CPU utilization. Create an AWS Lambda function that reacts to Auto Scaling group changes and updates the Route
53 record.
D. Create an Application Load Balancer (ALB) in front of the API. Move the EC2 instances to private subnets in the VPC. Add the EC2
instances as targets for the ALB. Update the Route 53 record to point to the ALB.

ある会社が、VPCのパブリックサブネット内の複数のAmazon EC2インスタンス上でモバイルアプリ向けのモノリシックなRESTベースのAPIをホスティングしています。モバイルクライアントは、Amazon Route 53でホストされたドメイン名を使用してAPIに接続しています。この会社は、すべてのEC2インスタンスのIPアドレスを含むRoute 53のマルチバリューアンサールーティングポリシーを作成しました。最近、アプリが急激で大規模なトラフィックの増加に対応できず、トラフィックに追いつけなくなっています。
ソリューションアーキテクトは、アプリが新しく変動する負荷に対処できるように解決策を実装する必要があります。
これらの要件を最も少ない運用オーバーヘッドで満たす解決策はどれですか?
A. APIを個々のAWS Lambda関数に分割する。バックエンドとしてLambda統合を持つAmazon API Gateway REST APIを設定する。Route 53レコードを更新してAPI Gateway APIを指すようにする。
B. APIのロジックをコンテナ化する。Amazon Elastic Kubernetes Service(Amazon EKS)クラスターを作成する。Amazon EC2を使用してクラスター内でコンテナを実行する。KubernetesのIngressを作成する。Route 53レコードを更新してKubernetes Ingressを指すようにする。
C. Auto Scalingグループを作成する。すべてのEC2インスタンスをAuto Scalingグループに配置する。CPU使用率に基づいてスケーリングアクションを実行するようにAuto Scalingグループを設定する。Auto Scalingグループの変更を検知してRoute 53レコードを更新するAWS Lambda関数を作成する。
D. APIの前にApplication Load Balancer(ALB)を作成する。EC2インスタンスをVPCのプライベートサブネットに移動する。EC2インスタンスをALBのターゲットとして追加する。Route 53レコードを更新してALBを指すようにする。

32 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

32. A company has created an OU in AWS Organizations for each of its engineering teams. Each OU owns multiple AWS accounts. The organization
has hundreds of AWS accounts.
A solutions architect must design a solution so that each OU can view a breakdown of usage costs across its AWS accounts.
Which solution meets these requirements?
A. Create an AWS Cost and Usage Report (CUR) for each OU by using AWS Resource Access Manager. Allow each team to visualize the CUR
through an Amazon QuickSight dashboard.
B. Create an AWS Cost and Usage Report (CUR) from the AWS Organizations management account. Allow each team to visualize the CUR
through an Amazon QuickSight dashboard.
C. Create an AWS Cost and Usage Report (CUR) in each AWS Organizations member account. Allow each team to visualize the CUR through an
Amazon QuickSight dashboard.
D. Create an AWS Cost and Usage Report (CUR) by using AWS Systems Manager. Allow each team to visualize the CUR through Systems
Manager OpsCenter dashboards.

ある会社では、各エンジニアリングチームごとにAWS Organizations内にOU(組織単位)を作成しています。各OUは複数のAWSアカウントを所有しています。
組織全体では数百のAWSアカウントが存在します。
ソリューションアーキテクトは、各OUが自身のAWSアカウント全体の利用コストの内訳を確認できるようなソリューションを設計する必要があります。
これらの要件を満たすソリューションはどれですか?

A. AWS Resource Access Managerを使用して各OUごとにAWSコストと使用状況レポート(CUR)を作成する。各チームがAmazon QuickSightダッシュボードを通じてCURを可視化できるようにする。

B. AWS Organizationsの管理アカウントからAWSコストと使用状況レポート(CUR)を作成する。各チームがAmazon QuickSightダッシュボードを通じてCURを可視化できるようにする。

C. AWS Organizationsの各メンバーアカウント内にAWSコストと使用状況レポート(CUR)を作成する。各チームがAmazon QuickSightダッシュボードを通じてCURを可視化できるようにする。

D. AWS Systems Managerを使用してAWSコストと使用状況レポート(CUR)を作成する。各チームがSystems Manager OpsCenterダッシュボードを通じてCURを可視化できるようにする。

33 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

33. A company is storing data on premises on a Windows file server. The company produces 5 GB of new data daily.
The company migrated part of its Windows-based workload to AWS and needs the data to be available on a file system in the cloud. The company
already has established an AWS Direct Connect connection between the on-premises network and AWS.
Which data migration strategy should the company use?
A. Use the file gateway option in AWS Storage Gateway to replace the existing Windows file server, and point the existing file share to the new
file gateway.
B. Use AWS DataSync to schedule a daily task to replicate data between the on-premises Windows file server and Amazon FSx.
C. Use AWS Data Pipeline to schedule a daily task to replicate data between the on-premises Windows file server and Amazon Elastic File
System (Amazon EFS).
D. Use AWS DataSync to schedule a daily task to replicate data between the on-premises Windows file server and Amazon Elastic File System
(Amazon EFS).

以下是将AWS问题完整翻译成日文的内容:

ある企業は、Windowsファイルサーバーにオンプレミスでデータを保存しています。この企業は毎日5GBの新しいデータを生成しています。
企業はWindowsベースのワークロードの一部をAWSに移行し、クラウド上のファイルシステムでデータを利用できるようにする必要があります。企業はすでにオンプレミスネットワークとAWSの間にAWS Direct Connect接続を確立しています。
この企業はどのデータ移行戦略を使用すべきですか?

A. AWS Storage Gatewayのファイルゲートウェイオプションを使用して既存のWindowsファイルサーバーを置き換え、既存のファイル共有を新しいファイルゲートウェイにポイントする。

B. AWS DataSyncを使用して、オンプレミスのWindowsファイルサーバーとAmazon FSx間でデータを複製する日次タスクをスケジュールする。

C. AWS Data Pipelineを使用して、オンプレミスのWindowsファイルサーバーとAmazon Elastic File System(Amazon EFS)間でデータを複製する日次タスクをスケジュールする。

D. AWS DataSyncを使用して、オンプレミスのWindowsファイルサーバーとAmazon Elastic File System(Amazon EFS)間でデータを複製する日次タスクをスケジュールする。

34 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

34. A company’s solutions architect is reviewing a web application that runs on AWS. The application references static assets in an Amazon S3
bucket in the us-east-1 Region. The company needs resiliency across multiple AWS Regions. The company already has created an S3 bucket in a
second Region.
Which solution will meet these requirements with the LEAST operational overhead?
A. Configure the application to write each object to both S3 buckets. Set up an Amazon Route 53 public hosted zone with a record set by using
a weighted routing policy for each S3 bucket. Configure the application to reference the objects by using the Route 53 DNS name.
B. Create an AWS Lambda function to copy objects from the S3 bucket in us-east-1 to the S3 bucket in the second Region. Invoke the Lambda
function each time an object is written to the S3 bucket in us-east-1. Set up an Amazon CloudFront distribution with an origin group that
contains the two S3 buckets as origins.
C. Configure replication on the S3 bucket in us-east-1 to replicate objects to the S3 bucket in the second Region. Set up an Amazon CloudFront
distribution with an origin group that contains the two S3 buckets as origins.
D. Configure replication on the S3 bucket in us-east-1 to replicate objects to the S3 bucket in the second Region. If failover is required, update
the application code to load S3 objects from the S3 bucket in the second Region.

ある企業のソリューションアーキテクトが、AWSで実行されているウェブアプリケーションをレビューしています。このアプリケーションは、us-east-1リージョンのAmazon S3バケット内の静的アセットを参照しています。企業は、複数のAWSリージョンにわたる耐障害性を必要としています。企業はすでに第2のリージョンにS3バケットを作成しています。
これらの要件を、最少の運用負荷で満たすソリューションはどれでしょうか?
A. アプリケーションを設定して、各オブジェクトを両方のS3バケットに書き込むようにします。各S3バケットに対して加重ルーティングポリシーを使用したレコードセットを含むAmazon Route 53のパブリックホストゾーンを設定します。Route 53のDNS名を使用してオブジェクトを参照するようにアプリケーションを設定します。
B. us-east-1のS3バケットから第2のリージョンのS3バケットにオブジェクトをコピーするAWS Lambda関数を作成します。us-east-1のS3バケットにオブジェクトが書き込まれるたびにLambda関数を呼び出します。2つのS3バケットをオリジンとして含むオリジングループを持つAmazon CloudFrontディストリビューションを設定します。
C. us-east-1のS3バケットにレプリケーションを設定して、オブジェクトを第2のリージョンのS3バケットに複製します。2つのS3バケットをオリジンとして含むオリジングループを持つAmazon CloudFrontディストリビューションを設定します。
D. us-east-1のS3バケットにレプリケーションを設定して、オブジェクトを第2のリージョンのS3バケットに複製します。フェイルオーバーが必要な場合、アプリケーションコードを更新して第2のリージョンのS3バケットからS3オブジェクトをロードするようにします。

35 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

35. A company is hosting a three-tier web application in an on-premises environment. Due to a recent surge in traffic that resulted in downtime and a
signi cant nancial impact, company management has ordered that the application be moved to AWS. The application is written in .NET and has a
dependency on a MySQL database. A solutions architect must design a scalable and highly available solution to meet the demand of 200,000
daily users.
Which steps should the solutions architect take to design an appropriate solution?
A. Use AWS Elastic Beanstalk to create a new application with a web server environment and an Amazon RDS MySQL Multi-AZ DB instance.
The environment should launch a Network Load Balancer (NLB) in front of an Amazon EC2 Auto Scaling group in multiple Availability Zones.
Use an Amazon Route 53 alias record to route traffic from the company’s domain to the NLB.
B. Use AWS CloudFormation to launch a stack containing an Application Load Balancer (ALB) in front of an Amazon EC2 Auto Scaling group
spanning three Availability Zones. The stack should launch a Multi-AZ deployment of an Amazon Aurora MySQL DB cluster with a Retain
deletion policy. Use an Amazon Route 53 alias record to route traffic from the company’s domain to the ALB.
C. Use AWS Elastic Beanstalk to create an automatically scaling web server environment that spans two separate Regions with an Application
Load Balancer (ALB) in each Region. Create a Multi-AZ deployment of an Amazon Aurora MySQL DB cluster with a cross-Region read replica.
Use Amazon Route 53 with a geoproximity routing policy to route traffic between the two Regions.
D. Use AWS CloudFormation to launch a stack containing an Application Load Balancer (ALB) in front of an Amazon ECS cluster of Spot
instances spanning three Availability Zones. The stack should launch an Amazon RDS MySQL DB instance with a Snapshot deletion policy.
Use an Amazon Route 53 alias record to route traffic from the company’s domain to the ALB.

ある企業がオンプレミス環境で3層のウェブアプリケーションをホストしています。最近のトラフィック急増によりダウンタイムが発生し、大きな財務的影響があったため、経営陣はこのアプリケーションをAWSに移行するよう指示しました。このアプリケーションは.NETで書かれており、MySQLデータベースに依存しています。ソリューションアーキテクトは、1日20万人のユーザー需要を満たすため、スケーラブルで高可用性のあるソリューションを設計する必要があります。

ソリューションアーキテクトは適切なソリューションを設計するためにどのような手順を踏むべきですか?

A. AWS Elastic Beanstalkを使用して、ウェブサーバー環境とAmazon RDS MySQL Multi-AZ DBインスタンスを備えた新しいアプリケーションを作成します。環境は、複数のアベイラビリティーゾーンにあるAmazon EC2 Auto Scalingグループの前にNetwork Load Balancer(NLB)を起動する必要があります。Amazon Route 53のエイリアスレコードを使用して、会社のドメインからNLBにトラフィックをルーティングします。

B. AWS CloudFormationを使用して、3つのアベイラビリティーゾーンにまたがるAmazon EC2 Auto Scalingグループの前にApplication Load Balancer(ALB)を含むスタックを起動します。スタックは、削除ポリシーをRetainに設定したAmazon Aurora MySQL DBクラスターのMulti-AZデプロイを起動する必要があります。Amazon Route 53のエイリアスレコードを使用して、会社のドメインからALBにトラフィックをルーティングします。

C. AWS Elastic Beanstalkを使用して、2つの異なるリージョンにまたがる自動スケーリング可能なウェブサーバー環境を作成し、各リージョンにApplication Load Balancer(ALB)を配置します。クロスリージョン読み取りレプリカを備えたAmazon Aurora MySQL DBクラスターのMulti-AZデプロイを作成します。Amazon Route 53のジオプロキシミティルーティングポリシーを使用して、2つのリージョン間でトラフィックをルーティングします。

D. AWS CloudFormationを使用して、3つのアベイラビリティーゾーンにまたがるSpotインスタンスのAmazon ECSクラスターの前にApplication Load Balancer(ALB)を含むスタックを起動します。スタックは、スナップショット削除ポリシーを備えたAmazon RDS MySQL DBインスタンスを起動する必要があります。Amazon Route 53のエイリアスレコードを使用して、会社のドメインからALBにトラフィックをルーティングします。

36 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

36. A company is using AWS Organizations to manage multiple AWS accounts. For security purposes, the company requires the creation of an
Amazon Simple Notification Service (Amazon SNS) topic that enables integration with a third-party alerting system in all the Organizations
member accounts.
A solutions architect used an AWS CloudFormation template to create the SNS topic and stack sets to automate the deployment of
CloudFormation stacks. Trusted access has been enabled in Organizations.
What should the solutions architect do to deploy the CloudFormation StackSets in all AWS accounts?
A. Create a stack set in the Organizations member accounts. Use service-managed permissions. Set deployment options to deploy to an
organization. Use CloudFormation StackSets drift detection.
B. Create stacks in the Organizations member accounts. Use self-service permissions. Set deployment options to deploy to an organization.
Enable the CloudFormation StackSets automatic deployment.
C. Create a stack set in the Organizations management account. Use service-managed permissions. Set deployment options to deploy to the
organization. Enable CloudFormation StackSets automatic deployment.
D. Create stacks in the Organizations management account. Use service-managed permissions. Set deployment options to deploy to the
organization. Enable CloudFormation StackSets drift detection.

ある企業は、複数のAWSアカウントを管理するためにAWS Organizationsを使用しています。
セキュリティ上の目的から、同社はOrganizationsのすべてのメンバーアカウントにおいて、サードパーティのアラートシステムとの統合を可能にするAmazon Simple Notification Service(Amazon SNS)トピックの作成を求めています。
ソリューションアーキテクトは、AWS CloudFormationテンプレートを使用してSNSトピックを作成し、CloudFormationスタックのデプロイを自動化するためにスタックセットを使用しました。
Organizationsでは信頼されたアクセスが有効になっています。
すべてのAWSアカウントにCloudFormation StackSetsをデプロイするために、ソリューションアーキテクトは何をすべきですか?
A. Organizationsのメンバーアカウントでスタックセットを作成します。サービス管理の権限を使用します。デプロイオプションを組織にデプロイするように設定します。CloudFormation StackSetsのドリフト検出を使用します。
B. Organizationsのメンバーアカウントでスタックを作成します。セルフサービス権限を使用します。デプロイオプションを組織にデプロイするように設定します。CloudFormation StackSetsの自動デプロイを有効にします。
C. Organizationsの管理アカウントでスタックセットを作成します。サービス管理の権限を使用します。デプロイオプションを組織にデプロイするように設定します。CloudFormation StackSetsの自動デプロイを有効にします。
D. Organizationsの管理アカウントでスタックを作成します。サービス管理の権限を使用します。デプロイオプションを組織にデプロイするように設定します。CloudFormation StackSetsのドリフト検出を有効にします。

37 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

37. A company wants to migrate its workloads from on premises to AWS. The workloads run on Linux and Windows. The company has a large on
premises infrastructure that consists of physical machines and VMs that host numerous applications.
The company must capture details about the system configuration, system performance, running processes, and network connections of its on
premises workloads. The company also must divide the on-premises applications into groups for AWS migrations. The company needs
recommendations for Amazon EC2 instance types so that the company can run its workloads on AWS in the most cost-effective manner.
Which combination of steps should a solutions architect take to meet these requirements? (Choose three.)
A. Assess the existing applications by installing AWS Application Discovery Agent on the physical machines and VMs.
B. Assess the existing applications by installing AWS Systems Manager Agent on the physical machines and VMs.
C. Group servers into applications for migration by using AWS Systems Manager Application Manager.
D. Group servers into applications for migration by using AWS Migration Hub.
E. Generate recommended instance types and associated costs by using AWS Migration Hub.
F. Import data about server sizes into AWS Trusted Advisor. Follow the recommendations for cost optimization.

ある企業は、自社のワークロードをオンプレミスからAWSに移行したいと考えています。ワークロードはLinuxとWindowsで実行されています。同社は、多数のアプリケーションをホストする物理マシンと仮想マシンで構成される大規模なオンプレミスインフラストラクチャを所有しています。

同社は、オンプレミスワークロードのシステム構成、システムパフォーマンス、実行中のプロセス、およびネットワーク接続に関する詳細を把握する必要があります。また、オンプレミスのアプリケーションをAWS移行用のグループに分ける必要があります。同社は、最もコスト効率の良い方法でAWS上でワークロードを実行できるよう、Amazon EC2インスタンスタイプに関する推奨事項が必要です。

これらの要件を満たすために、ソリューションアーキテクトはどの組み合わせの手順を実行すべきですか?(3つ選択してください)
A. 物理マシンと仮想マシンにAWS Application Discovery Agentをインストールして、既存のアプリケーションを評価する。
B. 物理マシンと仮想マシンにAWS Systems Manager Agentをインストールして、既存のアプリケーションを評価する。
C. AWS Systems Manager Application Managerを使用して、移行用にサーバーをアプリケーションごとにグループ化する。
D. AWS Migration Hubを使用して、移行用にサーバーをアプリケーションごとにグループ化する。
E. AWS Migration Hubを使用して、推奨インスタンスタイプと関連コストを生成する。
F. サーバーのサイズに関するデータをAWS Trusted Advisorにインポートする。コスト最適化のための推奨事項に従う。

38 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

38. A company is hosting an image-processing service on AWS in a VPC. The VPC extends across two Availability Zones. Each Availability Zone
contains one public subnet and one private subnet.
The service runs on Amazon EC2 instances in the private subnets. An Application Load Balancer in the public subnets is in front of the service.
The service needs to communicate with the internet and does so through two NAT gateways. The service uses Amazon S3 for image storage. The
EC2 instances retrieve approximately 1 ТВ of data from an S3 bucket each day.
The company has promoted the service as highly secure. A solutions architect must reduce cloud expenditures as much as possible without
compromising the service’s security posture or increasing the time spent on ongoing operations.
Which solution will meet these requirements?
A. Replace the NAT gateways with NAT instances. In the VPC route table, create a route from the private subnets to the NAT instances.
B. Move the EC2 instances to the public subnets. Remove the NAT gateways.
C. Set up an S3 gateway VPC endpoint in the VPAttach an endpoint policy to the endpoint to allow the required actions on the S3 bucket.
D. Attach an Amazon Elastic File System (Amazon EFS) volume to the EC2 instances. Host the images on the EFS volume.

ある企業がAWS上で画像処理サービスをVPC内でホストしています。このVPCは2つのアベイラビリティーゾーンにまたがっています。各アベイラビリティーゾーンには1つのパブリックサブネットと1つのプライベートサブネットが含まれています。

このサービスはプライベートサブネット内のAmazon EC2インスタンス上で動作しています。パブリックサブネットにあるApplication Load Balancerがサービスの前面に配置されています。

サービスはインターネットとの通信が必要で、2つのNATゲートウェイを介して通信を行っています。サービスは画像ストレージとしてAmazon S3を使用しています。EC2インスタンスは毎日S3バケットから約1TBのデータを取得します。

会社はこのサービスを高度に安全なものとして宣伝しています。ソリューションアーキテクトは、サービスのセキュリティ態勢を損なうことなく、また継続的な運用に要する時間を増やすことなく、クラウド費用を可能な限り削減する必要があります。

これらの要件を満たすソリューションはどれですか?

A. NATゲートウェイをNATインスタンスに置き換えます。VPCルートテーブルで、プライベートサブネットからNATインスタンスへのルートを作成します。

B. EC2インスタンスをパブリックサブネットに移動します。NATゲートウェイを削除します。

C. VPCにS3ゲートウェイエンドポイントをセットアップします。エンドポイントにエンドポイントポリシーをアタッチし、S3バケットで必要なアクションを許可します。

D. EC2インスタンスにAmazon Elastic File System(Amazon EFS)ボリュームをアタッチします。画像をEFSボリューム上でホストします。

39 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

39. A company recently deployed an application on AWS. The application uses Amazon DynamoDB. The company measured the application load and
configured the RCUs and WCUs on the DynamoDB table to match the expected peak load. The peak load occurs once a week for a 4-hour period
and is double the average load. The application load is close to the average load for the rest of the week. The access pattern includes many more
writes to the table than reads of the table.
A solutions architect needs to implement a solution to minimize the cost of the table.
Which solution will meet these requirements?
A. Use AWS Application Auto Scaling to increase capacity during the peak period. Purchase reserved RCUs and WCUs to match the average
load.
B. Configure on-demand capacity mode for the table.
C. Configure DynamoDB Accelerator (DAX) in front of the table. Reduce the provisioned read capacity to match the new peak load on the table.
D. Configure DynamoDB Accelerator (DAX) in front of the table. Configure on-demand capacity mode for the table.

ある企業が最近AWS上でアプリケーションをデプロイしました。このアプリケーションではAmazon DynamoDBを使用しています。企業はアプリケーションの負荷を測定し、予想されるピーク負荷に合わせてDynamoDBテーブルのRCUとWCUを設定しました。
このピーク負荷は週に1回、4時間の間発生し、平均負荷の2倍になります。アプリケーションの負荷はそれ以外の週のほとんどの時間で平均負荷に近くなっています。アクセスパターンでは、テーブルの読み取りよりも書き込みが圧倒的に多くなっています。
ソリューションアーキテクトは、このテーブルのコストを最小限に抑えるためのソリューションを実装する必要があります。
これらの要件を満たす解決策はどれでしょうか?
A. AWS Application Auto Scalingを使用してピーク時にキャパシティを増加させる。平均負荷に合わせて予約済みのRCUとWCUを購入する。
B. テーブルにオンデマンドキャパシティモードを設定する。
C. テーブルの前にDynamoDB Accelerator(DAX)を設定する。新しいピーク負荷に合わせてプロビジョニングされた読み取りキャパシティを削減する。
D. テーブルの前にDynamoDB Accelerator(DAX)を設定する。テーブルにオンデマンドキャパシティモードを設定する。

40 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

40. A solutions architect needs to advise a company on how to migrate its on-premises data processing application to the AWS Cloud. Currently, users
upload input files through a web portal. The web server then stores the uploaded files on NAS and messages the processing server over a
message queue. Each media file can take up to 1 hour to process. The company has determined that the number of media files awaiting
processing is signi cantly higher during business hours, with the number of files rapidly declining after business hours.
What is the MOST cost-effective migration recommendation?
A. Create a queue using Amazon SQS. Configure the existing web server to publish to the new queue. When there are messages in the queue,
invoke an AWS Lambda function to pull requests from the queue and process the files. Store the processed files in an Amazon S3 bucket.
B. Create a queue using Amazon MQ. Configure the existing web server to publish to the new queue. When there are messages in the queue,
create a new Amazon EC2 instance to pull requests from the queue and process the files. Store the processed files in Amazon EFS. Shut down
the EC2 instance after the task is complete.
C. Create a queue using Amazon MQ. Configure the existing web server to publish to the new queue. When there are messages in the queue,
invoke an AWS Lambda function to pull requests from the queue and process the files. Store the processed files in Amazon EFS.
D. Create a queue using Amazon SQS. Configure the existing web server to publish to the new queue. Use Amazon EC2 instances in an EC2
Auto Scaling group to pull requests from the queue and process the files. Scale the EC2 instances based on the SQS queue length. Store the
processed files in an Amazon S3 bucket.

ソリューションアーキテクトは、ある企業に対して、オンプレミスのデータ処理アプリケーションをAWSクラウドに移行する方法をアドバイスする必要があります。現在、ユーザーはウェブポータルを通じて入力ファイルをアップロードしています。ウェブサーバーはアップロードされたファイルをNASに保存し、メッセージキューを介して処理サーバーにメッセージを送信します。各メディアファイルの処理には最大1時間かかることがあります。企業は、営業時間中に処理待ちのメディアファイルの数が著しく増加し、営業時間後にはファイル数が急速に減少することを確認しています。
最もコスト効率の良い移行の推奨事項はどれですか?
A. Amazon SQSを使用してキューを作成します。既存のウェブサーバーを新しいキューに公開するように設定します。キューにメッセージがある場合、AWS Lambda関数を呼び出してキューからリクエストを引き出し、ファイルを処理します。処理されたファイルをAmazon S3バケットに保存します。
B. Amazon MQを使用してキューを作成します。既存のウェブサーバーを新しいキューに公開するように設定します。キューにメッセージがある場合、新しいAmazon EC2インスタンスを作成してキューからリクエストを引き出し、ファイルを処理します。処理されたファイルをAmazon EFSに保存します。タスク完了後、EC2インスタンスをシャットダウンします。
C. Amazon MQを使用してキューを作成します。既存のウェブサーバーを新しいキューに公開するように設定します。キューにメッセージがある場合、AWS Lambda関数を呼び出してキューからリクエストを引き出し、ファイルを処理します。処理されたファイルをAmazon EFSに保存します。
D. Amazon SQSを使用してキューを作成します。既存のウェブサーバーを新しいキューに公開するように設定します。EC2 Auto Scalingグループ内のAmazon EC2インスタンスを使用してキューからリクエストを引き出し、ファイルを処理します。SQSキューの長さに基づいてEC2インスタンスをスケーリングします。処理されたファイルをAmazon S3バケットに保存します。

41 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

41. A company is using Amazon OpenSearch Service to analyze data. The company loads data into an OpenSearch Service cluster with 10 data nodes
from an Amazon S3 bucket that uses S3 Standard storage. The data resides in the cluster for 1 month for read-only analysis. After 1 month, the
company deletes the index that contains the data from the cluster. For compliance purposes, the company must retain a copy of all input data.
The company is concerned about ongoing costs and asks a solutions architect to recommend a new solution.
Which solution will meet these requirements MOST cost-effectively?
A. Replace all the data nodes with UltraWarm nodes to handle the expected capacity. Transition the input data from S3 Standard to S3 Glacier
Deep Archive when the company loads the data into the cluster.
B. Reduce the number of data nodes in the cluster to 2 Add UltraWarm nodes to handle the expected capacity. Configure the indexes to
transition to UltraWarm when OpenSearch Service ingests the data. Transition the input data to S3 Glacier Deep Archive after 1 month by using
an S3 Lifecycle policy.
C. Reduce the number of data nodes in the cluster to 2. Add UltraWarm nodes to handle the expected capacity. Configure the indexes to
transition to UltraWarm when OpenSearch Service ingests the data. Add cold storage nodes to the cluster Transition the indexes from
UltraWarm to cold storage. Delete the input data from the S3 bucket after 1 month by using an S3 Lifecycle policy.
D. Reduce the number of data nodes in the cluster to 2. Add instance-backed data nodes to handle the expected capacity. Transition the input
data from S3 Standard to S3 Glacier Deep Archive when the company loads the data into the cluster.

ある企業がAmazon OpenSearch Serviceを使用してデータを分析しています。同社は、S3 Standardストレージを使用するAmazon S3バケットから、10のデータノードを持つOpenSearch Serviceクラスターにデータをロードしています。データは読み取り専用の分析のために1ヶ月間クラスターに保存され、1ヶ月後にデータを含むインデックスがクラスターから削除されます。コンプライアンスの目的で、同社はすべての入力データのコピーを保持する必要があります。
同社は継続的なコストを懸念しており、ソリューションアーキテクトに新しい解決策を提案するよう依頼しました。
これらの要件を最も費用対効果の高い方法で満たす解決策はどれでしょうか?

A. すべてのデータノードを予想される容量を処理するためのUltraWarmノードに置き換えます。データをクラスターにロードする際、入力データをS3 StandardからS3 Glacier Deep Archiveに移行します。

B. クラスター内のデータノードの数を2に減らします。予想される容量を処理するためにUltraWarmノードを追加します。OpenSearch Serviceがデータを取り込む際にインデックスがUltraWarmに移行するよう設定します。1ヶ月後にS3ライフサイクルポリシーを使用して入力データをS3 Glacier Deep Archiveに移行します。

C. クラスター内のデータノードの数を2に減らします。予想される容量を処理するためにUltraWarmノードを追加します。OpenSearch Serviceがデータを取り込む際にインデックスがUltraWarmに移行するよう設定します。クラスターにコールドストレージノードを追加します。インデックスをUltraWarmからコールドストレージに移行します。1ヶ月後にS3ライフサイクルポリシーを使用してS3バケットから入力データを削除します。

D. クラスター内のデータノードの数を2に減らします。予想される容量を処理するためにインスタンスバックのデータノードを追加します。データをクラスターにロードする際、入力データをS3 StandardからS3 Glacier Deep Archiveに移行します。

42 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

42. A company has 10 accounts that are part of an organization in AWS Organizations. AWS Config is configured in each account. All accounts belong
to either the Prod OU or the NonProd OU.
The company has set up an Amazon EventBridge rule in each AWS account to notify an Amazon Simple Notification Service (Amazon SNS) topic
when an Amazon EC2 security group inbound rule is created with 0.0.0.0/0 as the source. The company’s security team is subscribed to the SNS
topic.
For all accounts in the NonProd OU, the security team needs to remove the ability to create a security group inbound rule that includes 0.0.0.0/0
as the source.
Which solution will meet this requirement with the LEAST operational overhead?
A. Modify the EventBridge rule to invoke an AWS Lambda function to remove the security group inbound rule and to publish to the SNS topic.
Deploy the updated rule to the NonProd OU.
B. Add the vpc-sg-open-only-to-authorized-ports AWS Config managed rule to the NonProd OU.
C. Configure an SCP to allow the ec2:AuthorizeSecurityGroupIngress action when the value of the aws:SourceIp condition key is not 0.0.0.0/0.
Apply the SCP to the NonProd OU.
D. Configure an SCP to deny the ec2:AuthorizeSecurityGroupIngress action when the value of the aws:SourceIp condition key is 0.0.0.0/0.
Apply the SCP to the NonProd OU.

ある企業は、AWS Organizationsの組織の一部として10のアカウントを保有しています。各アカウントにはAWS Configが設定されています。すべてのアカウントは、Prod OUまたはNonProd OUのいずれかに所属しています。
この企業は、各AWSアカウントにAmazon EventBridgeルールを設定し、ソースとして0.0.0.0/0が指定されたAmazon EC2セキュリティグループのインバウンドルールが作成された際に、Amazon Simple Notification Service (Amazon SNS)トピックに通知するようにしています。同社のセキュリティチームはこのSNSトピックを購読しています。
NonProd OUに属するすべてのアカウントにおいて、セキュリティチームは、ソースとして0.0.0.0/0を含むセキュリティグループのインバウンドルールを作成する機能を削除する必要があります。
この要件を、最も少ない運用負荷で満たす解決策はどれですか?
A. EventBridgeルールを変更し、AWS Lambda関数を呼び出してセキュリティグループのインバウンドルールを削除し、SNSトピックに公開するようにします。更新されたルールをNonProd OUに展開します。
B. NonProd OUにvpc-sg-open-only-to-authorized-ports AWS Configマネージドルールを追加します。
C. SCPを設定して、aws:SourceIp条件キーの値が0.0.0.0/0でない場合にec2:AuthorizeSecurityGroupIngressアクションを許可します。このSCPをNonProd OUに適用します。
D. SCPを設定して、aws:SourceIp条件キーの値が0.0.0.0/0の場合にec2:AuthorizeSecurityGroupIngressアクションを拒否します。このSCPをNonProd OUに適用します。

43 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

43. A company hosts a Git repository in an on-premises data center. The company uses webhooks to invoke functionality that runs in the AWS Cloud.
The company hosts the webhook logic on a set of Amazon EC2 instances in an Auto Scaling group that the company set as a target for an
Application Load Balancer (ALB). The Git server calls the ALB for the configured webhooks. The company wants to move the solution to a
serverless architecture.
Which solution will meet these requirements with the LEAST operational overhead?
A. For each webhook, create and configure an AWS Lambda function URL. Update the Git servers to call the individual Lambda function URLs.
B. Create an Amazon API Gateway HTTP API. Implement each webhook logic in a separate AWS Lambda function. Update the Git servers to
call the API Gateway endpoint.
C. Deploy the webhook logic to AWS App Runner. Create an ALB, and set App Runner as the target. Update the Git servers to call the ALB
endpoint.
D. Containerize the webhook logic. Create an Amazon Elastic Container Service (Amazon ECS) cluster, and run the webhook logic in AWS
Fargate. Create an Amazon API Gateway REST API, and set Fargate as the target. Update the Git servers to call the API Gateway endpoint.

ある企業がオンプレミスのデータセンターにGitリポジトリをホストしています。
この企業は、AWSクラウドで実行される機能を呼び出すためにウェブフックを使用しています。
ウェブフックロジックは、Auto Scalingグループ内のAmazon EC2インスタンス群にホストされており、企業はこれをApplication Load Balancer(ALB)のターゲットとして設定しています。
Gitサーバーは、設定されたウェブフックに対してALBを呼び出します。
企業はこのソリューションをサーバーレスアーキテクチャに移行したいと考えています。
これらの要件を最も運用負荷が少なく満たすソリューションはどれですか?

A. 各ウェブフックごとにAWS Lambda関数URLを作成および設定し、Gitサーバーを更新して個々のLambda関数URLを呼び出すようにします。
B. Amazon API Gateway HTTP APIを作成し、各ウェブフックロジックを個別のAWS Lambda関数に実装します。Gitサーバーを更新してAPI Gatewayエンドポイントを呼び出すようにします。
C. ウェブフックロジックをAWS App Runnerにデプロイし、ALBを作成してApp Runnerをターゲットに設定します。Gitサーバーを更新してALBエンドポイントを呼び出すようにします。
D. ウェブフックロジックをコンテナ化し、Amazon Elastic Container Service(Amazon ECS)クラスターを作成してAWS Fargateでウェブフックロジックを実行します。Amazon API Gateway REST APIを作成し、Fargateをターゲットに設定します。Gitサーバーを更新してAPI Gatewayエンドポイントを呼び出すようにします。

44 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

44. A company is planning to migrate 1,000 on-premises servers to AWS. The servers run on several VMware clusters in the company’s data center. As
part of the migration plan, the company wants to gather server metrics such as CPU details, RAM usage, operating system information, and
running processes. The company then wants to query and analyze the data.
Which solution will meet these requirements?
A. Deploy and configure the AWS Agentless Discovery Connector virtual appliance on the on-premises hosts. Configure Data Exploration in
AWS Migration Hub. Use AWS Glue to perform an ETL job against the data. Query the data by using Amazon S3 Select.
B. Export only the VM performance information from the on-premises hosts. Directly import the required data into AWS Migration Hub. Update
any missing information in Migration Hub. Query the data by using Amazon QuickSight.
C. Create a script to automatically gather the server information from the on-premises hosts. Use the AWS CLI to run the put-resource
attributes command to store the detailed server data in AWS Migration Hub. Query the data directly in the Migration Hub console.
D. Deploy the AWS Application Discovery Agent to each on-premises server. Configure Data Exploration in AWS Migration Hub. Use Amazon
Athena to run prede ned queries against the data in Amazon S3.

ある企業がオンプレミスのサーバー1,000台をAWSに移行する計画を立てています。これらのサーバーは、企業のデータセンター内にある複数のVMwareクラスター上で実行されています。
移行計画の一環として、同社はCPUの詳細、RAMの使用状況、オペレーティングシステム情報、実行中のプロセスなどのサーバーメトリクスを収集したいと考えています。その後、そのデータを照会および分析したいと考えています。
これらの要件を満たすソリューションはどれですか?
A. オンプレミスホストにAWS Agentless Discovery Connector仮想アプライアンスを展開および構成します。AWS Migration Hubでデータ探索を構成します。AWS Glueを使用してデータに対してETLジョブを実行します。Amazon S3 Selectを使用してデータを照会します。
B. オンプレミスホストからVMパフォーマンス情報のみをエクスポートします。必要なデータを直接AWS Migration Hubにインポートします。Migration Hubで不足している情報を更新します。Amazon QuickSightを使用してデータを照会します。
C. オンプレミスホストからサーバー情報を自動的に収集するスクリプトを作成します。AWS CLIを使用してput-resourceattributesコマンドを実行し、詳細なサーバーデータをAWS Migration Hubに保存します。Migration Hubコンソールで直接データを照会します。
D. 各オンプレミスサーバーにAWS Application Discovery Agentを展開します。AWS Migration Hubでデータ探索を構成します。Amazon Athenaを使用してAmazon S3内のデータに対して事前定義済みクエリを実行します。

45 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

45. A company is building a serverless application that runs on an AWS Lambda function that is attached to a VPC. The company needs to integrate
the application with a new service from an external provider. The external provider supports only requests that come from public IPv4 addresses
that are in an allow list.
The company must provide a single public IP address to the external provider before the application can start using the new service.
Which solution will give the application the ability to access the new service?
A. Deploy a NAT gateway. Associate an Elastic IP address with the NAT gateway. Configure the VPC to use the NAT gateway.
B. Deploy an egress-only internet gateway. Associate an Elastic IP address with the egress-only internet gateway. Configure the elastic
network interface on the Lambda function to use the egress-only internet gateway.
C. Deploy an internet gateway. Associate an Elastic IP address with the internet gateway. Configure the Lambda function to use the internet
gateway.
D. Deploy an internet gateway. Associate an Elastic IP address with the internet gateway. Configure the default route in the public VPC route
table to use the internet gateway.

ある会社が、VPCに接続されたAWS Lambda関数上で動作するサーバーレスアプリケーションを構築しています。会社はこのアプリケーションを外部プロバイダーの新しいサービスと統合する必要があります。
外部プロバイダーは、許可リストに登録されたパブリックIPv4アドレスからのリクエストのみをサポートしています。
会社は、アプリケーションが新しいサービスを使用開始する前に、外部プロバイダーに単一のパブリックIPアドレスを提供しなければなりません。
以下のうち、アプリケーションが新しいサービスにアクセスできるようにする解決策はどれですか?

A. NATゲートウェイをデプロイする。NATゲートウェイにElastic IPアドレスを関連付ける。VPCがNATゲートウェイを使用するように設定する。
B. エグレス専用インターネットゲートウェイをデプロイする。エグレス専用インターネットゲートウェイにElastic IPアドレスを関連付ける。Lambda関数のElasticネットワークインターフェースがエグレス専用インターネットゲートウェイを使用するように設定する。
C. インターネットゲートウェイをデプロイする。インターネットゲートウェイにElastic IPアドレスを関連付ける。Lambda関数がインターネットゲートウェイを使用するように設定する。
D. インターネットゲートウェイをデプロイする。インターネットゲートウェイにElastic IPアドレスを関連付ける。パブリックVPCルートテーブルのデフォルトルートがインターネットゲートウェイを使用するように設定する。

46 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

46. A solutions architect has developed a web application that uses an Amazon API Gateway Regional endpoint and an AWS Lambda function. The
consumers of the web application are all close to the AWS Region where the application will be deployed. The Lambda function only queries an
Amazon Aurora MySQL database. The solutions architect has configured the database to have three read replicas.
During testing, the application does not meet performance requirements. Under high load, the application opens a large number of database
connections. The solutions architect must improve the application’s performance.
Which actions should the solutions architect take to meet these requirements? (Choose two.)
A. Use the cluster endpoint of the Aurora database.
B. Use RDS Proxy to set up a connection pool to the reader endpoint of the Aurora database.
C. Use the Lambda Provisioned Concurrency feature.
D. Move the code for opening the database connection in the Lambda function outside of the event handler.
E. Change the API Gateway endpoint to an edge-optimized endpoint.

ソリューションアーキテクトは、Amazon API GatewayのリージョナルエンドポイントとAWS Lambda関数を使用するウェブアプリケーションを開発しました。
ウェブアプリケーションの利用者はすべて、アプリケーションがデプロイされるAWSリージョンに近い場所にいます。Lambda関数はAmazon Aurora MySQLデータベースをクエリするだけです。
ソリューションアーキテクトは、データベースに3つの読み取りレプリカを設定しました。
テスト中、アプリケーションは性能要件を満たしていません。高負荷時に、アプリケーションは大量のデータベース接続を開きます。
ソリューションアーキテクトは、アプリケーションの性能を向上させる必要があります。
これらの要件を満たすために、ソリューションアーキテクトはどのようなアクションを取るべきですか?(2つ選択してください。)
A. Auroraデータベースのクラスターエンドポイントを使用します。
B. RDS Proxyを使用して、Auroraデータベースのリーダーエンドポイントへの接続プールを設定します。
C. LambdaのProvisioned Concurrency機能を使用します。
D. Lambda関数内でデータベース接続を開くコードを、イベントハンドラーの外に移動します。
E. API Gatewayのエンドポイントをエッジ最適化エンドポイントに変更します。

47 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

47. A company is planning to host a web application on AWS and wants to load balance the traffic across a group of Amazon EC2 instances. One of
the security requirements is to enable end-to-end encryption in transit between the client and the web server.
Which solution will meet this requirement?
A. Place the EC2 instances behind an Application Load Balancer (ALB). Provision an SSL certi cate using AWS Certificate Manager (ACM),
and associate the SSL certi cate with the ALB. Export the SSL certi cate and install it on each EC2 instance. Configure the ALB to listen on
port 443 and to forward traffic to port 443 on the instances.
B. Associate the EC2 instances with a target group. Provision an SSL certi cate using AWS Certificate Manager (ACM). Create an Amazon
CloudFront distribution and configure it to use the SSL certi cate. Set CloudFront to use the target group as the origin server.
C. Place the EC2 instances behind an Application Load Balancer (ALB) Provision an SSL certi cate using AWS Certificate Manager (ACM), and
associate the SSL certi cate with the ALB. Provision a third-party SSL certi cate and install it on each EC2 instance. Configure the ALB to
listen on port 443 and to forward traffic to port 443 on the instances.
D. Place the EC2 instances behind a Network Load Balancer (NLB). Provision a third-party SSL certi cate and install it on the NLB and on each
EC2 instance. Configure the NLB to listen on port 443 and to forward traffic to port 443 on the instances.

ある企業がAWS上でウェブアプリケーションをホストし、複数のAmazon EC2インスタンス間でトラフィックを負荷分散する計画を立てています。
セキュリティ要件の一つは、クライアントとウェブサーバー間の通信において、転送中のエンド・ツー・エンド暗号化を有効にすることです。
この要件を満たす解決策はどれですか?

A. EC2インスタンスをApplication Load Balancer(ALB)の背後に配置します。
AWS Certificate Manager(ACM)を使用してSSL証明書をプロビジョニングし、そのSSL証明書をALBに関連付けます。
SSL証明書をエクスポートして各EC2インスタンスにインストールします。
ALBをポート443でリスニングさせ、インスタンスのポート443にトラフィックを転送するように設定します。

B. EC2インスタンスをターゲットグループに関連付けます。
AWS Certificate Manager(ACM)を使用してSSL証明書をプロビジョニングします。
Amazon CloudFrontディストリビューションを作成し、SSL証明書を使用するように設定します。
CloudFrontがターゲットグループをオリジンサーバーとして使用するように設定します。

C. EC2インスタンスをApplication Load Balancer(ALB)の背後に配置します。
AWS Certificate Manager(ACM)を使用してSSL証明書をプロビジョニングし、そのSSL証明書をALBに関連付けます。
サードパーティのSSL証明書をプロビジョニングして各EC2インスタンスにインストールします。
ALBをポート443でリスニングさせ、インスタンスのポート443にトラフィックを転送するように設定します。

D. EC2インスタンスをNetwork Load Balancer(NLB)の背後に配置します。
サードパーティのSSL証明書をプロビジョニングしてNLBおよび各EC2インスタンスにインストールします。
NLBをポート443でリスニングさせ、インスタンスのポート443にトラフィックを転送するように設定します。

48 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

48. A company wants to migrate its data analytics environment from on premises to AWS. The environment consists of two simple Node.js
applications. One of the applications collects sensor data and loads it into a MySQL database. The other application aggregates the data into
reports. When the aggregation jobs run, some of the load jobs fail to run correctly.
The company must resolve the data loading issue. The company also needs the migration to occur without interruptions or changes for the
company’s customers.
What should a solutions architect do to meet these requirements?
A. Set up an Amazon Aurora MySQL database as a replication target for the on-premises database. Create an Aurora Replica for the Aurora
MySQL database, and move the aggregation jobs to run against the Aurora Replica. Set up collection endpoints as AWS Lambda functions
behind a Network Load Balancer (NLB), and use Amazon RDS Proxy to write to the Aurora MySQL database. When the databases are synced,
disable the replication job and restart the Aurora Replica as the primary instance. Point the collector DNS record to the NLB.
B. Set up an Amazon Aurora MySQL database. Use AWS Database Migration Service (AWS DMS) to perform continuous data replication from
the on-premises database to Aurora. Move the aggregation jobs to run against the Aurora MySQL database. Set up collection endpoints
behind an Application Load Balancer (ALB) as Amazon EC2 instances in an Auto Scaling group. When the databases are synced, point the
collector DNS record to the ALDisable the AWS DMS sync task after the cutover from on premises to AWS.
C. Set up an Amazon Aurora MySQL database. Use AWS Database Migration Service (AWS DMS) to perform continuous data replication from
the on-premises database to Aurora. Create an Aurora Replica for the Aurora MySQL database, and move the aggregation jobs to run against
the Aurora Replica. Set up collection endpoints as AWS Lambda functions behind an Application Load Balancer (ALB), and use Amazon RDS
Proxy to write to the Aurora MySQL database. When the databases are synced, point the collector DNS record to the ALB. Disable the AWS
DMS sync task after the cutover from on premises to AWS.
D. Set up an Amazon Aurora MySQL database. Create an Aurora Replica for the Aurora MySQL database, and move the aggregation jobs to run
against the Aurora Replica. Set up collection endpoints as an Amazon Kinesis data stream. Use Amazon Kinesis Data Firehose to replicate the
data to the Aurora MySQL database. When the databases are synced, disable the replication job and restart the Aurora Replica as the primary
instance. Point the collector DNS record to the Kinesis data stream.

ある会社が、データ分析環境をオンプレミスからAWSに移行したいと考えています。この環境は、2つのシンプルなNode.jsアプリケーションで構成されています。
1つのアプリケーションはセンサーデータを収集し、MySQLデータベースにロードします。もう1つのアプリケーションはデータを集計してレポートを作成します。
集計ジョブが実行されると、一部のロードジョブが正しく実行されないことがあります。
会社はこのデータロードの問題を解決する必要があります。また、移行は顧客に中断や変更を発生させずに行う必要があります。
これらの要件を満たすために、ソリューションアーキテクトは何をすべきでしょうか?

A. オンプレミスデータベースのレプリケーション先としてAmazon Aurora MySQLデータベースを設定します。
Aurora MySQLデータベース用にAuroraレプリカを作成し、集計ジョブをAuroraレプリカで実行するように移動します。
コレクションエンドポイントをNetwork Load Balancer(NLB)配下のAWS Lambda関数として設定し、Amazon RDS Proxyを使用してAurora MySQLデータベースに書き込みます。
データベースが同期したら、レプリケーションジョブを無効にし、Auroraレプリカをプライマリインスタンスとして再起動します。
コレクターのDNSレコードをNLBに向けます。

B. Amazon Aurora MySQLデータベースを設定します。
AWS Database Migration Service(AWS DMS)を使用して、オンプレミスデータベースからAuroraへの継続的なデータレプリケーションを実行します。
集計ジョブをAurora MySQLデータベースで実行するように移動します。
コレクションエンドポイントをAuto Scalingグループ内のAmazon EC2インスタンスとしてApplication Load Balancer(ALB)配下に設定します。
データベースが同期したら、コレクターのDNSレコードをALBに向けます。
オンプレミスからAWSへの切り替え後、AWS DMS同期タスクを無効にします。

C. Amazon Aurora MySQLデータベースを設定します。
AWS Database Migration Service(AWS DMS)を使用して、オンプレミスデータベースからAuroraへの継続的なデータレプリケーションを実行します。
Aurora MySQLデータベース用にAuroraレプリカを作成し、集計ジョブをAuroraレプリカで実行するように移動します。
コレクションエンドポイントをApplication Load Balancer(ALB)配下のAWS Lambda関数として設定し、Amazon RDS Proxyを使用してAurora MySQLデータベースに書き込みます。
データベースが同期したら、コレクターのDNSレコードをALBに向けます。
オンプレミスからAWSへの切り替え後、AWS DMS同期タスクを無効にします。

D. Amazon Aurora MySQLデータベースを設定します。
Aurora MySQLデータベース用にAuroraレプリカを作成し、集計ジョブをAuroraレプリカで実行するように移動します。
コレクションエンドポイントをAmazon Kinesisデータストリームとして設定します。
Amazon Kinesis Data Firehoseを使用して、データをAurora MySQLデータベースにレプリケートします。
データベースが同期したら、レプリケーションジョブを無効にし、Auroraレプリカをプライマリインスタンスとして再起動します。
コレクターのDNSレコードをKinesisデータストリームに向けます。

49 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

49. A health insurance company stores personally identi able information (PII) in an Amazon S3 bucket. The company uses server-side encryption
with S3 managed encryption keys (SSE-S3) to encrypt the objects. According to a new requirement, all current and future objects in the S3 bucket
must be encrypted by keys that the company’s security team manages. The S3 bucket does not have versioning enabled.
Which solution will meet these requirements?
A. In the S3 bucket properties, change the default encryption to SSE-S3 with a customer managed key. Use the AWS CLI to re-upload all
objects in the S3 bucket. Set an S3 bucket policy to deny unencrypted PutObject requests.
B. In the S3 bucket properties, change the default encryption to server-side encryption with AWS KMS managed encryption keys (SSE-KMS).
Set an S3 bucket policy to deny unencrypted PutObject requests. Use the AWS CLI to re-upload all objects in the S3 bucket.
C. In the S3 bucket properties, change the default encryption to server-side encryption with AWS KMS managed encryption keys (SSE-KMS).
Set an S3 bucket policy to automatically encrypt objects on GetObject and PutObject requests.
D. In the S3 bucket properties, change the default encryption to AES-256 with a customer managed key. Attach a policy to deny unencrypted
PutObject requests to any entities that access the S3 bucket. Use the AWS CLI to re-upload all objects in the S3 bucket.

医療保険会社は個人を特定可能な情報(PII)をAmazon S3バケットに保存しています。同社は、S3が管理する暗号化キーを使用したサーバーサイド暗号化(SSE-S3)を使用してオブジェクトを暗号化しています。新しい要件によると、S3バケット内の現在および将来のすべてのオブジェクトは、会社のセキュリティチームが管理するキーで暗号化されなければなりません。S3バケットではバージョニングは有効になっていません。
これらの要件を満たすソリューションはどれですか?

A. S3バケットのプロパティで、デフォルトの暗号化を顧客が管理するキーを使用したSSE-S3に変更します。AWS CLIを使用してS3バケット内のすべてのオブジェクトを再アップロードします。暗号化されていないPutObjectリクエストを拒否するS3バケットポリシーを設定します。

B. S3バケットのプロパティで、デフォルトの暗号化をAWS KMSが管理する暗号化キーを使用したサーバーサイド暗号化(SSE-KMS)に変更します。暗号化されていないPutObjectリクエストを拒否するS3バケットポリシーを設定します。AWS CLIを使用してS3バケット内のすべてのオブジェクトを再アップロードします。

C. S3バケットのプロパティで、デフォルトの暗号化をAWS KMSが管理する暗号化キーを使用したサーバーサイド暗号化(SSE-KMS)に変更します。GetObjectおよびPutObjectリクエスト時にオブジェクトを自動的に暗号化するS3バケットポリシーを設定します。

D. S3バケットのプロパティで、デフォルトの暗号化を顧客が管理するキーを使用したAES-256に変更します。S3バケットにアクセスするすべてのエンティティに対して、暗号化されていないPutObjectリクエストを拒否するポリシーを添付します。AWS CLIを使用してS3バケット内のすべてのオブジェクトを再アップロードします。

50 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

50. A company is running a web application in the AWS Cloud. The application consists of dynamic content that is created on a set of Amazon EC2
instances. The EC2 instances run in an Auto Scaling group that is configured as a target group for an Application Load Balancer (ALB).
The company is using an Amazon CloudFront distribution to distribute the application globally. The CloudFront distribution uses the ALB as an
origin. The company uses Amazon Route 53 for DNS and has created an A record of www.example.com for the CloudFront distribution.
A solutions architect must configure the application so that itis highly available and fault tolerant.
Which solution meets these requirements?
A. Provision a full, secondary application deployment in a different AWS Region. Update the Route 53 A record to be a failover record. Add
both of the CloudFront distributions as values. Create Route 53 health checks.
B. Provision an ALB, an Auto Scaling group, and EC2 instances in a different AWS Region. Update the CloudFront distribution, and create a
second origin for the new ALCreate an origin group for the two origins. Configure one origin as primary and one origin as secondary.
C. Provision an Auto Scaling group and EC2 instances in a different AWS Region. Create a second target for the new Auto Scaling group in the
ALB. Set up the failover routing algorithm on the ALB.
D. Provision a full, secondary application deployment in a different AWS Region. Create a second CloudFront distribution, and add the new
application setup as an origin. Create an AWS Global Accelerator accelerator. Add both of the CloudFront distributions as endpoints.

ある企業がAWSクラウドでウェブアプリケーションを運用しています。このアプリケーションは、Amazon EC2インスタンスのセット上で生成される動的コンテンツで構成されています。
EC2インスタンスはAuto Scalingグループで実行されており、Application Load Balancer(ALB)のターゲットグループとして設定されています。
企業はAmazon CloudFrontディストリビューションを使用してアプリケーションをグローバルに配信しています。
CloudFrontディストリビューションはALBをオリジンとして使用しています。企業はAmazon Route 53をDNSに使用し、CloudFrontディストリビューション用にwww.example.comのAレコードを作成しています。
ソリューションアーキテクトは、アプリケーションが高可用性かつフォールトトレラントになるように構成する必要があります。
これらの要件を満たすソリューションはどれですか?
A. 別のAWSリージョンに完全なセカンダリアプリケーション展開をプロビジョニングします。Route 53のAレコードをフェイルオーバーレコードに更新します。両方のCloudFrontディストリビューションを値として追加します。Route 53のヘルスチェックを作成します。
B. 別のAWSリージョンにALB、Auto Scalingグループ、およびEC2インスタンスをプロビジョニングします。CloudFrontディストリビューションを更新し、新しいALBの2番目のオリジンを作成します。2つのオリジンのオリジングループを作成します。一方のオリジンをプライマリに、もう一方をセカンダリに構成します。
C. 別のAWSリージョンにAuto ScalingグループとEC2インスタンスをプロビジョニングします。ALBに新しいAuto Scalingグループの2番目のターゲットを作成します。ALBにフェイルオーバールーティングアルゴリズムを設定します。
D. 別のAWSリージョンに完全なセカンダリアプリケーション展開をプロビジョニングします。2番目のCloudFrontディストリビューションを作成し、新しいアプリケーション設定をオリジンとして追加します。AWS Global Acceleratorアクセラレータを作成します。両方のCloudFrontディストリビューションをエンドポイントとして追加します。

51 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

51. A company has an organization in AWS Organizations that has a large number of AWS accounts. One of the AWS accounts is designated as a
transit account and has a transit gateway that is shared with all of the other AWS accounts. AWS Site-to-Site VPN connections are configured
between all of the company’s global o ces and the transit account. The company has AWS Config enabled on all of its accounts.
The company’s networking team needs to centrally manage a list of internal IP address ranges that belong to the global o ces. Developers will
reference this list to gain access to their applications securely.
Which solution meets these requirements with the LEAST amount of operational overhead?
A. Create a JSON file that is hosted in Amazon S3 and that lists all of the internal IP address ranges. Configure an Amazon Simple Notification
Service (Amazon SNS) topic in each of the accounts that can be invoked when the JSON file is updated. Subscribe an AWS Lambda function
to the SNS topic to update all relevant security group rules with the updated IP address ranges.
B. Create a new AWS Config managed rule that contains all of the internal IP address ranges. Use the rule to check the security groups in each
of the accounts to ensure compliance with the list of IP address ranges. Configure the rule to automatically remediate any noncompliant
security group that is detected.
C. In the transit account, create a VPC pre x list with all of the internal IP address ranges. Use AWS Resource Access Manager to share the
pre x list with all of the other accounts. Use the shared pre x list to configure security group rules in the other accounts.
D. In the transit account, create a security group with all of the internal IP address ranges. Configure the security groups in the other accounts
to reference the transit account’s security group by using a nested security group reference of “/sg-1a2b3c4d”.

ある企業は、AWS Organizationsにおいて多数のAWSアカウントを有する組織を持っています。そのうちの1つのAWSアカウントはトランジットアカウントとして指定されており、他のすべてのAWSアカウントと共有されるトランジットゲートウェイを備えています。すべての企業のグローバルオフィスとトランジットアカウントの間にはAWS Site-to-Site VPN接続が設定されています。同社はすべてのアカウントでAWS Configを有効にしています。

同社のネットワークチームは、グローバルオフィスに属する内部IPアドレス範囲のリストを一元的に管理する必要があります。開発者はこのリストを参照して、アプリケーションに安全にアクセスできるようになります。

これらの要件を最も少ない運用負荷で満たすソリューションはどれですか?

A. Amazon S3でホストされ、すべての内部IPアドレス範囲をリストしたJSONファイルを作成します。JSONファイルが更新されたときに呼び出せるように、各アカウントにAmazon Simple Notification Service(Amazon SNS)トピックを設定します。更新されたIPアドレス範囲で関連するすべてのセキュリティグループルールを更新するために、AWS Lambda関数をSNSトピックにサブスクライブします。

B. すべての内部IPアドレス範囲を含む新しいAWS Configマネージドルールを作成します。このルールを使用して、各アカウントのセキュリティグループをチェックし、IPアドレス範囲のリストに準拠していることを確認します。検出された非準拠のセキュリティグループを自動的に修復するようにルールを設定します。

C. トランジットアカウントで、すべての内部IPアドレス範囲を含むVPCプレフィックスリストを作成します。AWS Resource Access Managerを使用して、プレフィックスリストを他のすべてのアカウントと共有します。共有されたプレフィックスリストを使用して、他のアカウントのセキュリティグループルールを設定します。

D. トランジットアカウントで、すべての内部IPアドレス範囲を含むセキュリティグループを作成します。他のアカウントのセキュリティグループで、「/sg-1a2b3c4d」というネストされたセキュリティグループ参照を使用して、トランジットアカウントのセキュリティグループを参照するように設定します。

52 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

52. A company runs a new application as a static website in Amazon S3. The company has deployed the application to a production AWS account and
uses Amazon CloudFront to deliver the website. The website calls an Amazon API Gateway REST API. An AWS Lambda function backs each API
method.
The company wants to create a CSV report every 2 weeks to show each API Lambda function’s recommended configured memory, recommended
cost, and the price difference between current configurations and the recommendations. The company will store the reports in an S3 bucket.
Which solution will meet these requirements with the LEAST development time?
A. Create a Lambda function that extracts metrics data for each API Lambda function from Amazon CloudWatch Logs for the 2-week period.
Collate the data into tabular format. Store the data as a .csv file in an S3 bucket. Create an Amazon EventBridge rule to schedule the Lambda
function to run every 2 weeks.
B. Opt in to AWS Compute Optimizer. Create a Lambda function that calls the ExportLambdaFunctionRecommendations operation. Export the
.csv file to an S3 bucket. Create an Amazon EventBridge rule to schedule the Lambda function to run every 2 weeks.
C. Opt in to AWS Compute Optimizer. Set up enhanced infrastructure metrics. Within the Compute Optimizer console, schedule a job to export
the Lambda recommendations to a .csv file. Store the file in an S3 bucket every 2 weeks.
D. Purchase the AWS Business Support plan for the production account. Opt in to AWS Compute Optimizer for AWS Trusted Advisor checks. In
the Trusted Advisor console, schedule a job to export the cost optimization checks to a .csv file. Store the file in an S3 bucket every 2 weeks.

ある会社は、新しいアプリケーションを静的ウェブサイトとしてAmazon S3で実行している。会社はこのアプリケーションを本番AWSアカウントにデプロイし、
ウェブサイトの配信にAmazon CloudFrontを使用している。このウェブサイトはAmazon API Gateway REST APIを呼び出している。各APIメソッドは
AWS Lambda関数によってサポートされている。

会社は、2週間ごとに、各API Lambda関数の推奨設定メモリ、推奨コスト、および現在の設定と推奨設定間の価格差を示すCSVレポートを作成したいと考えている。会社はこれらのレポートをS3バケットに保存する予定である。

これらの要件を最も短い開発時間で満たす解決策はどれか?

A. 2週間分の各API Lambda関数のメトリクスデータをAmazon CloudWatch Logsから抽出するLambda関数を作成する。
データを表形式にまとめ、.csvファイルとしてS3バケットに保存する。Lambda関数を2週間ごとに実行するようにAmazon EventBridgeルールを作成する。

B. AWS Compute Optimizerをオプトインする。ExportLambdaFunctionRecommendations操作を呼び出すLambda関数を作成する。
.csvファイルをS3バケットにエクスポートする。Lambda関数を2週間ごとに実行するようAmazon EventBridgeルールを作成する。

C. AWS Compute Optimizerをオプトインする。拡張インフラストラクチャメトリクスを設定する。
Compute Optimizerコンソール内で、Lambdaの推奨設定を.csvファイルにエクスポートするジョブをスケジュールする。2週間ごとにファイルをS3バケットに保存する。

D. 本番アカウントでAWSビジネスサポートプランを購入する。AWS Trusted AdvisorチェックのためにAWS Compute Optimizerをオプトインする。
Trusted Advisorコンソール内で、コスト最適化チェックを.csvファイルにエクスポートするジョブをスケジュールする。2週間ごとにファイルをS3バケットに保存する。

53 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

53. A company’s factory and automation applications are running in a single VPC. More than 20 applications run on a combination of Amazon EC2,
Amazon Elastic Container Service (Amazon ECS), and Amazon RDS.
The company has software engineers spread across three teams. One of the three teams owns each application, and each time is responsible for
the cost and performance of all of its applications. Team resources have tags that represent their application and team. The teams use IAM
access for daily activities.
The company needs to determine which costs on the monthly AWS bill are attributable to each application or team. The company also must be
able to create reports to compare costs from the last 12 months and to help forecast costs for the next 12 months. A solutions architect must
recommend an AWS Billing and Cost Management solution that provides these cost reports.
Which combination of actions will meet these requirements? (Choose three.)
A. Activate the user-de ne cost allocation tags that represent the application and the team.
B. Activate the AWS generated cost allocation tags that represent the application and the team.
C. Create a cost category for each application in Billing and Cost Management.
D. Activate IAM access to Billing and Cost Management.
E. Create a cost budget.
F. Enable Cost Explorer.

ある会社の工場と自動化アプリケーションは、単一のVPCで実行されています。20以上のアプリケーションが、Amazon EC2、Amazon Elastic Container Service(Amazon ECS)、およびAmazon RDSの組み合わせで実行されています。
この会社には、3つのチームに分散しているソフトウェアエンジニアがいます。3つのチームのうち1つが各アプリケーションを所有しており、各チームはその所有する全てのアプリケーションのコストとパフォーマンスに責任を持っています。チームリソースには、アプリケーションとチームを表すタグが付けられています。チームは日常業務にIAMアクセスを使用しています。
この会社は、毎月のAWS請求書において、各アプリケーションまたはチームに帰属するコストを把握する必要があります。また、過去12ヶ月間のコストを比較し、今後12ヶ月間のコスト予測に役立つレポートを作成できる必要があります。ソリューションアーキテクトは、これらのコストレポートを提供するAWSの課金とコスト管理ソリューションを推奨する必要があります。
これらの要件を満たすには、どのアクションの組み合わせが適していますか?(3つ選択してください。)
A. アプリケーションとチームを表すユーザー定義のコスト割り当てタグを有効化します。
B. アプリケーションとチームを表すAWS生成のコスト割り当てタグを有効化します。
C. 課金とコスト管理で各アプリケーションのコストカテゴリを作成します。
D. 課金とコスト管理へのIAMアクセスを有効化します。
E. コスト予算を作成します。
F. Cost Explorerを有効化します。

54 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

54. An AWS customer has a web application that runs on premises. The web application fetches data from a third-party API that is behind a rewall.
The third party accepts only one public CIDR block in each client’s allow list.
The customer wants to migrate their web application to the AWS Cloud. The application will be hosted on a set of Amazon EC2 instances behind
an Application Load Balancer (ALB) in a VPC. The ALB is located in public subnets. The EC2 instances are located in private subnets. NAT
gateways provide internet access to the private subnets.
How should a solutions architect ensure that the web application can continue to call the third-party API after the migration?
A. Associate a block of customer-owned public IP addresses to the VPC. Enable public IP addressing for public subnets in the VPC.
B. Register a block of customer-owned public IP addresses in the AWS account. Create Elastic IP addresses from the address block and
assign them to the NAT gateways in the VPC.
C. Create Elastic IP addresses from the block of customer-owned IP addresses. Assign the static Elastic IP addresses to the ALB.
D. Register a block of customer-owned public IP addresses in the AWS account. Set up AWS Global Accelerator to use Elastic IP addresses
from the address block. Set the ALB as the accelerator endpoint.

AWSの顧客には、オンプレミスで稼働するウェブアプリケーションがあります。このウェブアプリケーションは、ファイアウォールの内側にあるサードパーティーAPIからデータを取得します。
サードパーティーは、各クライアントの許可リストで1つのパブリックCIDRブロックのみを受け入れます。
顧客はこのウェブアプリケーションをAWSクラウドに移行したいと考えています。アプリケーションは、VPC内のApplication Load Balancer(ALB)の背後にある一連のAmazon EC2インスタンスでホストされます。
ALBはパブリックサブネットに配置され、EC2インスタンスはプライベートサブネットに配置されています。
NATゲートウェイは、プライベートサブネットにインターネットアクセスを提供します。
移行後もウェブアプリケーションがサードパーティーAPIを呼び出し続けることができるようにするため、ソリューションアーキテクトはどのように対応すべきですか?
A. 顧客所有のパブリックIPアドレスのブロックをVPCに関連付けます。VPC内のパブリックサブネットでパブリックIPアドレッシングを有効にします。
B. AWSアカウントに顧客所有のパブリックIPアドレスのブロックを登録します。アドレスブロックからElastic IPアドレスを作成し、それらをVPC内のNATゲートウェイに割り当てます。
C. 顧客所有のIPアドレスのブロックからElastic IPアドレスを作成します。静的Elastic IPアドレスをALBに割り当てます。
D. AWSアカウントに顧客所有のパブリックIPアドレスのブロックを登録します。AWS Global Acceleratorを設定して、アドレスブロックからElastic IPアドレスを使用します。ALBをアクセラレーターエンドポイントとして設定します。

55 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

55. A company has a monolithic application that is critical to the company’s business. The company hosts the application on an Amazon EC2
instance that runs Amazon Linux 2. The company’s application team receives a directive from the legal department to back up the data from the
instance’s encrypted Amazon Elastic Block Store (Amazon EBS) volume to an Amazon S3 bucket. The application team does not have the
administrative SSH key pair for the instance. The application must continue to serve the users.
Which solution will meet these requirements?
A. Attach a role to the instance with permission to write to Amazon S3. Use the AWS Systems Manager Session Manager option to gain
access to the instance and run commands to copy data into Amazon S3.
B. Create an image of the instance with the reboot option turned on. Launch a new EC2 instance from the image. Attach a role to the new
instance with permission to write to Amazon S3. Run a command to copy data into Amazon S3.
C. Take a snapshot of the EBS volume by using Amazon Data Lifecycle Manager (Amazon DLM). Copy the data to Amazon S3.
D. Create an image of the instance. Launch a new EC2 instance from the image. Attach a role to the new instance with permission to write to
Amazon S3. Run a command to copy data into Amazon S3.

ある企業には、そのビジネスにとって極めて重要なモノリシックアプリケーションがあります。
同社はこのアプリケーションをAmazon Linux 2を実行するAmazon EC2インスタンス上でホストしています。
同社のアプリケーションチームは、法務部門から、インスタンスの暗号化されたAmazon Elastic Block Store(Amazon EBS)ボリュームからAmazon S3バケットにデータをバックアップする指令を受けました。
アプリケーションチームはインスタンスの管理用SSHキーペアを持っていません。
アプリケーションはユーザーへのサービス提供を継続する必要があります。
これらの要件を満たすソリューションはどれですか?

A. Amazon S3への書き込み権限を持つロールをインスタンスにアタッチします。
AWS Systems ManagerのSession Managerオプションを使用してインスタンスにアクセスし、データをAmazon S3にコピーするコマンドを実行します。

B. 再起動オプションを有効にしたインスタンスのイメージを作成します。
そのイメージから新しいEC2インスタンスを起動します。
Amazon S3への書き込み権限を持つロールを新しいインスタンスにアタッチします。
データをAmazon S3にコピーするコマンドを実行します。

C. Amazon Data Lifecycle Manager(Amazon DLM)を使用してEBSボリュームのスナップショットを取得します。
データをAmazon S3にコピーします。

D. インスタンスのイメージを作成します。
そのイメージから新しいEC2インスタンスを起動します。
Amazon S3への書き込み権限を持つロールを新しいインスタンスにアタッチします。
データをAmazon S3にコピーするコマンドを実行します。

56 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

56. A solutions architect needs to copy data from an Amazon S3 bucket m an AWS account to a new S3 bucket in a new AWS account. The solutions
architect must implement a solution that uses the AWS CLI.
Which combination of steps will successfully copy the data? (Choose three.)
A. Create a bucket policy to allow the source bucket to list its contents and to put objects and set object ACLs in the destination bucket.
Attach the bucket policy to the destination bucket.
B. Create a bucket policy to allow a user in the destination account to list the source bucket’s contents and read the source bucket’s objects.
Attach the bucket policy to the source bucket.
C. Create an IAM policy in the source account. Configure the policy to allow a user in the source account to list contents and get objects in the
source bucket, and to list contents, put objects, and set object ACLs in the destination bucket. Attach the policy to the user.
D. Create an IAM policy in the destination account. Configure the policy to allow a user in the destination account to list contents and get
objects in the source bucket, and to list contents, put objects, and set objectACLs in the destination bucket. Attach the policy to the user.
E. Run the aws s3 sync command as a user in the source account. Specify the source and destination buckets to copy the data.
F. Run the aws s3 sync command as a user in the destination account. Specify the source and destination buckets to copy the data.

ソリューションアーキテクトは、AWSアカウント内のAmazon S3バケットから新しいAWSアカウント内の新しいS3バケットにデータをコピーする必要があります。
ソリューションアーキテクトは、AWS CLIを使用するソリューションを実装する必要があります。
データを正常にコピーするために、どのステップの組み合わせが適用されますか?(3つを選択してください。)
A. ソースバケットがそのコンテンツをリストし、宛先バケットにオブジェクトを配置し、オブジェクトACLを設定することを許可するバケットポリシーを作成します。
バケットポリシーを宛先バケットにアタッチします。
B. 宛先アカウントのユーザーがソースバケットのコンテンツをリストし、ソースバケットのオブジェクトを読み取ることを許可するバケットポリシーを作成します。
バケットポリシーをソースバケットにアタッチします。
C. ソースアカウントでIAMポリシーを作成します。ポリシーを構成して、ソースアカウントのユーザーがソースバケットのコンテンツをリストし、オブジェクトを取得し、宛先バケットのコンテンツをリストし、オブジェクトを配置し、オブジェクトACLを設定することを許可します。
ポリシーをユーザーにアタッチします。
D. 宛先アカウントでIAMポリシーを作成します。ポリシーを構成して、宛先アカウントのユーザーがソースバケットのコンテンツをリストし、オブジェクトを取得し、宛先バケットのコンテンツをリストし、オブジェクトを配置し、オブジェクトACLを設定することを許可します。
ポリシーをユーザーにアタッチします。
E. ソースアカウントのユーザーとしてaws s3 syncコマンドを実行します。データをコピーするためにソースと宛先のバケットを指定します。
F. 宛先アカウントのユーザーとしてaws s3 syncコマンドを実行します。データをコピーするためにソースと宛先のバケットを指定します。

57 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

57. A company built an application based on AWS Lambda deployed in an AWS CloudFormation stack. The last production release of the web
application introduced an issue that resulted in an outage lasting several minutes. A solutions architect must adjust the deployment process to
support a canary release.
Which solution will meet these requirements?
A. Create an alias for every new deployed version of the Lambda function. Use the AWS CLI update-alias command with the routing-config
parameter to distribute the load.
B. Deploy the application into a new CloudFormation stack. Use an Amazon Route 53 weighted routing policy to distribute the load.
C. Create a version for every new deployed Lambda function. Use the AWS CLI update-function-configuration command with the routing-config
parameter to distribute the load.
D. Configure AWS CodeDeploy and use CodeDeployDefault.OneAtATime in the Deployment configuration to distribute the load.

ある会社が、AWS CloudFormationスタックでデプロイされたAWS Lambdaを基盤としたアプリケーションを構築しました。
このウェブアプリケーションの前回のプロダクションリリースでは、問題が発生し、数分間にわたる障害が起きました。
ソリューションアーキテクトは、カナリアリリースをサポートするためにデプロイプロセスを調整する必要があります。
これらの要件を満たすソリューションはどれでしょうか?

A. Lambda関数の新しいバージョンごとにエイリアスを作成します。AWS CLIのupdate-aliasコマンドとrouting-configパラメータを使用して、負荷を分散させます。
B. アプリケーションを新しいCloudFormationスタックにデプロイします。Amazon Route 53の重み付けルーティングポリシーを使用して、負荷を分散させます。
C. デプロイされた新しいLambda関数ごとにバージョンを作成します。AWS CLIのupdate-function-configurationコマンドとrouting-configパラメータを使用して、負荷を分散させます。
D. AWS CodeDeployを設定し、Deployment configurationでCodeDeployDefault.OneAtATimeを使用して、負荷を分散させます。

58 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

58. A nance company hosts a data lake in Amazon S3. The company receives nancial data records over SFTP each night from several third parties.
The company runs its own SFTP server on an Amazon EC2 instance in a public subnet of a VPC. After the files are uploaded, they are moved to the
data lake by a cron job that runs on the same instance. The SFTP server is reachable on DNS sftp.example.com through the use of Amazon Route
53.
What should a solutions architect do to improve the reliability and scalability of the SFTP solution?
A. Move the EC2 instance into an Auto Scaling group. Place the EC2 instance behind an Application Load Balancer (ALB). Update the DNS
record sftp.example.com in Route 53 to point to the ALB.
B. Migrate the SFTP server to AWS Transfer for SFTP. Update the DNS record sftp.example.com in Route 53 to point to the server endpoint
hostname.
C. Migrate the SFTP server to a file gateway in AWS Storage Gateway. Update the DNS record sftp.example.com in Route 53 to point to the le
gateway endpoint.
D. Place the EC2 instance behind a Network Load Balancer (NLB). Update the DNS record sftp.example.com in Route 53 to point to the NLB.

金融会社はAmazon S3にデータレイクをホストしています。同社は毎晩いくつかのサードパーティからSFTPを介して金融データレコードを受信します。
会社は、VPCのパブリックサブネット内にあるAmazon EC2インスタンス上で独自のSFTPサーバーを実行しています。ファイルがアップロードされた後、それらは同じインスタンス上で実行されるcronジョブによってデータレイクに移動されます。SFTPサーバーは、Amazon Route 53を使用してDNS sftp.example.comで到達可能です。
ソリューションアーキテクトは、SFTPソリューションの信頼性と拡張性を向上させるために何をすべきですか?
A. EC2インスタンスをAuto Scalingグループに移動します。EC2インスタンスをApplication Load Balancer(ALB)の背後に配置します。Route 53のDNSレコードsftp.example.comを更新してALBを指すようにします。
B. SFTPサーバーをAWS Transfer for SFTPに移行します。Route 53のDNSレコードsftp.example.comを更新してサーバーエンドポイントのホスト名を指すようにします。
C. SFTPサーバーをAWS Storage Gatewayのファイルゲートウェイに移行します。Route 53のDNSレコードsftp.example.comを更新してファイルゲートウェイエンドポイントを指すようにします。
D. EC2インスタンスをNetwork Load Balancer(NLB)の背後に配置します。Route 53のDNSレコードsftp.example.comを更新してNLBを指すようにします。

59 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

59. A company wants to migrate an application to Amazon EC2 from VMware Infrastructure that runs in an on-premises data center. A solutions
architect must preserve the software and configuration settings during the migration.
What should the solutions architect do to meet these requirements?
A. Configure the AWS DataSync agent to start replicating the data store to Amazon FSx for Windows File Server. Use the SMB share to host
the VMware data store. Use VM Import/Export to move the VMs to Amazon EC2.
B. Use the VMware vSphere client to export the application as an image in Open Virtualization Format (OVF) format. Create an Amazon S3
bucket to store the image in the destination AWS Region. Create and apply an IAM role for VM Import. Use the AWS CLI to run the EC2 import
command.
C. Configure AWS Storage Gateway for files service to export a Common Internet File System (CIFS) share. Create a backup copy to the shared
folder. Sign in to the AWS Management Console and create an AMI from the backup copy. Launch an EC2 instance that is based on the AMI.
D. Create a managed-instance activation for a hybrid environment in AWS Systems Manager. Download and install Systems Manager Agent on
the on-premises VM. Register the VM with Systems Manager to be a managed instance. Use AWS Backup to create a snapshot of the VM and
create an AMI. Launch an EC2 instance that is based on the AMI.

ある企業が、オンプレミスデータセンターで稼働しているVMware InfrastructureからAmazon EC2へアプリケーションを移行したいと考えています。
ソリューションアーキテクトは、移行中にソフトウェアと設定を保持する必要があります。
この要件を満たすために、ソリューションアーキテクトは何をすべきでしょうか?

A. AWS DataSyncエージェントを設定し、データストアをAmazon FSx for Windows File Serverにレプリケーション開始します。
SMB共有を使用してVMwareデータストアをホストします。
VM Import/Exportを使用してVMをAmazon EC2に移行します。

B. VMware vSphereクライアントを使用して、アプリケーションをOpen Virtualization Format(OVF)形式でイメージとしてエクスポートします。
移行先のAWSリージョンにイメージを保存するためのAmazon S3バケットを作成します。
VM Import用のIAMロールを作成して適用します。
AWS CLIを使用してEC2インポートコマンドを実行します。

C. ファイルサービス用にAWS Storage Gatewayを設定し、Common Internet File System(CIFS)共有をエクスポートします。
共有フォルダにバックアップコピーを作成します。
AWS Management Consoleにサインインし、バックアップコピーからAMIを作成します。
AMIを基にEC2インスタンスを起動します。

D. AWS Systems Managerでハイブリッド環境用のマネージドインスタンスアクティベーションを作成します。
オンプレミスVMにSystems Managerエージェントをダウンロードしてインストールします。
Systems ManagerにVMを登録してマネージドインスタンスにします。
AWS Backupを使用してVMのスナップショットを作成し、AMIを作成します。
AMIを基にEC2インスタンスを起動します。

60 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

60. A video processing company has an application that downloads images from an Amazon S3 bucket, processes the images, stores a transformed
image in a second S3 bucket, and updates metadata about the image in an Amazon DynamoDB table. The application is written in Node.js and
runs by using an AWS Lambda function. The Lambda function is invoked when a new image is uploaded to Amazon S3.
The application ran without incident for a while. However, the size of the images has grown signi cantly. The Lambda function is now failing
frequently with timeout errors. The function timeout is set to its maximum value. A solutions architect needs to refactor the application’s
architecture to prevent invocation failures. The company does not want to manage the underlying infrastructure.
Which combination of steps should the solutions architect take to meet these requirements? (Choose two.)
A. Modify the application deployment by building a Docker image that contains the application code. Publish the image to Amazon Elastic
Container Registry (Amazon ECR).
B. Create a new Amazon Elastic Container Service (Amazon ECS) task de nition with a compatibility type of AWS Fargate. Configure the task
de nition to use the new image in Amazon Elastic Container Registry (Amazon ECR). Adjust the Lambda function to invoke an ECS task by
using the ECS task de nition when a new file arrives in Amazon S3.
C. Create an AWS Step Functions state machine with a Parallel state to invoke the Lambda function. Increase the provisioned concurrency of
the Lambda function.
D. Create a new Amazon Elastic Container Service (Amazon ECS) task de nition with a compatibility type of Amazon EC2. Configure the task
de nition to use the new image in Amazon Elastic Container Registry (Amazon ECR). Adjust the Lambda function to invoke an ECS task by
using the ECS task de nition when a new file arrives in Amazon S3.
E. Modify the application to store images on Amazon Elastic File System (Amazon EFS) and to store metadata on an Amazon RDS DB
instance. Adjust the Lambda function to mount the EFS file share.

ビデオ処理会社は、Amazon S3バケットから画像をダウンロードし、画像を処理し、変換された画像を2番目のS3バケットに保存し、Amazon DynamoDBテーブルに画像に関するメタデータを更新するアプリケーションを持っています。
このアプリケーションはNode.jsで書かれており、AWS Lambda関数を使用して実行されます。
Lambda関数は、新しい画像がAmazon S3にアップロードされると呼び出されます。

アプリケーションはしばらく問題なく動作していました。
しかし、画像のサイズが大幅に大きくなりました。
現在、Lambda関数はタイムアウトエラーで頻繁に失敗しています。
関数のタイムアウトは最大値に設定されています。
ソリューションアーキテクトは、呼び出し失敗を防ぐためにアプリケーションのアーキテクチャをリファクタリングする必要があります。
会社は基盤となるインフラストラクチャを管理したくありません。

ソリューションアーキテクトはこれらの要件を満たすためにどの組み合わせのステップを踏むべきですか?(2つ選択してください。)

A. アプリケーションコードを含むDockerイメージを構築してアプリケーションのデプロイを変更します。
イメージをAmazon Elastic Container Registry(Amazon ECR)に公開します。

B. AWS Fargateの互換性タイプで新しいAmazon Elastic Container Service(Amazon ECS)タスク定義を作成します。
タスク定義を設定してAmazon Elastic Container Registry(Amazon ECR)内の新しいイメージを使用するようにします。
新しいファイルがAmazon S3に到着したときに、ECSタスク定義を使用してECSタスクを呼び出すようにLambda関数を調整します。

C. Parallel状態でAWS Step Functionsステートマシンを作成し、Lambda関数を呼び出します。
Lambda関数のプロビジョニング済み同時実行数を増やします。

D. Amazon EC2の互換性タイプで新しいAmazon Elastic Container Service(Amazon ECS)タスク定義を作成します。
タスク定義を設定してAmazon Elastic Container Registry(Amazon ECR)内の新しいイメージを使用するようにします。
新しいファイルがAmazon S3に到着したときに、ECSタスク定義を使用してECSタスクを呼び出すようにLambda関数を調整します。

E. アプリケーションを変更して、画像をAmazon Elastic File System(Amazon EFS)に保存し、メタデータをAmazon RDS DBインスタンスに保存するようにします。
Lambda関数を調整してEFSファイル共有をマウントするようにします。

61 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

61. A company has an organization in AWS Organizations. The company is using AWS Control Tower to deploy a landing zone for the organization.
The company wants to implement governance and policy enforcement. The company must implement a policy that will detect Amazon RDS DB
instances that are not encrypted at rest in the company’s production OU.
Which solution will meet this requirement?
A. Turn on mandatory guardrails in AWS Control Tower. Apply the mandatory guardrails to the production OU.
B. Enable the appropriate guardrail from the list of strongly recommended guardrails in AWS Control Tower. Apply the guardrail to the
production OU.
C. Use AWS Config to create a new mandatory guardrail. Apply the rule to all accounts in the production OU.
D. Create a custom SCP in AWS Control Tower. Apply the SCP to the production OU.

以下のAWSの問題を一字一句そのまま日本語に翻訳します。段落もすべて翻訳し、省略や解析、要約は行いません。適切な箇所にはHTMLの改行タグを挿入します。

問題:

ある企業はAWS Organizations内に組織を持っています。この企業はAWS Control Towerを使用して、その組織のランディングゾーンを展開しています。
企業はガバナンスとポリシーの実施を導入したいと考えています。企業は、本番OU内で保管時に暗号化されていないAmazon RDS DBインスタンスを検出するポリシーを実施する必要があります。
この要件を満たす解決策はどれですか?
A. AWS Control Towerで必須ガードレールを有効にします。本番OUに必須ガードレールを適用します。
B. AWS Control Towerの強く推奨されるガードレールのリストから適切なガードレールを有効にします。本番OUにガードレールを適用します。
C. AWS Configを使用して新しい必須ガードレールを作成します。本番OU内のすべてのアカウントにルールを適用します。
D. AWS Control TowerでカスタムSCPを作成します。本番OUにSCPを適用します。

62 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

62. A startup company hosts a eet of Amazon EC2 instances in private subnets using the latest Amazon Linux 2 AMI. The company’s engineers rely
heavily on SSH access to the instances for troubleshooting.
The company’s existing architecture includes the following:
• A VPC with private and public subnets, and a NAT gateway.
• Site-to-Site VPN for connectivity with the on-premises environment.
• EC2 security groups with direct SSH access from the on-premises environment.
The company needs to increase security controls around SSH access and provide auditing of commands run by the engineers.
Which strategy should a solutions architect use?
A. Install and configure EC2 Instance Connect on the eet of EC2 instances. Remove all security group rules attached to EC2 instances that
allow inbound TCP on port 22. Advise the engineers to remotely access the instances by using the EC2 Instance Connect CLI.
B. Update the EC2 security groups to only allow inbound TCP on port 22 to the IP addresses of the engineer’s devices. Install the Amazon
CloudWatch agent on all EC2 instances and send operating system audit logs to CloudWatch Logs.
C. Update the EC2 security groups to only allow inbound TCP on port 22 to the IP addresses of the engineer’s devices. Enable AWS Config for
EC2 security group resource changes. Enable AWS Firewall Manager and apply a security group policy that automatically remediates changes
to rules.
D. Create an IAM role with the AmazonSSMManagedInstanceCore managed policy attached. Attach the IAM role to all the EC2 instances.
Remove all security group rules attached to the EC2 instances that allow inbound TCP on port 22. Have the engineers install the AWS Systems
Manager Session Manager plugin for their devices and remotely access the instances by using the start-session API call from Systems
Manager.

スタートアップ企業が最新のAmazon Linux 2 AMIを使用してプライベートサブネット内に一連のAmazon EC2インスタンスをホストしています。
同社のエンジニアは、トラブルシューティングのためにSSHアクセスを頻繁に利用しています。
既存のアーキテクチャには以下の要素が含まれています:
• プライベートサブネットとパブリックサブネット、およびNATゲートウェイを備えたVPC
• オンプレミス環境との接続のためのサイト間VPN
• オンプレミス環境からの直接SSHアクセスを許可するEC2セキュリティグループ
同社はSSHアクセス周りのセキュリティ対策を強化し、エンジニアが実行したコマンドの監査を可能にする必要があります。
ソリューションアーキテクトはどの戦略を採用すべきですか?

A. EC2インスタンスグループにEC2 Instance Connectをインストール・設定する。ポート22へのインバウンドTCPを許可するEC2インスタンスに紐づくセキュリティグループルールを全て削除する。エンジニアにはEC2 Instance Connect CLIを使用してリモートアクセスするよう推奨する。

B. EC2セキュリティグループを更新し、ポート22へのインバウンドTCPをエンジニアのデバイスIPアドレスのみに許可する。すべてのEC2インスタンスにAmazon CloudWatchエージェントをインストールし、OS監査ログをCloudWatch Logsに送信する。

C. EC2セキュリティグループを更新し、ポート22へのインバウンドTCPをエンジニアのデバイスIPアドレスのみに許可する。EC2セキュリティグループリソース変更のためにAWS Configを有効化する。AWS Firewall Managerを有効化し、ルール変更を自動修復するセキュリティグループポリシーを適用する。

D. AmazonSSMManagedInstanceCore管理ポリシーを紐づけたIAMロールを作成する。そのIAMロールをすべてのEC2インスタンスにアタッチする。ポート22へのインバウンドTCPを許可するEC2インスタンスに紐づくセキュリティグループルールを全て削除する。エンジニアには各自のデバイスにAWS Systems Manager Session Managerプラグインをインストールさせ、Systems Managerのstart-session API呼び出しを使用してインスタンスにリモートアクセスさせる。

63 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

63. A company that uses AWS Organizations allows developers to experiment on AWS. As part of the landing zone that the company has deployed,
developers use their company email address to request an account. The company wants to ensure that developers are not launching costly
services or running services unnecessarily. The company must give developers a xed monthly budget to limit their AWS costs.
Which combination of steps will meet these requirements? (Choose three.)
A. Create an SCP to set a xed monthly account usage limit. Apply the SCP to the developer accounts.
B. Use AWS Budgets to create a xed monthly budget for each developer’s account as part of the account creation process.
C. Create an SCP to deny access to costly services and components. Apply the SCP to the developer accounts.
D. Create an IAM policy to deny access to costly services and components. Apply the IAM policy to the developer accounts.
E. Create an AWS Budgets alert action to terminate services when the budgeted amount is reached. Configure the action to terminate all
services.
F. Create an AWS Budgets alert action to send an Amazon Simple Notification Service (Amazon SNS) notification when the budgeted amount
is reached. Invoke an AWS Lambda function to terminate all services.

AWS Organizationsを使用している企業が、開発者がAWSで実験できるようにしている。
その企業が導入したランディングゾーンの一部として、開発者は会社のメールアドレスを使用してアカウントをリクエストする。
企業は、開発者が高額なサービスを立ち上げたり不必要にサービスを実行したりしないようにしたいと考えている。
企業はAWSのコストを制限するために、開発者に毎月固定の予算を与える必要がある。
これらの要件を満たすためのステップの組み合わせはどれか?(3つ選択)

A. SCPを作成して毎月のアカウント使用制限を固定する。そのSCPを開発者のアカウントに適用する。
B. アカウント作成プロセスの一環として、各開発者のアカウントに対してAWS Budgetsを使用して毎月固定の予算を作成する。
C. SCPを作成して高額なサービスとコンポーネントへのアクセスを拒否する。そのSCPを開発者のアカウントに適用する。
D. IAMポリシーを作成して高額なサービスとコンポーネントへのアクセスを拒否する。そのIAMポリシーを開発者のアカウントに適用する。
E. 予算額に達したときにAWS Budgetsのアラートアクションを作成してサービスを終了させる。すべてのサービスを終了するようにアクションを設定する。
F. 予算額に達したときにAmazon Simple Notification Service(Amazon SNS)通知を送信するAWS Budgetsのアラートアクションを作成する。すべてのサービスを終了させるためにAWS Lambda関数を呼び出す。

64 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

64. A company has applications in an AWS account that is named Source. The account is in an organization in AWS Organizations. One of the
applications uses AWS Lambda functions and stores inventory data in an Amazon Aurora database. The application deploys the Lambda
functions by using a deployment package. The company has configured automated backups for Aurora.
The company wants to migrate the Lambda functions and the Aurora database to a new AWS account that is named Target. The application
processes critical data, so the company must minimize downtime.
Which solution will meet these requirements?
A. Download the Lambda function deployment package from the Source account. Use the deployment package and create new Lambda
functions in the Target account. Share the automated Aurora DB cluster snapshot with the Target account.
B. Download the Lambda function deployment package from the Source account. Use the deployment package and create new Lambda
functions in the Target account. Share the Aurora DB cluster with the Target account by using AWS Resource Access Manager {AWS RAM).
Grant the Target account permission to clone the Aurora DB cluster.
C. Use AWS Resource Access Manager (AWS RAM) to share the Lambda functions and the Aurora DB cluster with the Target account. Grant
the Target account permission to clone the Aurora DB cluster.
D. Use AWS Resource Access Manager (AWS RAM) to share the Lambda functions with the Target account. Share the automated Aurora DB
cluster snapshot with the Target account.

ある会社には「Source」という名前のAWSアカウントにアプリケーションがあります。このアカウントはAWS Organizations内の組織に属しています。
そのうちの1つのアプリケーションはAWS Lambda関数を使用し、インベントリデータをAmazon Auroraデータベースに保存しています。このアプリケーションはデプロイメントパッケージを使ってLambda関数をデプロイします。会社はAuroraの自動バックアップを設定しています。

会社はLambda関数とAuroraデータベースを「Target」という新しいAWSアカウントに移行したいと考えています。アプリケーションは重要なデータを処理するため、ダウンタイムを最小限に抑える必要があります。

これらの要件を満たす解決策はどれですか?

A. SourceアカウントからLambda関数のデプロイメントパッケージをダウンロードします。デプロイメントパッケージを使用して、Targetアカウントに新しいLambda関数を作成します。自動化されたAurora DBクラスターのスナップショットをTargetアカウントと共有します。

B. SourceアカウントからLambda関数のデプロイメントパッケージをダウンロードします。デプロイメントパッケージを使用して、Targetアカウントに新しいLambda関数を作成します。AWS Resource Access Manager (AWS RAM)を使用してAurora DBクラスターをTargetアカウントと共有します。TargetアカウントにAurora DBクラスターをクローンする権限を付与します。

C. AWS Resource Access Manager (AWS RAM)を使用してLambda関数とAurora DBクラスターをTargetアカウントと共有します。TargetアカウントにAurora DBクラスターをクローンする権限を付与します。

D. AWS Resource Access Manager (AWS RAM)を使用してLambda関数をTargetアカウントと共有します。自動化されたAurora DBクラスターのスナップショットをTargetアカウントと共有します。

65 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

65. A company runs a Python script on an Amazon EC2 instance to process data. The script runs every 10 minutes. The script ingests files from an
Amazon S3 bucket and processes the files. On average, the script takes approximately 5 minutes to process each file The script will not reprocess
a
le that the script has already processed.
The company reviewed Amazon CloudWatch metrics and noticed that the EC2 instance is idle for approximately 40% of the time because of the
file processing speed. The company wants to make the workload highly available and scalable. The company also wants to reduce long-term
management overhead.
Which solution will meet these requirements MOST cost-effectively?
A. Migrate the data processing script to an AWS Lambda function. Use an S3 event notification to invoke the Lambda function to process the
objects when the company uploads the objects.
B. Create an Amazon Simple Queue Service (Amazon SQS) queue. Configure Amazon S3 to send event notifications to the SQS queue. Create
an EC2 Auto Scaling group with a minimum size of one instance. Update the data processing script to poll the SQS queue. Process the S3
objects that the SQS message identi es.
C. Migrate the data processing script to a container image. Run the data processing container on an EC2 instance. Configure the container to
poll the S3 bucket for new objects and to process the resulting objects.
D. Migrate the data processing script to a container image that runs on Amazon Elastic Container Service (Amazon ECS) on AWS Fargate.
Create an AWS Lambda function that calls the Fargate RunTaskAPI operation when the container processes the file. Use an S3 event
notification to invoke the Lambda function.

ある企業は、データ処理のためAmazon EC2インスタンス上でPythonスクリプトを実行しています。
このスクリプトは10分ごとに実行され、Amazon S3バケットからファイルを取り込み、処理を行います。
平均的に、スクリプトは1ファイルの処理に約5分かかり、既に処理済みのファイルは再処理しません。

この企業はAmazon CloudWatchメトリクスを調査したところ、ファイル処理速度の関係でEC2インスタンスが約40%の時間アイドル状態になっていることに気づきました。
企業はこのワークロードを高可用性かつスケーラブルにしたいと考えており、長期的な管理オーバーヘッドも削減したいと考えています。

これらの要件を最もコスト効率的に満たすソリューションはどれでしょうか?

A. データ処理スクリプトをAWS Lambda関数に移行する。S3イベント通知を使用して、企業がオブジェクトをアップロードした時にLambda関数を呼び出し、オブジェクトを処理させる。

B. Amazon Simple Queue Service (Amazon SQS) キューを作成する。Amazon S3がSQSキューにイベント通知を送信するよう設定する。
最小サイズが1インスタンスのEC2 Auto Scalingグループを作成する。データ処理スクリプトを更新してSQSキューをポーリングさせ、SQSメッセージで指定されたS3オブジェクトを処理するようにする。

C. データ処理スクリプトをコンテナイメージに移行する。EC2インスタンス上でデータ処理コンテナを実行する。
新しいオブジェクトをS3バケットからポーリングして結果のオブジェクトを処理するようコンテナを設定する。

D. データ処理スクリプトをAmazon Elastic Container Service (Amazon ECS) on AWS Fargateで実行するコンテナイメージに移行する。
コンテナがファイルを処理する際にFargateのRunTaskAPI操作を呼び出すAWS Lambda関数を作成する。S3イベント通知を使用してLambda関数を呼び出す。

66 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

66. A nancial services company in North America plans to release a new online web application to its customers on AWS. The company will launch
the application in the us-east-1 Region on Amazon EC2 instances. The application must be highly available and must dynamically scale to meet
user traffic. The company also wants to implement a disaster recovery environment for the application in the us-west-1 Region by using active
passive failover.
Which solution will meet these requirements?
A. Create a VPC in us-east-1 and a VPC in us-west-1. Configure VPC peering. In the us-east-1 VPC, create an Application Load Balancer (ALB)
that extends across multiple Availability Zones in both VPCs. Create an Auto Scaling group that deploys the EC2 instances across the multiple
Availability Zones in both VPCs. Place the Auto Scaling group behind the ALB.
B. Create a VPC in us-east-1 and a VPC in us-west-1. In the us-east-1 VPC, create an Application Load Balancer (ALB) that extends across
multiple Availability Zones in that VPC. Create an Auto Scaling group that deploys the EC2 instances across the multiple Availability Zones in
the us-east-1 VPC. Place the Auto Scaling group behind the ALSet up the same configuration in the us-west-1 VPC. Create an Amazon Route
53 hosted zone. Create separate records for each ALEnable health checks to ensure high availability between Regions.
C. Create a VPC in us-east-1 and a VPC in us-west-1. In the us-east-1 VPC, create an Application Load Balancer (ALB) that extends across
multiple Availability Zones in that VPCreate an Auto Scaling group that deploys the EC2 instances across the multiple Availability Zones in the
us-east-1 VPPlace the Auto Scaling group behind the ALB. Set up the same configuration in the us-west-1 VPCreate an Amazon Route 53
hosted zone. Create separate records for each ALB. Enable health checks and configure a failover routing policy for each record.
D. Create a VPC in us-east-1 and a VPC in us-west-1. Configure VPC peering. In the us-east-1 VPC, create an Application Load Balancer (ALB)
that extends across multiple Availability Zones in both VPCs. Create an Auto Scaling group that deploys the EC2 instances across the multiple
Availability Zones in both VPCs. Place the Auto Scaling group behind the ALB. Create an Amazon Route 53 hosted zone. Create a record for
the ALB.

北米の金融サービス会社が、AWS上で新しいオンラインWebアプリケーションを顧客にリリースする予定です。
同社は、Amazon EC2インスタンス上でus-east-1リージョンにこのアプリケーションを展開します。
アプリケーションは高可用性を備え、ユーザートラフィックに対応して動的にスケーリングできる必要があります。
また、同社はアクティブ・パッシブフェイルオーバーを使用して、us-west-1リージョンにアプリケーションのディザスタリカバリ環境を実装したいと考えています。
これらの要件を満たすソリューションはどれですか?

A. us-east-1とus-west-1にVPCを作成します。VPCピアリングを設定します。
us-east-1 VPCで、両方のVPCにまたがる複数のアベイラビリティーゾーンに拡張するApplication Load Balancer(ALB)を作成します。
両方のVPCの複数のアベイラビリティーゾーンにEC2インスタンスを展開するAuto Scalingグループを作成します。
Auto ScalingグループをALBの背後に配置します。

B. us-east-1とus-west-1にVPCを作成します。
us-east-1 VPCで、そのVPC内の複数のアベイラビリティーゾーンに拡張するApplication Load Balancer(ALB)を作成します。
us-east-1 VPCの複数のアベイラビリティーゾーンにEC2インスタンスを展開するAuto Scalingグループを作成します。
Auto ScalingグループをALBの背後に配置します。
us-west-1 VPCにも同じ設定を行います。
Amazon Route 53ホストゾーンを作成します。
各ALBに対して個別のレコードを作成します。
リージョン間の高可用性を確保するためにヘルスチェックを有効にします。

C. us-east-1とus-west-1にVPCを作成します。
us-east-1 VPCで、そのVPC内の複数のアベイラビリティーゾーンに拡張するApplication Load Balancer(ALB)を作成します。
us-east-1 VPCの複数のアベイラビリティーゾーンにEC2インスタンスを展開するAuto Scalingグループを作成します。
Auto ScalingグループをALBの背後に配置します。
us-west-1 VPCにも同じ設定を行います。
Amazon Route 53ホストゾーンを作成します。
各ALBに対して個別のレコードを作成します。
ヘルスチェックを有効にし、各レコードにフェイルオーバールーティングポリシーを設定します。

D. us-east-1とus-west-1にVPCを作成します。VPCピアリングを設定します。
us-east-1 VPCで、両方のVPCにまたがる複数のアベイラビリティーゾーンに拡張するApplication Load Balancer(ALB)を作成します。
両方のVPCの複数のアベイラビリティーゾーンにEC2インスタンスを展開するAuto Scalingグループを作成します。
Auto ScalingグループをALBの背後に配置します。
Amazon Route 53ホストゾーンを作成します。
ALBに対してレコードを作成します。

67 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

67. A company has an environment that has a single AWS account. A solutions architect is reviewing the environment to recommend what the
company could improve speci cally in terms of access to the AWS Management Console. The company’s IT support workers currently access the
console for administrative tasks, authenticating with named IAM users that have been mapped to their job role.
The IT support workers no longer want to maintain both their Active Directory and IAM user accounts. They want to be able to access the console
by using their existing Active Directory credentials. The solutions architect is using AWS IAM Identity Center (AWS Single Sign-On) to implement
this functionality.
Which solution will meet these requirements MOST cost-effectively?
A. Create an organization in AWS Organizations. Turn on the IAM Identity Center feature in Organizations. Create and configure a directory in
AWS Directory Service for Microsoft Active Directory (AWS Managed Microsoft AD) with a two-way trust to the company’s on-premises Active
Directory. Configure IAM Identity Center and set the AWS Managed Microsoft AD directory as the identity source. Create permission sets and
map them to the existing groups within the AWS Managed Microsoft AD directory.
B. Create an organization in AWS Organizations. Turn on the IAM Identity Center feature in Organizations. Create and configure an AD
Connector to connect to the company’s on-premises Active Directory. Configure IAM Identity Center and select the AD Connector as the
identity source. Create permission sets and map them to the existing groups within the company’s Active Directory.
C. Create an organization in AWS Organizations. Turn on all features for the organization. Create and configure a directory in AWS Directory
Service for Microsoft Active Directory (AWS Managed Microsoft AD) with a two-way trust to the company’s on-premises Active Directory.
Configure IAM Identity Center and select the AWS Managed Microsoft AD directory as the identity source. Create permission sets and map
them to the existing groups within the AWS Managed Microsoft AD directory.
D. Create an organization in AWS Organizations. Turn on all features for the organization. Create and configure an AD Connector to connect to
the company’s on-premises Active Directory. Configure IAM Identity Center and set the AD Connector as the identity source. Create permission
sets and map them to the existing groups within the company’s Active Directory.

ある企業は、単一のAWSアカウントで構成された環境を持っています。
ソリューションアーキテクトは、特にAWSマネジメントコンソールへのアクセスに関して、企業が改善できる点を提案するために環境をレビューしています。
現在、同社のITサポートスタッフは、管理タスクのためにコンソールにアクセスしており、各自の職務にマッピングされた名前付きIAMユーザーで認証を行っています。

ITサポートスタッフは、Active DirectoryとIAMユーザーアカウントの両方を管理することをやめたいと考えています。
彼らは、既存のActive Directory認証情報を使用してコンソールにアクセスできるようにしたいと考えています。
ソリューションアーキテクトは、この機能を実装するためにAWS IAM Identity Center(AWSシングルサインオン)を使用しています。

これらの要件を最もコスト効果的に満たすソリューションはどれですか?

A. AWS Organizationsで組織を作成します。OrganizationsでIAM Identity Center機能を有効にします。
AWS Directory Service for Microsoft Active Directory(AWS Managed Microsoft AD)でディレクトリを作成し、社内のActive Directoryとの双方向信頼関係を設定します。
IAM Identity Centerを設定し、AWS Managed Microsoft ADディレクトリをIDソースとして設定します。
許可セットを作成し、AWS Managed Microsoft ADディレクトリ内の既存グループにマッピングします。

B. AWS Organizationsで組織を作成します。OrganizationsでIAM Identity Center機能を有効にします。
AD Connectorを作成して社内のActive Directoryに接続するように設定します。
IAM Identity Centerを設定し、AD ConnectorをIDソースとして選択します。
許可セットを作成し、社内のActive Directory内の既存グループにマッピングします。

C. AWS Organizationsで組織を作成します。組織のすべての機能を有効にします。
AWS Directory Service for Microsoft Active Directory(AWS Managed Microsoft AD)でディレクトリを作成し、社内のActive Directoryとの双方向信頼関係を設定します。
IAM Identity Centerを設定し、AWS Managed Microsoft ADディレクトリをIDソースとして選択します。
許可セットを作成し、AWS Managed Microsoft ADディレクトリ内の既存グループにマッピングします。

D. AWS Organizationsで組織を作成します。組織のすべての機能を有効にします。
AD Connectorを作成して社内のActive Directoryに接続するように設定します。
IAM Identity Centerを設定し、AD ConnectorをIDソースとして設定します。
許可セットを作成し、社内のActive Directory内の既存グループにマッピングします。

68 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

68. A video streaming company recently launched a mobile app for video sharing. The app uploads various files to an Amazon S3 bucket in the us
east-1 Region. The files range in size from 1 GB to 10 GB.
Users who access the app from Australia have experienced uploads that take long periods of time. Sometimes the files fail to completely upload
for these users. A solutions architect must improve the app’s performance for these uploads.
Which solutions will meet these requirements? (Choose two.)
A. Enable S3 Transfer Acceleration on the S3 bucket. Configure the app to use the Transfer Acceleration endpoint for uploads.
B. Configure an S3 bucket in each Region to receive the uploads. Use S3 Cross-Region Replication to copy the files to the distribution S3
bucket.
C. Set up Amazon Route 53 with latency-based routing to route the uploads to the nearest S3 bucket Region.
D. Configure the app to break the video files into chunks. Use a multipart upload to transfer files to Amazon S3.
E. Modify the app to add random pre xes to the files before uploading.

動画配信会社が最近、動画共有用のモバイルアプリをリリースしました。このアプリは、us-east-1リージョンにあるAmazon S3バケットにさまざまなファイルをアップロードします。ファイルのサイズは1 GBから10 GBまでの範囲です。

オーストラリアからアプリにアクセスするユーザーは、アップロードに長時間かかったり、完全にアップロードできない場合があるという問題を経験しています。ソリューションアーキテクトは、これらのアップロードのパフォーマンスを向上させる必要があります。

これらの要件を満たす解決策はどれですか?(2つ選択してください。)

A. S3バケットでS3 Transfer Accelerationを有効にします。アプリを設定して、アップロード用のTransfer Accelerationエンドポイントを使用します。

B. 各リージョンにS3バケットを設定してアップロードを受け付けます。S3クロスリージョンレプリケーションを使用して、ファイルを配布用S3バケットにコピーします。

C. レイテンシーベーストラウティングを使用してAmazon Route 53を設定し、アップロードを最も近いS3バケットリージョンにルーティングします。

D. アプリを設定して、動画ファイルをチャンクに分割します。マルチパートアップロードを使用してファイルをAmazon S3に転送します。

E. アプリを修正して、アップロード前にファイルにランダムなプレフィックスを追加します。

69 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

69. An application is using an Amazon RDS for MySQL Multi-AZ DB instance in the us-east-1 Region. After a failover test, the application lost the
connections to the database and could not re-establish the connections. After a restart of the application, the application re-established the
connections.
A solutions architect must implement a solution so that the application can re-establish connections to the database without requiring a restart.
Which solution will meet these requirements?
A. Create an Amazon Aurora MySQL Serverless v1 DB instance. Migrate the RDS DB instance to the Aurora Serverless v1 DB instance. Update
the connection settings in the application to point to the Aurora reader endpoint.
B. Create an RDS proxy. Configure the existing RDS endpoint as a target. Update the connection settings in the application to point to the RDS
proxy endpoint.
C. Create a two-node Amazon Aurora MySQL DB cluster. Migrate the RDS DB instance to the Aurora DB cluster. Create an RDS proxy. Configure
the existing RDS endpoint as a target. Update the connection settings in the application to point to the RDS proxy endpoint.
D. Create an Amazon S3 bucket. Export the database to Amazon S3 by using AWS Database Migration Service (AWS DMS). Configure Amazon
Athena to use the S3 bucket as a data store. Install the latest Open Database Connectivity (ODBC) driver for the application. Update the
connection settings in the application to point to the Athena endpoint

アプリケーションがus-east-1リージョンでAmazon RDS for MySQLマルチAZ DBインスタンスを使用しています。フェイルオーバーテスト後、アプリケーションはデータベースへの接続を失い、接続を再確立できませんでした。アプリケーションを再起動した後、接続は再確立されました。
ソリューションアーキテクトは、アプリケーションの再起動を必要とせずにデータベースへの接続を再確立できるソリューションを実装する必要があります。
これらの要件を満たすソリューションはどれですか?

A. Amazon Aurora MySQL Serverless v1 DBインスタンスを作成します。RDS DBインスタンスをAurora Serverless v1 DBインスタンスに移行します。アプリケーションの接続設定を更新して、Auroraリーダーエンドポイントを指すようにします。

B. RDSプロキシを作成します。既存のRDSエンドポイントをターゲットとして設定します。アプリケーションの接続設定を更新して、RDSプロキシエンドポイントを指すようにします。

C. 2ノードのAmazon Aurora MySQL DBクラスターを作成します。RDS DBインスタンスをAurora DBクラスターに移行します。RDSプロキシを作成します。既存のRDSエンドポイントをターゲットとして設定します。アプリケーションの接続設定を更新して、RDSプロキシエンドポイントを指すようにします。

D. Amazon S3バケットを作成します。AWS Database Migration Service(AWS DMS)を使用してデータベースをAmazon S3にエクスポートします。Amazon Athenaを設定して、S3バケットをデータストアとして使用します。アプリケーション用の最新のOpen Database Connectivity(ODBC)ドライバをインストールします。アプリケーションの接続設定を更新して、Athenaエンドポイントを指すようにします。

70 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

70. A company is building a solution in the AWS Cloud. Thousands or devices will connect to the solution and send data. Each device needs to be able
to send and receive data in real time over the MQTT protocol. Each device must authenticate by using a unique X.509 certi cate.
Which solution will meet these requirements with the LEAST operational overhead?
A. Set up AWS IoT Core. For each device, create a corresponding Amazon MQ queue and provision a certi cate. Connect each device to
Amazon MQ.
B. Create a Network Load Balancer (NLB) and configure it with an AWS Lambda authorizer. Run an MQTT broker on Amazon EC2 instances in
an Auto Scaling group. Set the Auto Scaling group as the target for the NLConnect each device to the NLB.
C. Set up AWS IoT Core. For each device, create a corresponding AWS IoT thing and provision a certi cate. Connect each device to AWS IoT
Core.
D. Set up an Amazon API Gateway HTTP API and a Network Load Balancer (NLB). Create integration between API Gateway and the NLB.
Configure a mutual TLS certi cate authorizer on the HTTP API. Run an MQTT broker on an Amazon EC2 instance that the NLB targets.
Connect each device to the NLB.

ある企業がAWSクラウドにソリューションを構築しています。数千台のデバイスがこのソリューションに接続し、データを送信します。各デバイスはMQTTプロトコルを介してリアルタイムでデータを送受信できる必要があります。各デバイスは、固有のX.509証明書を使用して認証を行う必要があります。

これらの要件を満たし、かつ運用負荷が最も少ないソリューションはどれでしょうか?

A. AWS IoT Coreを設定します。各デバイスに対応するAmazon MQキューを作成し、証明書をプロビジョニングします。各デバイスをAmazon MQに接続します。

B. ネットワークロードバランサー(NLB)を作成し、AWS Lambdaオーソライザーで設定します。Auto Scalingグループ内のAmazon EC2インスタンス上でMQTTブローカーを実行します。Auto ScalingグループをNLBのターゲットとして設定し、各デバイスをNLBに接続します。

C. AWS IoT Coreを設定します。各デバイスに対応するAWS IoT Thingを作成し、証明書をプロビジョニングします。各デバイスをAWS IoT Coreに接続します。

D. Amazon API Gateway HTTP APIとネットワークロードバランサー(NLB)を設定します。API GatewayとNLBの間に統合を作成します。HTTP API上で相互TLS証明書オーソライザーを設定します。NLBのターゲットとなるAmazon EC2インスタンス上でMQTTブローカーを実行し、各デバイスをNLBに接続します。

71 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

71. A company is running several workloads in a single AWS account. A new company policy states that engineers can provision only approved
resources and that engineers must use AWS CloudFormation to provision these resources. A solutions architect needs to create a solution to
enforce the new restriction on the IAM role that the engineers use for access.
What should the solutions architect do to create the solution?
A. Upload AWS CloudFormation templates that contain approved resources to an Amazon S3 bucket. Update the IAM policy for the engineers’
IAM role to only allow access to Amazon S3 and AWS CloudFormation. Use AWS CloudFormation templates to provision resources.
B. Update the IAM policy for the engineers’ IAM role with permissions to only allow provisioning of approved resources and AWS
CloudFormation. Use AWS CloudFormation templates to create stacks with approved resources.
C. Update the IAM policy for the engineers’ IAM role with permissions to only allow AWS CloudFormation actions. Create a new IAM policy
with permission to provision approved resources, and assign the policy to a new IAM service role. Assign the IAM service role to AWS
CloudFormation during stack creation.
D. Provision resources in AWS CloudFormation stacks. Update the IAM policy for the engineers’ IAM role to only allow access to their own
AWS CloudFormation stack.

ある企業は、単一のAWSアカウントで複数のワークロードを実行しています。新しい企業ポリシーでは、エンジニアは承認されたリソースのみをプロビジョニングでき、これらのリソースをプロビジョニングするためにはAWS CloudFormationを使用しなければならないと規定されています。ソリューションアーキテクトは、エンジニアがアクセスに使用するIAMロールに新しい制限を適用するソリューションを作成する必要があります。
ソリューションアーキテクトは、このソリューションを作成するために何をすべきですか?
A. 承認されたリソースを含むAWS CloudFormationテンプレートをAmazon S3バケットにアップロードします。エンジニアのIAMロールのIAMポリシーを更新し、Amazon S3とAWS CloudFormationへのアクセスのみを許可します。AWS CloudFormationテンプレートを使用してリソースをプロビジョニングします。
B. エンジニアのIAMロールのIAMポリシーを、承認されたリソースとAWS CloudFormationのプロビジョニングのみを許可するように更新します。AWS CloudFormationテンプレートを使用して、承認されたリソースを含むスタックを作成します。
C. エンジニアのIAMロールのIAMポリシーを、AWS CloudFormationアクションのみを許可するように更新します。承認されたリソースをプロビジョニングする権限を持つ新しいIAMポリシーを作成し、そのポリシーを新しいIAMサービスロールに割り当てます。スタック作成時にIAMサービスロールをAWS CloudFormationに割り当てます。
D. AWS CloudFormationスタックでリソースをプロビジョニングします。エンジニアのIAMロールのIAMポリシーを、自身のAWS CloudFormationスタックへのアクセスのみを許可するように更新します。

72 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

72. A solutions architect is designing the data storage and retrieval architecture for a new application that a company will be launching soon. The
application is designed to ingest millions of small records per minute from devices all around the world. Each record is less than 4 KB in size and
needs to be stored in a durable location where it can be retrieved with low latency. The data is ephemeral and the company is required to store the
data for 120 days only, after which the data can be deleted.
The solutions architect calculates that, during the course of a year, the storage requirements would be about 10-15 TB.
Which storage strategy is the MOST cost-effective and meets the design requirements?
A. Design the application to store each incoming record as a single .csv file in an Amazon S3 bucket to allow for indexed retrieval. Configure a
lifecycle policy to delete data older than 120 days.
B. Design the application to store each incoming record in an Amazon DynamoDB table properly configured for the scale. Configure the
DynamoDB Time to Live (TTL) feature to delete records older than 120 days.
C. Design the application to store each incoming record in a single table in an Amazon RDS MySQL database. Run a nightly cron job that runs
a query to delete any records older than 120 days.
D. Design the application to batch incoming records before writing them to an Amazon S3 bucket. Update the metadata for the object to
contain the list of records in the batch and use the Amazon S3 metadata search feature to retrieve the data. Configure a lifecycle policy to
delete the data after 120 days.

ソリューションアーキテクトは、企業が間もなくリリース予定の新しいアプリケーションのデータストレージおよび検索アーキテクチャを設計しています。
このアプリケーションは、世界中のデバイスから毎分数百万の小さなレコードを取り込むように設計されています。
各レコードのサイズは4 KB未満で、低レイテンシでの検索が可能な耐久性のある場所に保存する必要があります。
データは一時的なものであり、企業はデータを120日間のみ保存する必要があり、その後データは削除可能です。
ソリューションアーキテクトは、1年間のストレージ要件が約10~15 TBになると計算しました。
最もコスト効率が高く、設計要件を満たすストレージ戦略はどれですか?
A. アプリケーションが各受信レコードを単一の.csvファイルとしてAmazon S3バケットに保存し、インデックス付き検索を可能にするように設計します。
120日を超えるデータを削除するライフサイクルポリシーを設定します。
B. アプリケーションが各受信レコードを適切にスケール設定されたAmazon DynamoDBテーブルに保存するように設計します。
120日を超えるレコードを削除するDynamoDBのTime to Live(TTL)機能を設定します。
C. アプリケーションが各受信レコードをAmazon RDS MySQLデータベースの単一テーブルに保存するように設計します。
120日を超えるレコードを削除するクエリを実行する夜間のcronジョブを作成します。
D. アプリケーションが受信レコードをバッチ処理してからAmazon S3バケットに書き込むように設計します。
オブジェクトのメタデータを更新してバッチ内のレコードのリストを含め、Amazon S3メタデータ検索機能を使用してデータを検索します。
120日後にデータを削除するライフサイクルポリシーを設定します。

73 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

73. A retail company is hosting an ecommerce website on AWS across multiple AWS Regions. The company wants the website to be operational at all
times for online purchases. The website stores data in an Amazon RDS for MySQL DB instance.
Which solution will provide the HIGHEST availability for the database?
A. Configure automated backups on Amazon RDS. In the case of disruption, promote an automated backup to be a standalone DB instance.
Direct database traffic to the promoted DB instance. Create a replacement read replica that has the promoted DB instance as its source.
B. Configure global tables and read replicas on Amazon RDS. Activate the cross-Region scope. In the case of disruption, use AWS Lambda to
copy the read replicas from one Region to another Region.
C. Configure global tables and automated backups on Amazon RDS. In the case of disruption, use AWS Lambda to copy the read replicas from
one Region to another Region.
D. Configure read replicas on Amazon RDS. In the case of disruption, promote a cross-Region and read replica to be a standalone DB instance.
Direct database traffic to the promoted DB instance. Create a replacement read replica that has the promoted DB instance as its source.

小売会社がAWS上でeコマースウェブサイトを複数のAWSリージョンにわたってホスティングしています。
会社はウェブサイトがオンライン購入のために常に稼働していることを望んでいます。
ウェブサイトはAmazon RDS for MySQL DBインスタンスにデータを保存しています。
データベースに最高の可用性を提供するソリューションはどれですか?

A. Amazon RDSで自動バックアップを設定します。
障害が発生した場合、自動バックアップをスタンドアロンDBインスタンスに昇格させます。
昇格させたDBインスタンスにデータベーストラフィックを向けます。
昇格させたDBインスタンスをソースとする代替読み取りレプリカを作成します。

B. Amazon RDSでグローバルテーブルと読み取りレプリカを設定します。
クロスリージョンスコープを有効にします。
障害が発生した場合、AWS Lambdaを使用して読み取りレプリカを1つのリージョンから別のリージョンにコピーします。

C. Amazon RDSでグローバルテーブルと自動バックアップを設定します。
障害が発生した場合、AWS Lambdaを使用して読み取りレプリカを1つのリージョンから別のリージョンにコピーします。

D. Amazon RDSで読み取りレプリカを設定します。
障害が発生した場合、クロスリージョンの読み取りレプリカをスタンドアロンDBインスタンスに昇格させます。
昇格させたDBインスタンスにデータベーストラフィックを向けます。
昇格させたDBインスタンスをソースとする代替読み取りレプリカを作成します。

74 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

74. Example Corp. has an on-premises data center and a VPC named VPC A in the Example Corp. AWS account. The on-premises network connects to
VPC A through an AWS Site-To-Site VPN. The on-premises servers can properly access VPC A. Example Corp. just acquired AnyCompany, which
has a VPC named VPC B. There is no IP address overlap among these networks. Example Corp. has peered VPC A and VPC B.
Example Corp. wants to connect from its on-premise servers to VPC B. Example Corp. has properly set up the network ACL and security groups.
Which solution will meet this requirement with the LEAST operational effort?
A. Create a transit gateway. Attach the Site-to-Site VPN, VPC A, and VPC B to the transit gateway. Update the transit gateway route tables for
all networks to add IP range routes for all other networks.
B. Create a transit gateway. Create a Site-to-Site VPN connection between the on-premises network and VPC B, and connect the VPN
connection to the transit gateway. Add a route to direct traffic to the peered VPCs, and add an authorization rule to give clients access to the
VPCs A and B.
C. Update the route tables for the Site-to-Site VPN and both VPCs for all three networks. Configure BGP propagation for all three networks.
Wait for up to 5 minutes for BGP propagation to nish.
D. Modify the Site-to-Site VPN’s virtual private gateway de nition to include VPC A and VPC B. Split the two routers of the virtual private
getaway between the two VPCs.

Example Corp.にはオンプレミスのデータセンターと、Example Corp. AWSアカウント内のVPC Aという名前のVPCがあります。
オンプレミスネットワークはAWSサイト間VPNを通じてVPC Aに接続しています。
オンプレミスサーバーはVPC Aに正しくアクセスできます。
Example Corp.はAnyCompanyを買収しましたが、この会社にはVPC Bという名前のVPCがあります。
これらのネットワーク間にIPアドレスの重複はありません。
Example Corp.はVPC AとVPC Bをピアリングしました。
Example Corp.はオンプレミスサーバーからVPC Bに接続したいと考えています。
Example Corp.はネットワークACLとセキュリティグループを適切に設定しています。
この要件を最小限の運用作業で満たす解決策はどれでしょうか?
A. トランジットゲートウェイを作成します。
サイト間VPN、VPC A、およびVPC Bをトランジットゲートウェイにアタッチします。
すべてのネットワークのトランジットゲートウェイルートテーブルを更新し、他のすべてのネットワークのIP範囲ルートを追加します。
B. トランジットゲートウェイを作成します。
オンプレミスネットワークとVPC Bの間にサイト間VPN接続を作成し、VPN接続をトランジットゲートウェイに接続します。
ピアリングされたVPCにトラフィックを転送するルートを追加し、クライアントがVPC AとVPC Bにアクセスできるように承認ルールを追加します。
C. サイト間VPNと両方のVPCのルートテーブルを3つのネットワークすべてについて更新します。
3つのネットワークすべてでBGP伝搬を設定します。
BGP伝搬が完了するまで最大5分間待ちます。
D. サイト間VPNの仮想プライベートゲートウェイ定義を変更して、VPC AとVPC Bを含めます。
仮想プライベートゲートウェイの2つのルータを2つのVPC間に分割します。

75 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

75. A company recently completed the migration from an on-premises data center to the AWS Cloud by using a replatforming strategy. One of the
migrated servers is running a legacy Simple Mail Transfer Protocol (SMTP) service that a critical application relies upon. The application sends
outbound email messages to the company’s customers. The legacy SMTP server does not support TLS encryption and uses TCP port 25. The
application can use SMTP only.
The company decides to use Amazon Simple Email Service (Amazon SES) and to decommission the legacy SMTP server. The company has
created and validated the SES domain. The company has lifted the SES limits.
What should the company do to modify the application to send email messages from Amazon SES?
A. Configure the application to connect to Amazon SES by using TLS Wrapper. Create an IAM role that has ses:SendEmail and
ses:SendRawEmail permissions. Attach the IAM role to an Amazon EC2 instance.
B. Configure the application to connect to Amazon SES by using STARTTLS. Obtain Amazon SES SMTP credentials. Use the credentials to
authenticate with Amazon SES.
C. Configure the application to use the SES API to send email messages. Create an IAM role that has ses:SendEmail and ses:SendRawEmail
permissions. Use the IAM role as a service role for Amazon SES.
D. Configure the application to use AWS SDKs to send email messages. Create an IAM user for Amazon SES. Generate API access keys. Use
the access keys to authenticate with Amazon SES.

ある企業は最近、リプラットフォーミング戦略を用いてオンプレミスのデータセンターからAWSクラウドへの移行を完了しました。
移行されたサーバーの1つは、重要なアプリケーションが依存しているレガシーなSimple Mail Transfer Protocol(SMTP)サービスを実行しています。
このアプリケーションは、会社の顧客に外部メールを送信します。レガシーSMTPサーバーはTLS暗号化をサポートしておらず、TCPポート25を使用しています。
アプリケーションはSMTPのみを使用できます。

この会社はAmazon Simple Email Service(Amazon SES)を使用し、レガシーSMTPサーバーを廃止することを決定しました。
会社はSESドメインを作成し、検証しました。また、SESの制限を解除しました。

Amazon SESからメールを送信するためにアプリケーションを変更するには、会社は何をすべきですか?
A. TLS Wrapperを使用してAmazon SESに接続するようにアプリケーションを設定します。
ses:SendEmailとses:SendRawEmailの権限を持つIAMロールを作成します。
IAMロールをAmazon EC2インスタンスにアタッチします。

B. STARTTLSを使用してAmazon SESに接続するようにアプリケーションを設定します。
Amazon SES SMTP認証情報を取得します。
その認証情報を使用してAmazon SESで認証します。

C. メールを送信するためにSES APIを使用するようにアプリケーションを設定します。
ses:SendEmailとses:SendRawEmailの権限を持つIAMロールを作成します。
IAMロールをAmazon SESのサービスロールとして使用します。

D. メールを送信するためにAWS SDKを使用するようにアプリケーションを設定します。
Amazon SES用のIAMユーザーを作成します。
APIアクセスキーを生成します。
そのアクセスキーを使用してAmazon SESで認証します。

76 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

76. A company recently acquired several other companies. Each company has a separate AWS account with a different billing and reporting method.
The acquiring company has consolidated all the accounts into one organization in AWS Organizations. However, the acquiring company has found
it di cult to generate a cost report that contains meaningful groups for all the teams.
The acquiring company’s nance team needs a solution to report on costs for all the companies through a self-managed application.
Which solution will meet these requirements?
A. Create an AWS Cost and Usage Report for the organization. De ne tags and cost categories in the report. Create a table in Amazon Athena.
Create an Amazon QuickSight dataset based on the Athena table. Share the dataset with the nance team.
B. Create an AWS Cost and Usage Report for the organization. De ne tags and cost categories in the report. Create a specialized template in
AWS Cost Explorer that the nance department will use to build reports.
C. Create an Amazon QuickSight dataset that receives spending information from the AWS Price List Query API. Share the dataset with the
nance team.
D. Use the AWS Price List Query API to collect account spending information. Create a specialized template in AWS Cost Explorer that the
nance department will use to build reports.

ある会社が最近、他のいくつかの会社を買収しました。各会社には、異なる請求と報告方法を持つ別々のAWSアカウントがあります。
買収側の会社は、すべてのアカウントをAWS Organizationsの1つの組織に統合しました。しかし、買収側の会社は、すべてのチームにとって意味のあるグループを含むコストレポートを作成することが難しいことに気付きました。
買収側の会社の財務チームは、自己管理型アプリケーションを通じてすべての会社のコストを報告するためのソリューションを必要としています。
これらの要件を満たすソリューションはどれですか?
A. 組織のAWSコストと使用状況レポートを作成します。レポートでタグとコストカテゴリを定義します。Amazon Athenaにテーブルを作成します。Athenaテーブルに基づいてAmazon QuickSightデータセットを作成します。データセットを財務チームと共有します。
B. 組織のAWSコストと使用状況レポートを作成します。レポートでタグとコストカテゴリを定義します。財務部門がレポートを作成するために使用するAWS Cost Explorerの専門テンプレートを作成します。
C. AWS Price List Query APIから支出情報を受け取るAmazon QuickSightデータセットを作成します。データセットを財務チームと共有します。
D. AWS Price List Query APIを使用してアカウントの支出情報を収集します。財務部門がレポートを作成するために使用するAWS Cost Explorerの専門テンプレートを作成します。

77 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

77. A company runs an IoT platform on AWS. IoT sensors in various locations send data to the company’s Node.js API servers on Amazon EC2
instances running behind an Application Load Balancer. The data is stored in an Amazon RDS MySQL DB instance that uses a 4 TB General
Purpose SSD volume.
The number of sensors the company has deployed in the eld has increased over time, and is expected to grow signi cantly. The API servers are
consistently overloaded and RDS metrics show high write latency.
Which of the following steps together will resolve the issues permanently and enable growth as new sensors are provisioned, while keeping this
platform cost-e cient? (Choose two.)
A. Resize the MySQL General Purpose SSD storage to 6 TB to improve the volume’s IOPS.
B. Re-architect the database tier to use Amazon Aurora instead of an RDS MySQL DB instance and add read replicas.
C. Leverage Amazon Kinesis Data Streams and AWS Lambda to ingest and process the raw data.
D. Use AWS X-Ray to analyze and debug application issues and add more API servers to match the load.
E. Re-architect the database tier to use Amazon DynamoDB instead of an RDS MySQL DB instance.

ある企業はAWS上でIoTプラットフォームを運用しています。さまざまな場所に設置されたIoTセンサーが、Application Load Balancerの背後で動作するAmazon EC2インスタンス上のNode.js APIサーバーにデータを送信しています。
データは4TBのGeneral Purpose SSDボリュームを使用するAmazon RDS MySQL DBインスタンスに保存されています。

時間の経過とともに、企業がフィールドに展開したセンサーの数は増加し、今後も大幅な成長が見込まれています。APIサーバーは常に過負荷状態にあり、RDSのメトリクスでは高い書き込み遅延が示されています。

新しいセンサーが追加されてもプラットフォームのコスト効率を維持しながら、これらの問題を恒久的に解決し、成長を可能にするためには、以下の選択肢のうちどの2つを組み合わせて実施すべきでしょうか?(2つ選択してください。)

A. MySQLのGeneral Purpose SSDストレージを6TBにリサイズし、ボリュームのIOPSを改善する。
B. データベース層を再設計し、RDS MySQL DBインスタンスの代わりにAmazon Auroraを使用し、リードレプリカを追加する。
C. Amazon Kinesis Data StreamsとAWS Lambdaを活用して生データを取り込み、処理する。
D. AWS X-Rayを使用してアプリケーションの問題を分析・デバッグし、負荷に合わせてAPIサーバーを追加する。
E. データベース層を再設計し、RDS MySQL DBインスタンスの代わりにAmazon DynamoDBを使用する。

78 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

78. A company is building an electronic document management system in which users upload their documents. The application stack is entirely
serverless and runs on AWS in the eu-central-1 Region. The system includes a web application that uses an Amazon CloudFront distribution for
delivery with Amazon S3 as the origin. The web application communicates with Amazon API Gateway Regional endpoints. The API Gateway APIs
call AWS Lambda functions that store metadata in an Amazon Aurora Serverless database and put the documents into an S3 bucket.
The company is growing steadily and has completed a proof of concept with its largest customer. The company must improve latency outside of
Europe.
Which combination of actions will meet these requirements? (Choose two.)
A. Enable S3 Transfer Acceleration on the S3 bucket. Ensure that the web application uses the Transfer Acceleration signed URLs.
B. Create an accelerator in AWS Global Accelerator. Attach the accelerator to the CloudFront distribution.
C. Change the API Gateway Regional endpoints to edge-optimized endpoints.
D. Provision the entire stack in two other locations that are spread across the world. Use global databases on the Aurora Serverless cluster.
E. Add an Amazon RDS proxy between the Lambda functions and the Aurora Serverless database.

ある会社が、ユーザーがドキュメントをアップロードする電子文書管理システムを構築しています。アプリケーションスタックは完全にサーバーレスで、AWSのeu-central-1リージョンで実行されています。このシステムには、Amazon S3をオリジンとして使用するAmazon CloudFrontディストリビューションを配信に利用するウェブアプリケーションが含まれています。ウェブアプリケーションは、Amazon API Gatewayのリージョナルエンドポイントと通信します。API GatewayのAPIは、メタデータをAmazon Aurora Serverlessデータベースに保存し、ドキュメントをS3バケットに格納するAWS Lambda関数を呼び出します。

会社は着実に成長しており、最大の顧客との概念実証を完了しました。会社は、ヨーロッパ以外の地域でのレイテンシを改善する必要があります。

これらの要件を満たすには、どの組み合わせのアクションを取ればよいでしょうか?(2つ選択してください。)
A. S3バケットでS3 Transfer Accelerationを有効にします。ウェブアプリケーションがTransfer Accelerationの署名付きURLを使用するようにします。
B. AWS Global Acceleratorでアクセラレータを作成します。アクセラレータをCloudFrontディストリビューションにアタッチします。
C. API Gatewayのリージョナルエンドポイントをエッジ最適化エンドポイントに変更します。
D. 世界中に分散した2つの他の場所にスタック全体をプロビジョニングします。Aurora Serverlessクラスターでグローバルデータベースを使用します。
E. Lambda関数とAurora Serverlessデータベースの間にAmazon RDSプロキシを追加します。

79 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

79. An adventure company has launched a new feature on its mobile app. Users can use the feature to upload their hiking and rafting photos and
videos anytime. The photos and videos are stored in Amazon S3 Standard storage in an S3 bucket and are served through Amazon CloudFront.
The company needs to optimize the cost of the storage. A solutions architect discovers that most of the uploaded photos and videos are
accessed infrequently after 30 days. However, some of the uploaded photos and videos are accessed frequently after 30 days. The solutions
architect needs to implement a solution that maintains millisecond retrieval availability of the photos and videos at the lowest possible cost.
Which solution will meet these requirements?
A. Configure S3 Intelligent-Tiering on the S3 bucket.
B. Configure an S3 Lifecycle policy to transition image objects and video objects from S3 Standard to S3 Glacier Deep Archive after 30 days.
C. Replace Amazon S3 with an Amazon Elastic File System (Amazon EFS) file system that is mounted on Amazon EC2 instances.
D. Add a Cache-Control: max-age header to the S3 image objects and S3 video objects. Set the header to 30 days.

アドベンチャー企業は、モバイルアプリに新機能を導入しました。
ユーザーはこの機能を使って、ハイキングやラフティングの写真や動画をいつでもアップロードできます。
これらの写真と動画はS3バケット内のAmazon S3 Standardストレージに保存され、Amazon CloudFrontを通じて配信されます。
同社はストレージのコストを最適化する必要があります。
ソリューションアーキテクトは、アップロードされた写真や動画のほとんどが30日後にめったにアクセスされないことを発見しました。
しかし、いくつかの写真や動画は30日後も頻繁にアクセスされます。
ソリューションアーキテクトは、写真と動画のミリ秒単位の取得可用性を可能な限り低コストで維持するソリューションを実装する必要があります。
これらの要件を満たすソリューションはどれですか?

A. S3バケットにS3 Intelligent-Tieringを設定する。
B. S3ライフサイクルポリシーを設定し、画像オブジェクトと動画オブジェクトを30日後にS3 StandardからS3 Glacier Deep Archiveに移行する。
C. Amazon S3をAmazon EC2インスタンスにマウントされたAmazon Elastic File System(Amazon EFS)ファイルシステムに置き換える。
D. S3画像オブジェクトとS3動画オブジェクトにCache-Control: max-ageヘッダーを追加する。ヘッダーを30日に設定する。

80 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

80. A company uses Amazon S3 to store files and images in a variety of storage classes. The company’s S3 costs have increased substantially during
the past year.
A solutions architect needs to review data trends for the past 12 months and identity the appropriate storage class for the objects.
Which solution will meet these requirements?
A. Download AWS Cost and Usage Reports for the last 12 months of S3 usage. Review AWS Trusted Advisor recommendations for cost
savings.
B. Use S3 storage class analysis. Import data trends into an Amazon QuickSight dashboard to analyze storage trends.
C. Use Amazon S3 Storage Lens. Upgrade the default dashboard to include advanced metrics for storage trends.
D. Use Access Analyzer for S3. Download the Access Analyzer for S3 report for the last 12 months. Import the .csv file to an Amazon
QuickSight dashboard.

ある企業が様々なストレージクラスでファイルや画像を保存するためにAmazon S3を使用しています。この会社のS3コストは過去1年間で大幅に増加しました。
ソリューションアーキテクトは過去12ヶ月間のデータ動向を確認し、オブジェクトに適したストレージクラスを特定する必要があります。
これらの要件を満たす解決策はどれですか?

A. 過去12ヶ月間のS3使用状況に関するAWSコストおよび使用レポートをダウンロードします。コスト削減のためのAWS Trusted Advisorの推奨事項を確認します。
B. S3ストレージクラス分析を使用します。データ動向をAmazon QuickSightダッシュボードにインポートしてストレージ動向を分析します。
C. Amazon S3 Storage Lensを使用します。デフォルトのダッシュボードをアップグレードしてストレージ動向に関する高度なメトリクスを含めます。
D. S3用Access Analyzerを使用します。過去12ヶ月間のS3用Access Analyzerレポートをダウンロードします。CSVファイルをAmazon QuickSightダッシュボードにインポートします。

81 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

81. A company has its cloud infrastructure on AWS. A solutions architect needs to de ne the infrastructure as code. The infrastructure is currently
deployed in one AWS Region. The company’s business expansion plan includes deployments in multiple Regions across multiple AWS accounts.
What should the solutions architect do to meet these requirements?
A. Use AWS CloudFormation templates. Add IAM policies to control the various accounts, Deploy the templates across the multiple Regions.
B. Use AWS Organizations. Deploy AWS CloudFormation templates from the management account Use AWS Control Tower to manage
deployments across accounts.
C. Use AWS Organizations and AWS CloudFormation StackSets. Deploy a Cloud Formation template from an account that has the necessary
IAM permissions.
D. Use nested stacks with AWS CloudFormation templates. Change the Region by using nested stacks.

以下是将AWS问题完整翻译成日文的内容:

ある企業はAWS上にクラウドインフラストラクチャを構築しています。ソリューションアーキテクトは、このインフラストラクチャをコードとして定義する必要があります。現在、インフラストラクチャは1つのAWSリージョンに展開されていますが、同社の事業拡大計画では、複数のAWSアカウントにまたがる複数のリージョンへの展開が含まれています。
ソリューションアーキテクトはこれらの要件を満たすために何をすべきでしょうか?

A. AWS CloudFormationテンプレートを使用する。さまざまなアカウントを制御するためにIAMポリシーを追加し、複数のリージョンにわたってテンプレートを展開する。

B. AWS Organizationsを使用する。管理アカウントからAWS CloudFormationテンプレートを展開し、AWS Control Towerを使用してアカウント間の展開を管理する。

C. AWS OrganizationsとAWS CloudFormation StackSetsを使用する。必要なIAM権限を持つアカウントからCloudFormationテンプレートを展開する。

D. AWS CloudFormationテンプレートでネストされたスタックを使用する。ネストされたスタックを使用してリージョンを変更する。

82 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

82. A company has its cloud infrastructure on AWS. A solutions architect needs to de ne the infrastructure as code. The infrastructure is currently
deployed in one AWS Region. The company’s business expansion plan includes deployments in multiple Regions across multiple AWS accounts.
What should the solutions architect do to meet these requirements?
A. Use AWS CloudFormation templates. Add IAM policies to control the various accounts, Deploy the templates across the multiple Regions.
B. Use AWS Organizations. Deploy AWS CloudFormation templates from the management account Use AWS Control Tower to manage
deployments across accounts.
C. Use AWS Organizations and AWS CloudFormation StackSets. Deploy a Cloud Formation template from an account that has the necessary
IAM permissions.
D. Use nested stacks with AWS CloudFormation templates. Change the Region by using nested stacks.

以下是将您提供的内容完整翻译成日文后的结果:

ある企業は、AWS上にクラウドインフラストラクチャを構築しています。ソリューションアーキテクトは、このインフラストラクチャをコードとして定義する必要があります。現在、このインフラストラクチャは単一のAWSリージョンに展開されています。同社の事業拡大計画には、複数のAWSアカウントにまたがる複数のリージョンへの展開が含まれています。

ソリューションアーキテクトは、これらの要件を満たすために何をすべきでしょうか?

A. AWS CloudFormationテンプレートを使用します。さまざまなアカウントを制御するためにIAMポリシーを追加し、複数のリージョンにわたってテンプレートを展開します。

B. AWS Organizationsを使用します。管理アカウントからAWS CloudFormationテンプレートを展開し、AWS Control Towerを使用してアカウント間の展開を管理します。

C. AWS OrganizationsとAWS CloudFormation StackSetsを使用します。必要なIAM権限を持つアカウントからCloudFormationテンプレートを展開します。

D. AWS CloudFormationテンプレートでネストされたスタックを使用します。ネストされたスタックを使用してリージョンを変更します。

83 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

83. A company plans to refactor a monolithic application into a modern application design deployed on AWS. The CI/CD pipeline needs to be
upgraded to support the modern design for the application with the following requirements:
• It should allow changes to be released several times every hour.
• It should be able to roll back the changes as quickly as possible.
Which design will meet these requirements?
A. Deploy a CI/CD pipeline that incorporates AMIs to contain the application and their configurations. Deploy the application by replacing
Amazon EC2 instances.
B. Specify AWS Elastic Beanstalk to stage in a secondary environment as the deployment target for the CI/CD pipeline of the application. To
deploy, swap the staging and production environment URLs.
C. Use AWS Systems Manager to re-provision the infrastructure for each deployment. Update the Amazon EC2 user data to pull the latest code
artifact from Amazon S3 and use Amazon Route 53 weighted routing to point to the new environment.
D. Roll out the application updates as part of an Auto Scaling event using prebuilt AMIs. Use new versions of the AMIs to add instances. and
phase out all instances that use the previous AMI version with the configured termination policy during a deployment event.

ある会社は、モノリシックアプリケーションをAWS上に展開されるモダンなアプリケーションデザインにリファクタリングする計画を立てています。CI/CDパイプラインは、以下の要件を満たすモダンなデザインをサポートするためにアップグレードする必要があります:
• 1時間に数回変更をリリースできるようにする必要があります。
• できるだけ速やかに変更をロールバックできる必要があります。
これらの要件を満たす設計はどれでしょうか?
A. アプリケーションとその設定を含むAMIを組み込んだCI/CDパイプラインを展開します。Amazon EC2インスタンスを置き換えてアプリケーションを展開します。
B. AWS Elastic Beanstalkを使用して、アプリケーションのCI/CDパイプラインの展開ターゲットとして二次環境にステージングを指定します。展開には、ステージング環境と本番環境のURLを入れ替えます。
C. AWS Systems Managerを使用して、各展開ごとにインフラストラクチャを再プロビジョニングします。Amazon EC2ユーザーデータを更新してAmazon S3から最新のコードアーティファクトをプルし、Amazon Route 53の加重ルーティングを使用して新しい環境を指すようにします。
D. 事前構築済みAMIを使用してAuto Scalingイベントの一部としてアプリケーション更新を展開します。AMIの新しいバージョンを使用してインスタンスを追加し、展開イベント中に設定された終了ポリシーを使用して以前のAMIバージョンを使用するすべてのインスタンスを段階的に廃止します。

84 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

84. A company has an application that runs on Amazon EC2 instances. A solutions architect is designing VPC infrastructure in an AWS Region where
the application needs to access an Amazon Aurora DB Cluster. The EC2 instances are all associated with the same security group. The DB cluster
is associated with its own security group.
The solutions architect needs to add rules to the security groups to provide the application with least privilege access to the DB Cluster.
Which combination of steps will meet these requirements? (Choose two.)
A. Add an inbound rule to the EC2 instances’ security group. Specify the DB cluster’s security group as the source over the default Aurora port.
B. Add an outbound rule to the EC2 instances’ security group. Specify the DB cluster’s security group as the destination over the default
Aurora port.
C. Add an inbound rule to the DB cluster’s security group. Specify the EC2 instances’ security group as the source over the default Aurora port.
D. Add an outbound rule to the DB cluster’s security group. Specify the EC2 instances’ security group as the destination over the default Aurora
port.
E. Add an outbound rule to the DB cluster’s security group. Specify the EC2 instances’ security group as the destination over the ephemeral
ports.

ある会社はAmazon EC2インスタンス上で動作するアプリケーションを持っています。
ソリューションアーキテクトは、アプリケーションがAmazon Aurora DBクラスターにアクセスする必要があるAWSリージョンでVPCインフラストラクチャを設計しています。
EC2インスタンスはすべて同じセキュリティグループに関連付けられています。
DBクラスターは独自のセキュリティグループに関連付けられています。

ソリューションアーキテクトは、アプリケーションに最小限の権限でDBクラスターにアクセスできるようにするために、セキュリティグループにルールを追加する必要があります。
これらの要件を満たすには、どの組み合わせの手順を実行すればよいですか?(2つ選択してください)

A. EC2インスタンスのセキュリティグループにインバウンドルールを追加します。デフォルトのAuroraポートでDBクラスターのセキュリティグループをソースとして指定します。
B. EC2インスタンスのセキュリティグループにアウトバウンドルールを追加します。デフォルトのAuroraポートでDBクラスターのセキュリティグループを宛先として指定します。
C. DBクラスターのセキュリティグループにインバウンドルールを追加します。デフォルトのAuroraポートでEC2インスタンスのセキュリティグループをソースとして指定します。
D. DBクラスターのセキュリティグループにアウトバウンドルールを追加します。デフォルトのAuroraポートでEC2インスタンスのセキュリティグループを宛先として指定します。
E. DBクラスターのセキュリティグループにアウトバウンドルールを追加します。エフェメラルポートでEC2インスタンスのセキュリティグループを宛先として指定します。

85 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

85. A company wants to change its internal cloud billing strategy for each of its business units. Currently, the cloud governance team shares reports
for overall cloud spending with the head of each business unit. The company uses AWS Organizations to manage the separate AWS accounts for
each business unit. The existing tagging standard in Organizations includes the application, environment, and owner. The cloud governance team
wants a centralized solution so each business unit receives monthly reports on its cloud spending. The solution should also send notifications for
any cloud spending that exceeds a set threshold.
Which solution is the MOST cost-effective way to meet these requirements?
A. Configure AWS Budgets in each account and configure budget alerts that are grouped by application, environment, and owner. Add each
business unit to an Amazon SNS topic for each alert. Use Cost Explorer in each account to create monthly reports for each business unit.
B. Configure AWS Budgets in the organization’s management account and configure budget alerts that are grouped by application,
environment, and owner. Add each business unit to an Amazon SNS topic for each alert. Use Cost Explorer in the organization’s management
account to create monthly reports for each business unit.
C. Configure AWS Budgets in each account and configure budget alerts that are grouped by application, environment, and owner. Add each
business unit to an Amazon SNS topic for each alert. Use the AWS Billing and Cost Management dashboard in each account to create monthly
reports for each business unit.
D. Enable AWS Cost and Usage Reports in the organization’s management account and configure reports grouped by application, environment.
and owner. Create an AWS Lambda function that processes AWS Cost and Usage Reports, sends budget alerts, and sends monthly reports to
each business unit’s email list.

ある企業が、各事業部門ごとの内部クラウド課金戦略を変更したいと考えています。現在、クラウドガバナンスチームは各事業部門の責任者に対して、全体的なクラウド支出に関するレポートを共有しています。
この企業はAWS Organizationsを使用して、各事業部門ごとに独立したAWSアカウントを管理しています。Organizations内の既存のタグ付け基準には、アプリケーション、環境、および所有者が含まれています。
クラウドガバナンスチームは、各事業部門が毎月のクラウド支出レポートを受け取れるように、集中管理されたソリューションを求めています。また、設定されたしきい値を超えるクラウド支出があった場合に通知を送信する機能も必要です。
これらの要件を満たす最もコスト効率の良いソリューションは次のうちどれですか?
A. 各アカウントでAWS Budgetsを設定し、アプリケーション、環境、および所有者でグループ化された予算アラートを構成します。各アラートに対して各事業部門をAmazon SNSトピックに追加します。各アカウントでCost Explorerを使用して、各事業部門向けの月次レポートを作成します。
B. 組織の管理アカウントでAWS Budgetsを設定し、アプリケーション、環境、および所有者でグループ化された予算アラートを構成します。各アラートに対して各事業部門をAmazon SNSトピックに追加します。組織の管理アカウントでCost Explorerを使用して、各事業部門向けの月次レポートを作成します。
C. 各アカウントでAWS Budgetsを設定し、アプリケーション、環境、および所有者でグループ化された予算アラートを構成します。各アラートに対して各事業部門をAmazon SNSトピックに追加します。各アカウントでAWS Billing and Cost Managementダッシュボードを使用して、各事業部門向けの月次レポートを作成します。
D. 組織の管理アカウントでAWS Cost and Usage Reportsを有効にし、アプリケーション、環境、および所有者でグループ化されたレポートを構成します。AWS Cost and Usage Reportsを処理し、予算アラートを送信し、各事業部門のメーリングリストに月次レポートを送信するAWS Lambda関数を作成します。

86 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

86. A company is using AWS CloudFormation to deploy its infrastructure. The company is concerned that, if a production CloudFormation stack is
deleted, important data stored in Amazon RDS databases or Amazon EBS volumes might also be deleted.
How can the company prevent users from accidentally deleting data in this way?
A. Modify the CloudFormation templates to add a DeletionPolicy attribute to RDS and EBS resources.
B. Configure a stack policy that disallows the deletion of RDS and EBS resources.
C. Modify IAM policies lo deny deleting RDS and EBS resources that are tagged with an “aws:cloudformation:stack-name” tag.
D. Use AWS Config rules to prevent deleting RDS and EBS resources.

ある企業がAWS CloudFormationを使用してインフラストラクチャをデプロイしています。同社は、本番用のCloudFormationスタックが削除された場合、Amazon RDSデータベースやAmazon EBSボリュームに保存された重要なデータも削除される可能性があることを懸念しています。
同社は、このような方法でユーザーが誤ってデータを削除するのを防ぐにはどうすればよいでしょうか?
A. RDSおよびEBSリソースにDeletionPolicy属性を追加するようにCloudFormationテンプレートを修正します。
B. RDSおよびEBSリソースの削除を禁止するスタックポリシーを設定します。
C. “aws:cloudformation:stack-name”タグが付けられたRDSおよびEBSリソースの削除を拒否するようにIAMポリシーを修正します。
D. RDSおよびEBSリソースの削除を防ぐためにAWS Configルールを使用します。

87 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

87. A company has VPC ow logs enabled for Its NAT gateway. The company is seeing Action = ACCEPT for inbound traffic that comes from public IP
address 198.51.100.2 destined for a private Amazon EC2 instance.
A solutions architect must determine whether the traffic represents unsolicited inbound connections from the internet. The first two octets of the
VPC CIDR block are 203.0.
Which set of steps should the solutions architect take to meet these requirements?
A. Open the AWS CloudTrail console. Select the log group that contains the NAT gateway’s elastic network interface and the private instance’s
elastic network interlace. Run a query to lter with the destination address set as “like 203.0” and the source address set as “like
198.51.100.2″. Run the stats command to lter the sum of bytes transferred by the source address and the destination address.
B. Open the Amazon CloudWatch console. Select the log group that contains the NAT gateway’s elastic network interface and the private
instance’s elastic network interface. Run a query to lter with the destination address set as “like 203.0” and the source address set as “like
198.51.100.2″. Run the stats command to lter the sum of bytes transferred by the source address and the destination address.
C. Open the AWS CloudTrail console. Select the log group that contains the NAT gateway’s elastic network interface and the private instance’s
elastic network interface. Run a query to lter with the destination address set as “like 198.51.100.2” and the source address set as “like
203.0″. Run the stats command to lter the sum of bytes transferred by the source address and the destination address.
D. Open the Amazon CloudWatch console. Select the log group that contains the NAT gateway’s elastic network interface and the private
instance’s elastic network interface. Run a query to lter with the destination address set as “like 198.51.100.2” and the source address set as
“like 203.0”. Run the stats command to lter the sum of bytes transferred by the source address and the destination address.

ある企業が、NATゲートウェイに対してVPCフローログを有効にしています。この企業は、パブリックIPアドレス198.51.100.2からプライベートAmazon EC2インスタンス宛てのインバウンドトラフィックに対して「Action = ACCEPT」が記録されているのを確認しています。

ソリューションアーキテクトは、このトラフィックがインターネットからの不請自来なインバウンド接続を表しているかどうかを判断する必要があります。VPC CIDRブロックの最初の2オクテットは203.0です。

これらの要件を満たすために、ソリューションアーキテクトが取るべき一連の手順はどれでしょうか?

A. AWS CloudTrailコンソールを開きます。NATゲートウェイの弾性ネットワークインターフェイスとプライベートインスタンスの弾性ネットワークインターフェイスを含むロググループを選択します。宛先アドレスを「like 203.0」、送信元アドレスを「like 198.51.100.2」に設定してクエリを実行します。statsコマンドを実行して、送信元アドレスと宛先アドレスによって転送されたバイト数の合計をフィルタリングします。

B. Amazon CloudWatchコンソールを開きます。NATゲートウェイの弾性ネットワークインターフェイスとプライベートインスタンスの弾性ネットワークインターフェイスを含むロググループを選択します。宛先アドレスを「like 203.0」、送信元アドレスを「like 198.51.100.2」に設定してクエリを実行します。statsコマンドを実行して、送信元アドレスと宛先アドレスによって転送されたバイト数の合計をフィルタリングします。

C. AWS CloudTrailコンソールを開きます。NATゲートウェイの弾性ネットワークインターフェイスとプライベートインスタンスの弾性ネットワークインターフェイスを含むロググループを選択します。宛先アドレスを「like 198.51.100.2」、送信元アドレスを「like 203.0」に設定してクエリを実行します。statsコマンドを実行して、送信元アドレスと宛先アドレスによって転送されたバイト数の合計をフィルタリングします。

D. Amazon CloudWatchコンソールを開きます。NATゲートウェイの弾性ネットワークインターフェイスとプライベートインスタンスの弾性ネットワークインターフェイスを含むロググループを選択します。宛先アドレスを「like 198.51.100.2」、送信元アドレスを「like 203.0」に設定してクエリを実行します。statsコマンドを実行して、送信元アドレスと宛先アドレスによって転送されたバイト数の合計をフィルタリングします。

88 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

88. A company consists or two separate business units. Each business unit has its own AWS account within a single organization in AWS
Organizations. The business units regularly share sensitive documents with each other. To facilitate sharing, the company created an Amazon S3
bucket in each account and configured low-way replication between the S3 buckets. The S3 buckets have millions of objects.
Recently, a security audit identi ed that neither S3 bucket has encryption at rest enabled. Company policy requires that all documents must be
stored with encryption at rest. The company wants to implement server-side encryption with Amazon S3 managed encryption keys (SSE-S3).
What is the MOST operationally e cient solution that meets these requirements?
A. Turn on SSE-S3 on both S3 buckets. Use S3 Batch Operations to copy and encrypt the objects in the same location.
B. Create an AWS Key Management Service (AWS KMS) key in each account. Turn on server-side encryption with AWS KMS keys (SSE-KMS) on
each S3 bucket by using the corresponding KMS key in that AWS account. Encrypt the existing objects by using an S3 copy command in the
AWS CLI.
C. Turn on SSE-S3 on both S3 buckets. Encrypt the existing objects by using an S3 copy command in the AWS CLI.
D. Create an AWS Key Management Service, (AWS KMS) key in each account. Turn on server-side encryption with AWS KMS keys (SSE-KMS)
on each S3 bucket by using the corresponding KMS key in that AWS account. Use S3 Batch Operations to copy the objects into the same
location.

ある企業は2つの独立した事業部門で構成されています。各事業部門はAWS Organizations内の単一組織において、それぞれ独自のAWSアカウントを保有しています。これらの事業部門は定期的に互いに機密文書を共有しています。共有を容易にするため、同社は各アカウントにAmazon S3バケットを作成し、S3バケット間で双方向レプリケーションを設定しました。S3バケットには数百万のオブジェクトが存在します。

最近のセキュリティ監査で、これらのS3バケットのどちらにも保管時の暗号化が有効になっていないことが判明しました。会社の方針では、すべての文書は保管時に暗号化されている必要があります。同社はAmazon S3管理暗号化キー(SSE-S3)を使用したサーバーサイド暗号化を実装したいと考えています。

これらの要件を満たす、最も運用効率の高い解決策はどれですか?

A. 両方のS3バケットでSSE-S3を有効にします。S3バッチ操作を使用して、オブジェクトを同じ場所にコピーし暗号化します。

B. 各アカウントにAWS Key Management Service (AWS KMS)キーを作成します。各AWSアカウントの対応するKMSキーを使用して、各S3バケットでAWS KMSキー(SSE-KMS)によるサーバーサイド暗号化を有効にします。AWS CLIでS3 copyコマンドを使用して既存のオブジェクトを暗号化します。

C. 両方のS3バケットでSSE-S3を有効にします。AWS CLIでS3 copyコマンドを使用して既存のオブジェクトを暗号化します。

D. 各アカウントにAWS Key Management Service (AWS KMS)キーを作成します。各AWSアカウントの対応するKMSキーを使用して、各S3バケットでAWS KMSキー(SSE-KMS)によるサーバーサイド暗号化を有効にします。S3バッチ操作を使用して、オブジェクトを同じ場所にコピーします。

89 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

89. A company is running an application in the AWS Cloud. The application collects and stores a large amount of unstructured data in an Amazon S3
bucket. The S3 bucket contains several terabytes of data and uses the S3 Standard storage class. The data increases in size by several gigabytes
every day.
The company needs to query and analyze the data. The company does not access data that is more than 1 year old. However, the company must
retain all the data inde nitely for compliance reasons.
Which solution will meet these requirements MOST cost-effectively?
A. Use S3 Select to query the data. Create an S3 Lifecycle policy to transition data that is more than 1 year old to S3 Glacier Deep Archive.
B. Use Amazon Redshift Spectrum to query the data. Create an S3 Lifecycle policy to transition data that is more than 1 year old 10 S3 Glacier
Deep Archive.
C. Use an AWS Glue Data Catalog and Amazon Athena to query the data. Create an S3 Lifecycle policy to transition data that is more than 1
year old to S3 Glacier Deep Archive.
D. Use Amazon Redshift Spectrum to query the data. Create an S3 Lifecycle policy to transition data that is more than 1 year old to S3
Intelligent-Tiering.

ある企業がAWSクラウドでアプリケーションを実行しています。このアプリケーションは、大量の非構造化データをAmazon S3バケットに収集し保存しています。
S3バケットには数テラバイトのデータが保存されており、S3 Standardストレージクラスが使用されています。データは毎日数ギガバイトずつ増加しています。

企業はこのデータをクエリおよび分析する必要があります。企業は1年以上前のデータにはアクセスしません。しかし、コンプライアンスの理由から、すべてのデータを無期限に保持する必要があります。

これらの要件を最もコスト効率的に満たすソリューションはどれでしょうか?
A. S3 Selectを使用してデータをクエリする。1年以上前のデータをS3 Glacier Deep Archiveに移行するためのS3ライフサイクルポリシーを作成する。
B. Amazon Redshift Spectrumを使用してデータをクエリする。1年以上前のデータをS3 Glacier Deep Archiveに移行するためのS3ライフサイクルポリシーを作成する。
C. AWS Glue Data CatalogとAmazon Athenaを使用してデータをクエリする。1年以上前のデータをS3 Glacier Deep Archiveに移行するためのS3ライフサイクルポリシーを作成する。
D. Amazon Redshift Spectrumを使用してデータをクエリする。1年以上前のデータをS3 Intelligent-Tieringに移行するためのS3ライフサイクルポリシーを作成する。

90 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

90. A video processing company wants to build a machine learning (ML) model by using 600 TB of compressed data that is stored as thousands of
files in the company’s on-premises network attached storage system. The company does not have the necessary compute resources on premises
for ML experiments and wants to use AWS.
The company needs to complete the data transfer to AWS within 3 weeks. The data transfer will be a one-time transfer. The data must be
encrypted in transit. The measured upload speed of the company’s internet connection is 100 Mbps. and multiple departments share the
connection.
Which solution will meet these requirements MOST cost-effectively?
A. Order several AWS Snowball Edge Storage Optimized devices by using the AWS Management Console. Configure the devices with a
destination S3 bucket. Copy the data to the devices. Ship the devices back to AWS.
B. Set up a 10 Gbps AWS Direct Connect connection between the company location and the nearest AWS Region. Transfer the data over a VPN
connection into the Region to store the data in Amazon S3.
C. Create a VPN connection between the on-premises network attached storage and the nearest AWS Region. Transfer the data over the VPN
connection.
D. Deploy an AWS Storage Gateway file gateway on premises. Configure the file gateway with a destination S3 bucket. Copy the data to the le
gateway.

ビデオ処理会社は、オンプレミスのネットワーク接続ストレージシステムに数千のファイルとして保存されている600TBの圧縮データを使用して機械学習(ML)モデルを構築したいと考えています。
同社はオンプレミスにML実験に必要な計算リソースを持っておらず、AWSを使用したいと考えています。
同社は、3週間以内にAWSへのデータ転送を完了する必要があります。データ転送は一度きりの転送となります。データは転送中に暗号化されている必要があります。
同社のインターネット接続の測定されたアップロード速度は100Mbpsで、複数の部門で接続を共有しています。
これらの要件を最もコスト効率よく満たす解決策はどれでしょうか?

A. AWS管理コンソールを使用して、複数のAWS Snowball Edge Storage Optimizedデバイスを注文します。デバイスを宛先のS3バケットで設定します。データをデバイスにコピーします。デバイスをAWSに返送します。

B. 会社の所在地と最も近いAWSリージョンの間に10GbpsのAWS Direct Connect接続を設定します。VPN接続を介してデータを転送し、Amazon S3にデータを保存します。

C. オンプレミスのネットワーク接続ストレージと最も近いAWSリージョンの間にVPN接続を作成します。VPN接続を介してデータを転送します。

D. オンプレミスにAWS Storage Gatewayファイルゲートウェイをデプロイします。ファイルゲートウェイを宛先のS3バケットで設定します。データをファイルゲートウェイにコピーします。

91 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

91. A company has migrated Its forms-processing application to AWS. When users interact with the application, they upload scanned forms as les
through a web application. A database stores user metadata and references to files that are stored in Amazon S3. The web application runs on
Amazon EC2 instances and an Amazon RDS for PostgreSQL database.
When forms are uploaded, the application sends notifications to a team through Amazon Simple Notification Service (Amazon SNS). A team
member then logs in and processes each form. The team member performs data validation on the form and extracts relevant data before entering
the information into another system that uses an API.
A solutions architect needs to automate the manual processing of the forms. The solution must provide accurate form extraction. minimize time
to market, and minimize tong-term operational overhead.
Which solution will meet these requirements?
A. Develop custom libraries to perform optical character recognition (OCR) on the forms. Deploy the libraries to an Amazon Elastic Kubernetes
Service (Amazon EKS) cluster as an application tier. Use this tier to process the forms when forms are uploaded. Store the output in Amazon
S3. Parse this output by extracting the data into an Amazon DynamoDB table. Submit the data to the target system’s APL. Host the new
application tier on EC2 instances.
B. Extend the system with an application tier that uses AWS Step Functions and AWS Lambda. Configure this tier to use arti cial intelligence
and machine learning (AI/ML) models that are trained and hosted on an EC2 instance to perform optical character recognition (OCR) on the
forms when forms are uploaded. Store the output in Amazon S3. Parse this output by extracting the data that is required within the application
tier. Submit the data to the target system’s API.
C. Host a new application tier on EC2 instances. Use this tier to call endpoints that host arti cial intelligence and machine teaming (AI/ML)
models that are trained and hosted in Amazon SageMaker to perform optical character recognition (OCR) on the forms. Store the output in
Amazon ElastiCache. Parse this output by extracting the data that is required within the application tier. Submit the data to the target system’s
API.
D. Extend the system with an application tier that uses AWS Step Functions and AWS Lambda. Configure this tier to use Amazon Textract and
Amazon Comprehend to perform optical character recognition (OCR) on the forms when forms are uploaded. Store the output in Amazon S3.
Parse this output by extracting the data that is required within the application tier. Submit the data to the target system’s API.

ある企業が、自社の帳票処理アプリケーションをAWSに移行しました。ユーザーがアプリケーションを操作すると、スキャンされた帳票がファイルとしてWebアプリケーション経由でアップロードされます。データベースにはユーザーのメタデータと、Amazon S3に保存されたファイルへの参照が格納されています。

このWebアプリケーションはAmazon EC2インスタンス上で動作し、データベースにはAmazon RDS for PostgreSQLが使用されています。

帳票がアップロードされると、アプリケーションはAmazon Simple Notification Service (Amazon SNS)を通じてチームに通知を送信します。その後、チームメンバーがログインして各帳票を処理します。チームメンバーは帳票のデータ検証を実施し、関連データを抽出した後、APIを使用する別システムに情報を入力します。

ソリューションアーキテクトは、この手動の帳票処理プロセスを自動化する必要があります。ソリューションは正確な帳票抽出を提供し、市場投入時間を最小限に抑え、長期的な運用負荷を最小化しなければなりません。

これらの要件を満たすソリューションはどれですか?

A. 帳票に対して光学式文字認識(OCR)を実行するカスタムライブラリを開発する。このライブラリをAmazon Elastic Kubernetes Service (Amazon EKS)クラスターにアプリケーション層としてデプロイする。帳票がアップロードされたときにこの層を使用して帳票を処理する。出力をAmazon S3に保存する。この出力を解析し、データをAmazon DynamoDBテーブルに抽出する。データをターゲットシステムのAPIに送信する。新しいアプリケーション層をEC2インスタンス上でホスティングする。

B. AWS Step FunctionsとAWS Lambdaを使用するアプリケーション層でシステムを拡張する。この層を設定し、EC2インスタンス上でトレーニングおよびホスティングされた人工知能および機械学習(AI/ML)モデルを使用して、帳票がアップロードされたときに光学式文字認識(OCR)を実行する。出力をAmazon S3に保存する。この出力を解析し、アプリケーション層内で必要なデータを抽出する。データをターゲットシステムのAPIに送信する。

C. EC2インスタンス上で新しいアプリケーション層をホスティングする。この層を使用して、Amazon SageMakerでトレーニングおよびホスティングされた人工知能および機械学習(AI/ML)モデルをホストするエンドポイントを呼び出す。これにより帳票に対して光学式文字認識(OCR)を実行する。出力をAmazon ElastiCacheに保存する。この出力を解析し、アプリケーション層内で必要なデータを抽出する。データをターゲットシステムのAPIに送信する。

D. AWS Step FunctionsとAWS Lambdaを使用するアプリケーション層でシステムを拡張する。この層を設定し、Amazon TextractとAmazon Comprehendを使用して、帳票がアップロードされたときに光学式文字認識(OCR)を実行する。出力をAmazon S3に保存する。この出力を解析し、アプリケーション層内で必要なデータを抽出する。データをターゲットシステムのAPIに送信する。

92 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

92. A company is refactoring its on-premises order-processing platform in the AWS Cloud. The platform includes a web front end that is hosted on a
eet of VMs, RabbitMQ to connect the front end to the backend, and a Kubernetes cluster to run a containerized backend system to process the
orders. The company does not want to make any major changes to the application.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create an AMI of the web server VM. Create an Amazon EC2 Auto Scaling group that uses the AMI and an Application Load Balancer. Set
up Amazon MQ to replace the on-premises messaging queue. Configure Amazon Elastic Kubernetes Service (Amazon EKS) to host the order
processing backend.
B. Create a custom AWS Lambda runtime to mimic the web server environment. Create an Amazon API Gateway API to replace the front-end
web servers. Set up Amazon MQ to replace the on-premises messaging queue. Configure Amazon Elastic Kubernetes Service (Amazon EKS)
to host the order-processing backend.
C. Create an AMI of the web server VM. Create an Amazon EC2 Auto Scaling group that uses the AMI and an Application Load Balancer. Set
up Amazon MQ to replace the on-premises messaging queue. Install Kubernetes on a eet of different EC2 instances to host the order
processing backend.
D. Create an AMI of the web server VM. Create an Amazon EC2 Auto Scaling group that uses the AMI and an Application Load Balancer. Set up
an Amazon Simple Queue Service (Amazon SQS) queue to replace the on-premises messaging queue. Configure Amazon Elastic Kubernetes
Service (Amazon EKS) to host the order-processing backend.

ある企業が、オンプレミスの注文処理プラットフォームをAWSクラウド上でリファクタリングしています。
このプラットフォームには、仮想マシンのセットでホストされているWebフロントエンド、フロントエンドとバックエンドを接続するためのRabbitMQ、
そして注文を処理するためのコンテナ化されたバックエンドシステムを実行するKubernetesクラスターが含まれています。
同社はアプリケーションに大きな変更を加えたくないと考えています。
これらの要件を最小限の運用負担で満たす解決策はどれですか?

A. WebサーバーVMのAMIを作成します。AMIとApplication Load Balancerを使用するAmazon EC2 Auto Scalingグループを作成します。
オンプレミスのメッセージングキューを置き換えるためにAmazon MQを設定します。
注文処理バックエンドをホストするためにAmazon Elastic Kubernetes Service(Amazon EKS)を設定します。

B. Webサーバー環境を模倣するカスタムAWS Lambdaランタイムを作成します。
フロントエンドWebサーバーを置き換えるためにAmazon API Gateway APIを作成します。
オンプレミスのメッセージングキューを置き換えるためにAmazon MQを設定します。
注文処理バックエンドをホストするためにAmazon Elastic Kubernetes Service(Amazon EKS)を設定します。

C. WebサーバーVMのAMIを作成します。AMIとApplication Load Balancerを使用するAmazon EC2 Auto Scalingグループを作成します。
オンプレミスのメッセージングキューを置き換えるためにAmazon MQを設定します。
注文処理バックエンドをホストするために、別のEC2インスタンスのセットにKubernetesをインストールします。

D. WebサーバーVMのAMIを作成します。AMIとApplication Load Balancerを使用するAmazon EC2 Auto Scalingグループを作成します。
オンプレミスのメッセージングキューを置き換えるためにAmazon Simple Queue Service(Amazon SQS)キューを設定します。
注文処理バックエンドをホストするためにAmazon Elastic Kubernetes Service(Amazon EKS)を設定します。

93 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

93. A company has developed a web application. The company is hosting the application on a group of Amazon EC2 instances behind an Application
Load Balancer. The company wants to improve the security posture of the application and plans to use AWS WAF web ACLs. The solution must
not adversely affect legitimate traffic to the application.
How should a solutions architect configure the web ACLs to meet these requirements?
A. Set the action of the web ACL rules to Count. Enable AWS WAF logging. Analyze the requests for false positives. Modify the rules to avoid
any false positive. Over time, change the action of the web ACL rules from Count to Block.
B. Use only rate-based rules in the web ACLs, and set the throttle limit as high as possible. Temporarily block all requests that exceed the
limit. De ne nested rules to narrow the scope of the rate tracking.
C. Set the action of the web ACL rules to Block. Use only AWS managed rule groups in the web ACLs. Evaluate the rule groups by using
Amazon CloudWatch metrics with AWS WAF sampled requests or AWS WAF logs.
D. Use only custom rule groups in the web ACLs, and set the action to Allow. Enable AWS WAF logging. Analyze the requests for false
positives. Modify the rules to avoid any false positive. Over time, change the action of the web ACL rules from Allow to Block.

ある企業がウェブアプリケーションを開発しました。同社はそのアプリケーションを、Application Load Balancerの背後にあるAmazon EC2インスタンスのグループでホスティングしています。
同社はアプリケーションのセキュリティ態勢を改善したいと考えており、AWS WAFウェブACLの使用を計画しています。ソリューションは、アプリケーションへの正当なトラフィックに悪影響を及ぼしてはいけません。
ソリューションアーキテクトはこれらの要件を満たすために、ウェブACLをどのように設定すべきでしょうか?
A. ウェブACLルールのアクションをCountに設定します。AWS WAFロギングを有効にします。誤検知のリクエストを分析し、誤検知を防ぐためにルールを修正します。時間の経過とともに、ウェブACLルールのアクションをCountからBlockに変更します。
B. ウェブACLではレートベースのルールのみを使用し、スロットル制限をできるだけ高く設定します。制限を超えたリクエストを一時的にブロックします。ネストされたルールを定義して、レート追跡の範囲を狭めます。
C. ウェブACLルールのアクションをBlockに設定します。ウェブACLではAWS管理ルールグループのみを使用します。Amazon CloudWatchメトリクスとAWS WAFサンプリングリクエストまたはAWS WAFログを使用して、ルールグループを評価します。
D. ウェブACLではカスタムルールグループのみを使用し、アクションをAllowに設定します。AWS WAFロギングを有効にします。誤検知のリクエストを分析し、誤検知を防ぐためにルールを修正します。時間の経過とともに、ウェブACLルールのアクションをAllowからBlockに変更します。

94 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

94. A company has an organization that has many AWS accounts in AWS Organizations. A solutions architect must improve how the company
manages common security group rules for the AWS accounts in the organization.
The company has a common set of IP CIDR ranges in an allow list in each AWS account to allow access to and from the company’s on-premises
network. Developers within each account are responsible for adding new IP CIDR ranges to their security groups. The security team has its own
AWS account. Currently, the security team noti es the owners of the other AWS accounts when changes are made to the allow list.
The solutions architect must design a solution that distributes the common set of CIDR ranges across all accounts.
Which solution meets these requirements with the LEAST amount of operational overhead?
A. Set up an Amazon Simple Notification Service (Amazon SNS) topic in the security team’s AWS account. Deploy an AWS Lambda function in
each AWS account. Configure the Lambda function to run every time an SNS topic receives a message. Configure the Lambda function to take
an IP address as input and add it to a list of security groups in the account. Instruct the security team to distribute changes by publishing
messages to its SNS topic.
B. Create new customer-managed pre x lists in each AWS account within the organization. Populate the pre x lists in each account with all
internal CIDR ranges. Notify the owner of each AWS account to allow the new customer-managed pre x list IDs in their accounts in their
security groups. Instruct the security team to share updates with each AWS account owner.
C. Create a new customer-managed pre x list in the security team’s AWS account. Populate the customer-managed pre x list with all internal
CIDR ranges. Share the customer-managed pre x list with the organization by using AWS Resource Access Manager. Notify the owner of each
AWS account to allow the new customer-managed pre x list ID in their security groups.
D. Create an IAM role in each account in the organization. Grant permissions to update security groups. Deploy an AWS Lambda function in
the security team’s AWS account. Configure the Lambda function to take a list of internal IP addresses as input, assume a role in each
organization account, and add the list of IP addresses to the security groups in each account.

ある企業では、AWS Organizationsに多くのAWSアカウントを組織化されています。
ソリューションアーキテクトは、組織内のAWSアカウントに対する共通セキュリティグループルールの管理方法を改善する必要があります。
企業では、各AWSアカウントの許可リストに共通のIP CIDRレンジのセットがあり、企業のオンプレミスネットワークとの間のアクセスを許可しています。
各アカウント内の開発者は、新規のIP CIDRレンジを自身のセキュリティグループに追加する責任を負っています。
セキュリティチームは独自のAWSアカウントを持っています。
現在、セキュリティチームは許可リストに変更があった場合、他のAWSアカウントの所有者に通知しています。
ソリューションアーキテクトは、全てのアカウントにわたって共通のCIDRレンジセットを配布するソリューションを設計する必要があります。
最小限の運用オーバーヘッドでこれらの要件を満たすソリューションはどれですか?

A. セキュリティチームのAWSアカウントにAmazon Simple Notification Service (Amazon SNS)トピックを設定します。
各AWSアカウントにAWS Lambda関数をデプロイします。
SNSトピックがメッセージを受信するたびにLambda関数が実行されるように設定します。
Lambda関数がIPアドレスを入力として受け取り、アカウント内のセキュリティグループのリストに追加するように設定します。
セキュリティチームに、変更をSNSトピックにメッセージを発行することで配布するよう指示します。

B. 組織内の各AWSアカウントに新規のカスタマー管理プレフィックスリストを作成します。
各アカウントのプレフィックスリストにすべての内部CIDRレンジを追加します。
各AWSアカウントの所有者に、新規のカスタマー管理プレフィックスリストIDを自身のアカウントのセキュリティグループで許可するよう通知します。
セキュリティチームに各AWSアカウントの所有者と更新を共有するよう指示します。

C. セキュリティチームのAWSアカウントに新規のカスタマー管理プレフィックスリストを作成します。
カスタマー管理プレフィックスリストにすべての内部CIDRレンジを追加します。
AWS Resource Access Managerを使用して、カスタマー管理プレフィックスリストを組織と共有します。
各AWSアカウントの所有者に、新規のカスタマー管理プレフィックスリストIDを自身のセキュリティグループで許可するよう通知します。

D. 組織内の各アカウントにIAMロールを作成します。
セキュリティグループを更新する権限を付与します。
セキュリティチームのAWSアカウントにAWS Lambda関数をデプロイします。
Lambda関数が内部IPアドレスのリストを入力として受け取り、組織内の各アカウントのロールを引き受け、各アカウントのセキュリティグループにIPアドレスのリストを追加するように設定します。

95 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

95. A company has introduced a new policy that allows employees to work remotely from their homes if they connect by using a VPN. The company is
hosting internal applications with VPCs in multiple AWS accounts. Currently, the applications are accessible from the company’s on-premises
o ce network through an AWS Site-to-Site VPN connection. The VPC in the company’s main AWS account has peering connections established
with VPCs in other AWS accounts.
A solutions architect must design a scalable AWS Client VPN solution for employees to use while they work from home.
What is the MOST cost-effective solution that meets these requirements?
A. Create a Client VPN endpoint in each AWS account. Configure required routing that allows access to internal applications.
B. Create a Client VPN endpoint in the main AWS account. Configure required routing that allows access to internal applications.
C. Create a Client VPN endpoint in the main AWS account. Provision a transit gateway that is connected to each AWS account. Configure
required routing that allows access to internal applications.
D. Create a Client VPN endpoint in the main AWS account. Establish connectivity between the Client VPN endpoint and the AWS Site-to-Site
VPN.

ある企業が、VPNを使用して接続することを条件に、従業員が自宅からリモートワークできる新しいポリシーを導入しました。
この企業は、複数のAWSアカウント内のVPCで内部アプリケーションをホストしています。
現在、これらのアプリケーションは、AWSサイト間VPN接続を介して、企業のオンプレミスオフィスネットワークからアクセス可能です。
企業のメインAWSアカウント内のVPCには、他のAWSアカウント内のVPCとのピアリング接続が確立されています。
ソリューションアーキテクトは、従業員が在宅勤務中に使用できるスケーラブルなAWSクライアントVPNソリューションを設計する必要があります。
これらの要件を満たす最もコスト効率の高いソリューションは次のうちどれですか?

A. 各AWSアカウントにクライアントVPNエンドポイントを作成し、内部アプリケーションへのアクセスを許可する必要なルーティングを構成する。
B. メインAWSアカウントにクライアントVPNエンドポイントを作成し、内部アプリケーションへのアクセスを許可する必要なルーティングを構成する。
C. メインAWSアカウントにクライアントVPNエンドポイントを作成し、各AWSアカウントに接続されたトランジットゲートウェイをプロビジョニングする。
内部アプリケーションへのアクセスを許可する必要なルーティングを構成する。
D. メインAWSアカウントにクライアントVPNエンドポイントを作成し、クライアントVPNエンドポイントとAWSサイト間VPNとの間の接続を確立する。

96 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

96. A company is running an application in the AWS Cloud. Recent application metrics show inconsistent response times and a signi cant increase in
error rates. Calls to third-party services are causing the delays. Currently, the application calls third-party services synchronously by directly
invoking an AWS Lambda function.
A solutions architect needs to decouple the third-party service calls and ensure that all the calls are eventually completed.
Which solution will meet these requirements?
A. Use an Amazon Simple Queue Service (Amazon SQS) queue to store events and invoke the Lambda function.
B. Use an AWS Step Functions state machine to pass events to the Lambda function.
C. Use an Amazon EventBridge rule to pass events to the Lambda function.
D. Use an Amazon Simple Notification Service (Amazon SNS) topic to store events and Invoke the Lambda function.

ある企業がAWSクラウドでアプリケーションを実行しています。
最近のアプリケーションメトリクスは、応答時間が不安定で、エラー率が大幅に増加していることを示しています。
サードパーティサービスへの呼び出しが遅延の原因となっています。
現在、アプリケーションはAWS Lambda関数を直接呼び出すことで同期的にサードパーティサービスを呼び出しています。
ソリューションアーキテクトは、サードパーティサービスの呼び出しを分離し、すべての呼び出しが最終的に完了することを保証する必要があります。
これらの要件を満たす解決策はどれですか?
A. Amazon Simple Queue Service(Amazon SQS)キューを使用してイベントを保存し、Lambda関数を呼び出します。
B. AWS Step Functionsステートマシンを使用して、イベントをLambda関数に渡します。
C. Amazon EventBridgeルールを使用して、イベントをLambda関数に渡します。
D. Amazon Simple Notification Service(Amazon SNS)トピックを使用してイベントを保存し、Lambda関数を呼び出します。

97 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

97. A company is running applications on AWS in a multi-account environment. The company’s sales team and marketing team use separate AWS
accounts in AWS Organizations.
The sales team stores petabytes of data in an Amazon S3 bucket. The marketing team uses Amazon QuickSight for data visualizations. The
marketing team needs access to data that the sates team stores in the S3 bucket. The company has encrypted the S3 bucket with an AWS Key
Management Service (AWS KMS) key. The marketing team has already created the IAM service role for QuickSight to provide QuickSight access in
the marketing AWS account. The company needs a solution that will provide secure access to the data in the S3 bucket across AWS accounts.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create a new S3 bucket in the marketing account. Create an S3 replication rule in the sales account to copy the objects to the new S3
bucket in the marketing account. Update the QuickSight permissions in the marketing account to grant access to the new S3 bucket.
B. Create an SCP to grant access to the S3 bucket to the marketing account. Use AWS Resource Access Manager (AWS RAM) to share the
KMS key from the sates account with the marketing account. Update the QuickSight permissions in the marketing account to grant access to
the S3 bucket.
C. Update the S3 bucket policy in the marketing account to grant access to the QuickSight role. Create a KMS grant for the encryption key that
is used in the S3 bucket. Grant decrypt access to the QuickSight role. Update the QuickSight permissions in the marketing account to grant
access to the S3 bucket.
D. Create an IAM role in the sales account and grant access to the S3 bucket. From the marketing account, assume the IAM role in the sales
account to access the S3 bucket. Update the QuickSight rote, to create a trust relationship with the new IAM role in the sales account.

ある会社がマルチアカウント環境のAWS上でアプリケーションを運用しています。この会社の営業チームとマーケティングチームは、AWS Organizations内で別々のAWSアカウントを使用しています。
営業チームはAmazon S3バケットにペタバイト規模のデータを保存しています。マーケティングチームはデータ可視化のためにAmazon QuickSightを使用しています。
マーケティングチームは、営業チームがS3バケットに保存しているデータにアクセスする必要があります。会社はこのS3バケットをAWS Key Management Service(AWS KMS)キーで暗号化しています。
マーケティングチームは、マーケティングAWSアカウント内でQuickSightにアクセスを提供するために、QuickSight用のIAMサービスロールを既に作成しています。
会社は、AWSアカウント間でS3バケット内のデータに安全にアクセスできるソリューションを必要としています。
これらの要件を最も少ない運用負荷で満たすソリューションはどれですか?

A. マーケティングアカウントに新しいS3バケットを作成します。営業アカウントでS3レプリケーションルールを作成し、オブジェクトをマーケティングアカウントの新しいS3バケットにコピーします。マーケティングアカウントのQuickSight権限を更新し、新しいS3バケットへのアクセスを許可します。

B. SCPを作成してマーケティングアカウントにS3バケットへのアクセスを許可します。AWS Resource Access Manager(AWS RAM)を使用して、営業アカウントからマーケティングアカウントにKMSキーを共有します。マーケティングアカウントのQuickSight権限を更新し、S3バケットへのアクセスを許可します。

C. マーケティングアカウントのS3バケットポリシーを更新してQuickSightロールにアクセスを許可します。S3バケットで使用されている暗号化キーのKMSグラントを作成します。QuickSightロールに復号化アクセスを許可します。マーケティングアカウントのQuickSight権限を更新し、S3バケットへのアクセスを許可します。

D. 営業アカウントにIAMロールを作成し、S3バケットへのアクセスを許可します。マーケティングアカウントから、営業アカウントのIAMロールを引き受けてS3バケットにアクセスします。QuickSightロールを更新し、営業アカウントの新しいIAMロールとの信頼関係を作成します。

98 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

98. A company is planning to migrate its business-critical applications from an on-premises data center to AWS. The company has an on-premises
installation of a Microsoft SQL Server Always On cluster. The company wants to migrate to an AWS managed database service. A solutions
architect must design a heterogeneous database migration on AWS.
Which solution will meet these requirements?
A. Migrate the SQL Server databases to Amazon RDS for MySQL by using backup and restore utilities.
B. Use an AWS Snowball Edge Storage Optimized device to transfer data to Amazon S3. Set up Amazon RDS for MySQL. Use S3 integration
with SQL Server features, such as BULK INSERT.
C. Use the AWS Schema Conversion Tool to translate the database schema to Amazon RDS for MySQL. Then use AWS Database Migration
Service (AWS DMS) to migrate the data from on-premises databases to Amazon RDS.
D. Use AWS DataSync to migrate data over the network between on-premises storage and Amazon S3. Set up Amazon RDS for MySQL. Use S3
integration with SQL Server features, such as BULK INSERT.

ある企業は、ビジネスクリティカルなアプリケーションをオンプレミスのデータセンターからAWSに移行する計画を立てています。
この企業は、Microsoft SQL Server Always Onクラスターをオンプレミスで運用しています。
企業はAWSのマネージドデータベースサービスに移行したいと考えています。
ソリューションアーキテクトは、AWS上で異種データベースの移行を設計する必要があります。
これらの要件を満たす解決策はどれでしょうか?
A. バックアップおよびリストアユーティリティを使用して、SQL ServerデータベースをAmazon RDS for MySQLに移行します。
B. AWS Snowball Edge Storage Optimizedデバイスを使用してデータをAmazon S3に転送します。
Amazon RDS for MySQLをセットアップします。
SQL ServerのBULK INSERTなどの機能とS3を統合して使用します。
C. AWS Schema Conversion Toolを使用して、データベーススキーマをAmazon RDS for MySQLに変換します。
その後、AWS Database Migration Service(AWS DMS)を使用して、オンプレミスデータベースのデータをAmazon RDSに移行します。
D. AWS DataSyncを使用して、オンプレミスのストレージとAmazon S3の間でネットワーク経由でデータを移行します。
Amazon RDS for MySQLをセットアップします。
SQL ServerのBULK INSERTなどの機能とS3を統合して使用します。

99 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

99. A publishing company’s design team updates the icons and other static assets that an ecommerce web application uses. The company serves the
icons and assets from an Amazon S3 bucket that is hosted in the company’s production account. The company also uses a development account
that members of the design team can access.
After the design team tests the static assets in the development account, the design team needs to load the assets into the S3 bucket in the
production account. A solutions architect must provide the design team with access to the production account without exposing other parts of
the web application to the risk of unwanted changes.
Which combination of steps will meet these requirements? (Choose three.)
A. In the production account, create a new IAM policy that allows read and write access to the S3 bucket.
B. In the development account, create a new IAM policy that allows read and write access to the S3 bucket.
C. In the production account, create a role Attach the new policy to the role. De ne the development account as a trusted entity.
D. In the development account, create a role. Attach the new policy to the role De ne the production account as a trusted entity.
E. In the development account, create a group that contains all the IAM users of the design team Attach a different IAM policy to the group to
allow the sts:AssumeRole action on the role In the production account.
F. In the development account, create a group that contains all the IAM users of the design team Attach a different IAM policy to the group to
allow the sts:AssumeRole action on the role in the development account.

ある出版会社のデザインチームが、電子商取引ウェブアプリケーションで使用されるアイコンやその他の静的アセットを更新しています。会社はこれらのアイコンやアセットを、本番環境アカウントでホストされているAmazon S3バケットから提供しています。また、会社はデザインチームのメンバーがアクセスできる開発アカウントも使用しています。

デザインチームが開発アカウントで静的アセットのテストを終えた後、本番環境アカウントのS3バケットにそれらのアセットをロードする必要があります。ソリューションアーキテクトは、デザインチームに本番環境アカウントへのアクセスを提供しつつ、ウェブアプリケーションの他の部分に望ましくない変更のリスクをさらさないようにしなければなりません。

これらの要件を満たす組み合わせはどれですか?(3つ選択してください。)

A. 本番環境アカウントで、S3バケットに対する読み取りおよび書き込みアクセスを許可する新しいIAMポリシーを作成します。

B. 開発アカウントで、S3バケットに対する読み取りおよび書き込みアクセスを許可する新しいIAMポリシーを作成します。

C. 本番環境アカウントで、新しいロールを作成します。そのロールに新しいポリシーをアタッチします。開発アカウントを信頼されたエンティティとして定義します。

D. 開発アカウントで、新しいロールを作成します。そのロールに新しいポリシーをアタッチします。本番環境アカウントを信頼されたエンティティとして定義します。

E. 開発アカウントで、デザインチームのすべてのIAMユーザーを含むグループを作成します。そのグループに別のIAMポリシーをアタッチし、本番環境アカウント内のロールに対するsts:AssumeRoleアクションを許可します。

F. 開発アカウントで、デザインチームのすべてのIAMユーザーを含むグループを作成します。そのグループに別のIAMポリシーをアタッチし、開発アカウント内のロールに対するsts:AssumeRoleアクションを許可します。

100 / 100

カテゴリー: SAP-C02(ソリューションアーキテクト – プロフェッショナル)

100. A company developed a pilot application by using AWS Elastic Beanstalk and Java. To save costs during development, the company’s
development team deployed the application into a single-instance environment. Recent tests indicate that the application consumes more CPU
than expected. CPU utilization is regularly greater than 85%, which causes some performance bottlenecks.
A solutions architect must mitigate the performance issues before the company launches the application to production.
Which solution will meet these requirements with the LEAST operational overhead?
A. Create a new Elastic Beanstalk application. Select a load-balanced environment type. Select all Availability Zones. Add a scale-out rule that
will run if the maximum CPU utilization is over 85% for 5 minutes.
B. Create a second Elastic Beanstalk environment. Apply the traffic-splitting deployment policy. Specify a percentage of incoming traffic to
direct to the new environment in the average CPU utilization is over 85% for 5 minutes.
C. Modify the existing environment’s capacity configuration to use a load-balanced environment type. Select all Availability Zones. Add a
scale-out rule that will run if the average CPU utilization is over 85% for 5 minutes.
D. Select the Rebuild environment action with the load balancing option. Select an Availability Zones. Add a scale-out rule that will run if the
sum CPU utilization is over 85% for 5 minutes.

ある会社がAWS Elastic BeanstalkとJavaを使用してパイロットアプリケーションを開発しました。開発期間中のコスト削減のため、同社の開発チームはアプリケーションを単一インスタンス環境にデプロイしました。
最近のテストでは、アプリケーションが予想以上に多くのCPUを消費していることが判明しています。CPU使用率は定期的に85%を超えており、これによりいくつかのパフォーマンス上のボトルネックが生じています。
ソリューションアーキテクトは、アプリケーションを本番環境にリリースする前に、これらのパフォーマンス問題を緩和する必要があります。
これらの要件を最も少ない運用負荷で満たす解決策はどれでしょうか?
A. 新しいElastic Beanstalkアプリケーションを作成します。負荷分散環境タイプを選択します。すべてのアベイラビリティーゾーンを選択します。最大CPU使用率が5分間85%を超えた場合に実行されるスケールアウトルールを追加します。
B. 2番目のElastic Beanstalk環境を作成します。トラフィック分割デプロイメントポリシーを適用します。平均CPU使用率が5分間85%を超えた場合に、新しい環境に転送する着信トラフィックの割合を指定します。
C. 既存の環境の容量設定を変更して、負荷分散環境タイプを使用します。すべてのアベイラビリティーゾーンを選択します。平均CPU使用率が5分間85%を超えた場合に実行されるスケールアウトルールを追加します。
D. 負荷分散オプションを選択して環境の再構築アクションを選択します。アベイラビリティーゾーンを選択します。合計CPU使用率が5分間85%を超えた場合に実行されるスケールアウトルールを追加します。

あなたのスコアは

平均スコアは 31%

0%

評価フォーム

ご評価ありがとうございます。

本文のリンク:https://www.matsuhana.com/2025/03/sap-c02-%e5%95%8f%e9%a1%8c%e9%9b%86no-1-100-aws-%e8%aa%8d%e5%ae%9a%e3%82%bd%e3%83%aa%e3%83%a5%e3%83%bc%e3%82%b7%e3%83%a7%e3%83%b3%e3%82%a2%e3%83%bc%e3%82%ad%e3%83%86%e3%82%af%e3%83%88/,転載禁止です。
0

コメント0

キャプチャを表示する
アカウントをお持ちでないですか?登録  パスワードをお忘れですか?