SAA-C03 問題集No.1-100 (AWS 認定ソリューションアーキテクト – アソシエイト) 実際問題 2025-03-02 SAA-C03 163 日英二つ言語付き、各選択解析付き、最新問題追加中 0% 0 投票, 0 平均 0 Report a question What’s wrong with this question? You cannot submit an empty report. Please add some details. 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100 SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト)AWS Certified Solutions Architect – Associate 幅広い AWS サービスに関する技術的な知識とスキルを認定します SAA-C03 問題集No.1-100 (AWS 認定ソリューションアーキテクト – アソシエイト) 日英二つ言語付き 解析付き SAA-C03 問題集No.1-100 (AWS 認定ソリューションアーキテクト – アソシエイト) 1 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 1. A company collects data for temperature, humidity, and atmospheric pressure in cities across multiple continents. The average volume of data that the company collects from each site daily is 500 GB. Each site has a high-speed Internet connection. The company wants to aggregate the data from all these global sites as quickly as possible in a single Amazon S3 bucket. The solution must minimize operational complexity.ある企業が、複数の大陸にわたる都市の温度、湿度、気圧のデータを収集しています。各サイトから毎日収集されるデータの平均量は500 GBです。各サイトには高速インターネット接続があります。企業は、これらのグローバルサイトからのデータをできるだけ早く単一のAmazon S3バケットに集約したいと考えています。ソリューションは運用の複雑さを最小限に抑える必要があります。 A. Turn on S3 Transfer Acceleration on the destination S3 bucket. Use multipart uploads to directly upload site data to the destination S3 bucket.宛先S3バケットでS3 Transfer Accelerationを有効にします。マルチパートアップロードを使用して、サイトデータを直接宛先S3バケットにアップロードします。 B. Upload the data from each site to an S3 bucket in the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket. Then remove the data from the origin S3 bucket.各サイトから最も近いリージョンのS3バケットにデータをアップロードします。S3クロスリージョンレプリケーションを使用してオブジェクトを宛先S3バケットにコピーします。その後、元のS3バケットからデータを削除します。 C. Schedule AWS Snowball Edge Storage Optimized device jobs daily to transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket.AWS Snowball Edge Storage Optimizedデバイスのジョブを毎日スケジュールして、各サイトから最も近いリージョンにデータを転送します。S3クロスリージョンレプリケーションを使用してオブジェクトを宛先S3バケットにコピーします。 D. Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. At regular intervals, take an EBS snapshot and copy it to the Region that contains the destination S3 bucket. Restore the EBS volume in that Region.各サイトから最も近いリージョンのAmazon EC2インスタンスにデータをアップロードします。データをAmazon Elastic Block Store (Amazon EBS) ボリュームに保存します。定期的にEBSスナップショットを取得し、宛先S3バケットを含むリージョンにコピーします。そのリージョンでEBSボリュームを復元します。 正解はAです。S3 Transfer Accelerationを有効にし、マルチパートアップロードを使用して直接データをS3バケットにアップロードすることで、高速なデータ転送が可能になり、運用の複雑さも最小限に抑えられます。Bの選択肢は、データを最も近いリージョンのS3バケットにアップロードし、S3クロスリージョンレプリケーションを使用してデータをコピーする方法ですが、これではデータ転送が遅くなり、運用の複雑さも増します。Cの選択肢は、AWS Snowball Edge Storage Optimizedデバイスを使用してデータを転送する方法ですが、これでは毎日のデータ転送に時間がかかり、運用の複雑さも増します。Dの選択肢は、データを最も近いリージョンのAmazon EC2インスタンスにアップロードし、Amazon EBSボリュームに保存する方法ですが、これではデータ転送が遅くなり、運用の複雑さも増します。 2 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 2. A company needs the ability to analyze the log files of its proprietary application. The logs are stored in JSON format in an Amazon S3 bucket. Queries will be simple and will run on-demand. A solutions architect needs to perform the analysis with minimal changes to the existing architecture.What should the solutions architect do to meet these requirements with the LEAST amount of operational overhead?会社は独自アプリケーションのログファイルを分析する能力が必要です。ログはAmazon S3バケットにJSON形式で保存されています。クエリはシンプルで、オンデマンドで実行されます。ソリューションアーキテクトは、既存のアーキテクチャに最小限の変更を加えて分析を実行する必要があります。ソリューションアーキテクトは、最小限の運用オーバーヘッドでこれらの要件を満たすために何をすべきですか? A. Use Amazon Redshift to load all the content into one place and run the SQL queries as needed.Amazon Redshiftを使用してすべてのコンテンツを1か所にロードし、必要に応じてSQLクエリを実行します。 B. Use Amazon CloudWatch Logs to store the logs. Run SQL queries as needed from the Amazon CloudWatch console.Amazon CloudWatch Logsを使用してログを保存します。Amazon CloudWatchコンソールから必要に応じてSQLクエリを実行します。 C. Use Amazon Athena directly with Amazon S3 to run the queries as needed.Amazon Athenaを直接Amazon S3と使用して、必要に応じてクエリを実行します。 D. Use AWS Glue to catalog the logs. Use a transient Apache Spark cluster on Amazon EMR to run the SQL queries as needed.AWS Glueを使用してログをカタログ化します。Amazon EMR上の一時的なApache Sparkクラスターを使用して、必要に応じてSQLクエリを実行します。 正解はCです。Amazon Athenaは、Amazon S3に直接クエリを実行できるため、最小限の運用オーバーヘッドで要件を満たすことができます。A. Amazon Redshiftは、すべてのコンテンツを1か所にロードし、必要に応じてSQLクエリを実行しますが、これは運用オーバーヘッドが大きくなります。B. Amazon CloudWatch Logsはログを保存しますが、SQLクエリを実行するには適していません。D. AWS GlueとAmazon EMRを使用すると、ログをカタログ化し、SQLクエリを実行できますが、これは運用オーバーヘッドが大きくなります。 3 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 3. A company uses AWS Organizations to manage multiple AWS accounts for different departments. The management account has an Amazon S3 bucket that contains project reports. The company wants to limit access to this S3 bucket to only users of accounts within the organization in AWS Organizations.Which solution meets these requirements with the LEAST amount of operational overhead?ある会社は、AWS Organizationsを使用して、異なる部門の複数のAWSアカウントを管理しています。管理アカウントには、プロジェクトレポートを含むAmazon S3バケットがあります。同社は、このS3バケットへのアクセスをAWS Organizations内の組織のアカウントのユーザーのみに制限したいと考えています。これらの要件を最小限の運用負荷で満たす解決策はどれですか? A. Add the aws:PrincipalOrgID global condition key with a reference to the organization ID to the S3 bucket policy.aws:PrincipalOrgIDグローバル条件キーを使用して、組織IDを参照することで、S3バケットポリシーに組織内のアカウントのみがアクセスできるように制限します。 B. Create an organizational unit (OU) for each department. Add the aws:PrincipalOrgPaths global condition key to the S3 bucket policy.各部門の組織単位(OU)を作成し、aws:PrincipalOrgPathsグローバル条件キーをS3バケットポリシーに追加します。 C. Use AWS CloudTrail to monitor the CreateAccount, InviteAccountToOrganization, LeaveOrganization, and RemoveAccountFromOrganization events. Update the S3 bucket policy accordingly.AWS CloudTrailを使用して、CreateAccount、InviteAccountToOrganization、LeaveOrganization、RemoveAccountFromOrganizationイベントを監視し、S3バケットポリシーを更新します。 D. Tag each user that needs access to the S3 bucket. Add the aws:PrincipalTag global condition key to the S3 bucket policy.S3バケットにアクセスする必要がある各ユーザーにタグを付け、aws:PrincipalTagグローバル条件キーをS3バケットポリシーに追加します。 正解はAです。A. aws:PrincipalOrgIDグローバル条件キーを使用して、組織IDを参照することで、S3バケットポリシーに組織内のアカウントのみがアクセスできるように制限できます。これにより、運用負荷が最小限に抑えられます。 B. 各部門の組織単位(OU)を作成し、aws:PrincipalOrgPathsグローバル条件キーをS3バケットポリシーに追加することも可能ですが、この方法ではOUの管理が必要となり、運用負荷が増加します。 C. AWS CloudTrailを使用して、CreateAccount、InviteAccountToOrganization、LeaveOrganization、RemoveAccountFromOrganizationイベントを監視し、S3バケットポリシーを更新することもできますが、この方法では継続的な監視とポリシーの更新が必要となり、運用負荷が高くなります。 D. S3バケットにアクセスする必要がある各ユーザーにタグを付け、aws:PrincipalTagグローバル条件キーをS3バケットポリシーに追加することも可能ですが、この方法ではユーザーのタグ管理が必要となり、運用負荷が増加します。 4 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 4. An application runs on an Amazon EC2 instance in a VPC. The application processes logs that are stored in an Amazon S3 bucket. The EC2 instance needs to access the S3 bucket without connectivity to the internet.Which solution will provide private network connectivity to Amazon S3?VPC内のAmazon EC2インスタンスで実行されているアプリケーションがあります。このアプリケーションは、Amazon S3バケットに保存されているログを処理します。EC2インスタンスは、インターネットに接続せずにS3バケットにアクセスする必要があります。どのソリューションがAmazon S3へのプライベートネットワーク接続を提供しますか? A. Create a gateway VPC endpoint to the S3 bucket.S3バケットへのゲートウェイVPCエンドポイントを作成します。 B. Stream the logs to Amazon CloudWatch Logs. Export the logs to the S3 bucket.ログをAmazon CloudWatch Logsにストリーミングします。ログをS3バケットにエクスポートします。 C. Create an instance profile on Amazon EC2 to allow S3 access.Amazon EC2にインスタンスプロファイルを作成してS3アクセスを許可します。 D. Create an Amazon API Gateway API with a private link to access the S3 endpoint.Amazon API Gateway APIを作成して、S3エンドポイントにプライベートリンクでアクセスします。 正解はAです。ゲートウェイVPCエンドポイントを作成することで、インターネットに接続せずにAmazon S3にプライベートにアクセスできます。Bのオプションは、ログをAmazon CloudWatch Logsにストリーミングし、その後S3バケットにエクスポートする方法ですが、これはプライベートネットワーク接続を提供しません。Cのオプションは、Amazon EC2にインスタンスプロファイルを作成してS3アクセスを許可する方法ですが、これもプライベートネットワーク接続を提供しません。Dのオプションは、Amazon API Gateway APIを作成してS3エンドポイントにプライベートリンクでアクセスする方法ですが、これはゲートウェイVPCエンドポイントよりも複雑で、プライベートネットワーク接続を提供するための最適な方法ではありません。 5 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 5. A company is hosting a web application on AWS using a single Amazon EC2 instance that stores user-uploaded documents in an Amazon EBS volume. For better scalability and availability, the company duplicated the architecture and created a second EC2 instance and EBS volume in another Availability Zone, placing both behind an Application Load Balancer. After completing this change, users reported that, each time they refreshed the website, they could see one subset of their documents or the other, but never all of the documents at the same time.What should a solutions architect propose to ensure users see all of their documents at once?AWSで単一のAmazon EC2インスタンスを使用してWebアプリケーションをホストしている会社があり、ユーザーがアップロードしたドキュメントをAmazon EBSボリュームに保存しています。スケーラビリティと可用性を向上させるために、会社はアーキテクチャを複製し、別のアベイラビリティゾーンに2番目のEC2インスタンスとEBSボリュームを作成し、両方をアプリケーションロードバランサーの背後に配置しました。この変更を完了した後、ユーザーはウェブサイトを更新するたびに、ドキュメントの一部または別の部分しか表示されず、すべてのドキュメントを同時に表示できないと報告しました。ソリューションアーキテクトは、ユーザーがすべてのドキュメントを一度に表示できるようにするために何を提案すべきですか? A. Copy the data so both EBS volumes contain all the documentsデータをコピーして、両方のEBSボリュームにすべてのドキュメントを含める B. Configure the Application Load Balancer to direct a user to the server with the documentsアプリケーションロードバランサーを設定して、ユーザーをドキュメントがあるサーバーに誘導する C. Copy the data from both EBS volumes to Amazon EFS. Modify the application to save new documents to Amazon EFS両方のEBSボリュームからAmazon EFSにデータをコピーする。新しいドキュメントをAmazon EFSに保存するようにアプリケーションを変更する D. Configure the Application Load Balancer to send the request to both servers. Return each document from the correct serverアプリケーションロードバランサーを設定してリクエストを両方のサーバーに送信する。正しいサーバーから各ドキュメントを返す 正解はCです。Amazon EFSを使用することで、複数のEC2インスタンス間でデータを共有し、すべてのドキュメントを同時に表示できるようになります。 A. 両方のEBSボリュームにすべてのドキュメントを含めるようにデータをコピーすることは、データの一貫性を維持するのが難しく、スケーラビリティの問題を引き起こす可能性があります。B. アプリケーションロードバランサーを設定して、ユーザーをドキュメントがあるサーバーに誘導することは、ユーザーがすべてのドキュメントを同時に表示できない問題を解決しません。D. アプリケーションロードバランサーを設定してリクエストを両方のサーバーに送信し、正しいサーバーから各ドキュメントを返すことは、複雑で効率的ではありません。 6 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 6. A company uses NFS to store large video files in on-premises network attached storage. Each video file ranges in size from 1 MB to 500 GB. The total storage is 70 TB and is no longer growing. The company decides to migrate the video files to Amazon S3. The company must migrate the video files as soon as possible while using the least possible network bandwidth.Which solution will meet these requirements?企業は、オンプレミスのネットワーク接続ストレージに大容量のビデオファイルを保存するためにNFSを使用しています。各ビデオファイルのサイズは1 MBから500 GBまでで、総ストレージは70 TBであり、これ以上増加しません。企業は、ビデオファイルをAmazon S3に移行することを決定しました。企業は、可能な限り少ないネットワーク帯域幅を使用しながら、できるだけ早くビデオファイルを移行する必要があります。どのソリューションがこれらの要件を満たしますか? A. Create an S3 bucket. Create an IAM role that has permissions to write to the S3 bucket. Use the AWS CLI to copy all files locally to the S3 bucket.S3バケットを作成します。S3バケットに書き込み権限を持つIAMロールを作成します。AWS CLIを使用して、すべてのファイルをローカルからS3バケットにコピーします。 B. Create an AWS Snowball Edge job. Receive a Snowball Edge device on premises. Use the Snowball Edge client to transfer data to the device. Return the device so that AWS can import the data into Amazon S3.AWS Snowball Edgeジョブを作成します。オンプレミスでSnowball Edgeデバイスを受け取ります。Snowball Edgeクライアントを使用してデータをデバイスに転送します。デバイスを返送して、AWSがデータをAmazon S3にインポートできるようにします。 C. Deploy an S3 File Gateway on premises. Create a public service endpoint to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data from the existing NFS file share to the S3 File Gateway.オンプレミスにS3 File Gatewayをデプロイします。S3 File Gatewayに接続するためのパブリックサービスエンドポイントを作成します。S3バケットを作成します。S3 File Gatewayに新しいNFSファイル共有を作成します。新しいファイル共有をS3バケットにポイントします。既存のNFSファイル共有からS3 File Gatewayにデータを転送します。 D. Set up an AWS Direct Connect connection between the on-premises network and AWS. Deploy an S3 File Gateway on premises. Create a public virtual interface (VIF) to connect to the S3 File Gateway. Create an S3 bucket. Create a new NFS file share on the S3 File Gateway. Point the new file share to the S3 bucket. Transfer the data from the existing NFS file share to the S3 File Gateway.オンプレミスネットワークとAWSの間にAWS Direct Connect接続を設定します。オンプレミスにS3 File Gatewayをデプロイします。S3 File Gatewayに接続するためのパブリック仮想インターフェース(VIF)を作成します。S3バケットを作成します。S3 File Gatewayに新しいNFSファイル共有を作成します。新しいファイル共有をS3バケットにポイントします。既存のNFSファイル共有からS3 File Gatewayにデータを転送します。 正解はBです。AWS Snowball Edgeを使用することで、大量のデータを効率的にAWSに移行することができます。Snowball Edgeは、オンプレミスのデータをデバイスに転送し、そのデバイスをAWSに返送することで、データをAmazon S3にインポートします。これにより、ネットワーク帯域幅を最小限に抑えつつ、迅速なデータ移行が可能です。 Aのオプションは、AWS CLIを使用してデータを直接S3にコピーする方法ですが、70 TBのデータを転送するには非常に時間がかかり、ネットワーク帯域幅を大量に消費します。 Cのオプションは、S3 File Gatewayを使用してデータを転送する方法ですが、これもネットワーク帯域幅を大量に消費し、迅速な移行には適していません。 Dのオプションは、AWS Direct Connectを使用してネットワーク接続を確立し、S3 File Gatewayを使用してデータを転送する方法ですが、これもネットワーク帯域幅を大量に消費し、迅速な移行には適していません。 7 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 7. A company has an application that ingests incoming messages. Dozens of other applications and microservices then quickly consume these messages. The number of messages varies drastically and sometimes increases suddenly to 100,000 each second. The company wants to decouple the solution and increase scalability.どのソリューションがこれらの要件を満たしますか? A. Persist the messages to Amazon Kinesis Data Analytics. Configure the consumer applications to read and process the messages.メッセージをAmazon Kinesis Data Analyticsに保存します。コンシューマーアプリケーションを設定して、メッセージを読み取り、処理します。 B. Deploy the ingestion application on Amazon EC2 instances in an Auto Scaling group to scale the number of EC2 instances based on CPU metrics.取り込みアプリケーションをAmazon EC2インスタンスにデプロイし、CPUメトリクスに基づいてEC2インスタンスの数をスケーリングします。 C. Write the messages to Amazon Kinesis Data Streams with a single shard. Use an AWS Lambda function to preprocess messages and store them in Amazon DynamoDB. Configure the consumer applications to read from DynamoDB to process the messages.メッセージをAmazon Kinesis Data Streamsに単一のシャードで書き込みます。AWS Lambda関数を使用してメッセージを前処理し、Amazon DynamoDBに保存します。コンシューマーアプリケーションを設定して、DynamoDBからメッセージを読み取り、処理します。 D. Publish the messages to an Amazon Simple Notification Service (Amazon SNS) topic with multiple Amazon Simple Queue Service (Amazon SQS) subscriptions. Configure the consumer applications to process the messages from the queues.メッセージをAmazon Simple Notification Service (Amazon SNS) トピックに公開し、複数のAmazon Simple Queue Service (Amazon SQS) サブスクリプションを設定します。コンシューマーアプリケーションを設定して、キューからメッセージを処理します。 正解はDです。Amazon SNSとAmazon SQSを使用することで、メッセージの受信と処理を分離し、スケーラビリティを向上させることができます。他の選択肢の誤り:A: Amazon Kinesis Data Analyticsは、リアルタイムのデータ分析に適していますが、メッセージのデカップリングとスケーラビリティの要件を満たしません。B: EC2インスタンスの自動スケーリングは、メッセージの処理能力を向上させますが、メッセージのデカップリングを実現しません。C: Amazon Kinesis Data StreamsとAWS Lambdaを使用する方法は、メッセージの処理を効率化しますが、メッセージのデカップリングとスケーラビリティの要件を完全には満たしません。 8 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 8. A company is migrating a distributed application to AWS. The application serves variable workloads. The legacy platform consists of a primary server that coordinates jobs across multiple compute nodes. The company wants to modernize the application with a solution that maximizes resiliency and scalability.How should a solutions architect design the architecture to meet these requirements?ある会社が分散アプリケーションをAWSに移行しています。アプリケーションは変動するワークロードに対応しています。レガシープラットフォームは、複数のコンピュートノードにわたるジョブを調整するプライマリサーバーで構成されています。会社は、回復力とスケーラビリティを最大化するソリューションでアプリケーションを近代化したいと考えています。ソリューションアーキテクトは、これらの要件を満たすためにどのようにアーキテクチャを設計すべきですか? A. Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling to use scheduled scaling.ジョブの宛先としてAmazon Simple Queue Service (Amazon SQS) キューを設定します。Auto Scalingグループで管理されるAmazon EC2インスタンスでコンピュートノードを実装します。EC2 Auto Scalingをスケジュールされたスケーリングを使用するように設定します。 B. Configure an Amazon Simple Queue Service (Amazon SQS) queue as a destination for the jobs. Implement the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure EC2 Auto Scaling based on the size of the queue.ジョブの宛先としてAmazon Simple Queue Service (Amazon SQS) キューを設定します。Auto Scalingグループで管理されるAmazon EC2インスタンスでコンピュートノードを実装します。EC2 Auto Scalingをキューのサイズに基づいて設定します。 C. Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure AWS CloudTrail as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the primary server.プライマリサーバーとコンピュートノードをAuto Scalingグループで管理されるAmazon EC2インスタンスで実装します。ジョブの宛先としてAWS CloudTrailを設定します。EC2 Auto Scalingをプライマリサーバーの負荷に基づいて設定します。 D. Implement the primary server and the compute nodes with Amazon EC2 instances that are managed in an Auto Scaling group. Configure Amazon EventBridge (Amazon CloudWatch Events) as a destination for the jobs. Configure EC2 Auto Scaling based on the load on the compute nodes.プライマリサーバーとコンピュートノードをAuto Scalingグループで管理されるAmazon EC2インスタンスで実装します。ジョブの宛先としてAmazon EventBridge (Amazon CloudWatch Events) を設定します。EC2 Auto Scalingをコンピュートノードの負荷に基づいて設定します。 正解はBです。Amazon SQSキューをジョブの宛先として設定し、Auto Scalingグループで管理されるAmazon EC2インスタンスでコンピュートノードを実装します。EC2 Auto Scalingをキューのサイズに基づいて設定することで、ワークロードの変動に応じてリソースを自動的にスケーリングできます。 他の選択肢の誤り:A: スケジュールされたスケーリングは、ワークロードの変動に応じたリアルタイムのスケーリングを提供しません。C: AWS CloudTrailは監査ログのためのサービスであり、ジョブの宛先として適切ではありません。D: Amazon EventBridgeはイベント駆動型のサービスであり、ジョブの宛先として適切ではありません。また、コンピュートノードの負荷に基づくスケーリングは、プライマリサーバーの負荷を考慮していません。 9 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 9. A company is running an SMB file server in its data center. The file server stores large files that are accessed frequently for the first few days after the files are created. After 7 days the files are rarely accessed. The total data size is increasing and is close to the company’s total storage capacity. A solutions architect must increase the company’s available storage space without losing low-latency access to the most recently accessed files. The solutions architect must also provide lifecycle management to avoid future storage issues.Which solution will meet these requirements?ある企業がデータセンター内でSMBファイルサーバーを運用しています。ファイルサーバーは、作成後の最初の数日間は頻繁にアクセスされる大きなファイルを保存しています。7日後には、ファイルはほとんどアクセスされません。データの総サイズは増加しており、企業の総ストレージ容量に近づいています。ソリューションアーキテクトは、最も最近アクセスされたファイルへの低遅延アクセスを失うことなく、企業の利用可能なストレージスペースを増やす必要があります。また、将来のストレージの問題を回避するためにライフサイクル管理を提供する必要があります。どのソリューションがこれらの要件を満たしますか? A. Use AWS DataSync to copy data that is older than 7 days from the SMB file server to AWS.AWS DataSyncを使用して、7日以上経過したデータをSMBファイルサーバーからAWSにコピーする。 B. Create an Amazon S3 File Gateway to extend the company’s storage space. Create an S3 Lifecycle policy to transition the data to S3 Glacier Deep Archive after 7 days.Amazon S3 File Gatewayを作成して企業のストレージスペースを拡張し、7日後にデータをS3 Glacier Deep Archiveに移行するS3ライフサイクルポリシーを作成する。 C. Create an Amazon FSx for Windows File Server file system to extend the company’s storage space.Amazon FSx for Windows File Serverファイルシステムを作成して企業のストレージスペースを拡張する。 D. Install a utility on each user’s computer to access Amazon S3. Create an S3 Lifecycle policy to transition the data to S3 Glacier Flexible Retrieval after 7 days.各ユーザーのコンピュータにユーティリティをインストールしてAmazon S3にアクセスし、7日後にデータをS3 Glacier Flexible Retrievalに移行するS3ライフサイクルポリシーを作成する。 正解はBです。Amazon S3 File Gatewayを使用して、企業のストレージスペースを拡張し、7日後にデータをS3 Glacier Deep Archiveに移行するS3ライフサイクルポリシーを作成することで、低遅延アクセスを維持しながらストレージスペースを増やすことができます。 A. AWS DataSyncを使用して、7日以上経過したデータをSMBファイルサーバーからAWSにコピーする方法は、低遅延アクセスを維持するための最適なソリューションではありません。C. Amazon FSx for Windows File Serverファイルシステムを作成してストレージスペースを拡張する方法は、ライフサイクル管理を提供しないため、要件を満たしません。D. 各ユーザーのコンピュータにユーティリティをインストールしてAmazon S3にアクセスし、7日後にデータをS3 Glacier Flexible Retrievalに移行するS3ライフサイクルポリシーを作成する方法は、低遅延アクセスを維持するための最適なソリューションではありません。 10 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 10. A company is building an ecommerce web application on AWS. The application sends information about new orders to an Amazon API Gateway REST API to process. The company wants to ensure that orders are processed in the order that they are received. Which solution will meet these requirements?AWSでeコマースウェブアプリケーションを構築している企業があります。アプリケーションは新しい注文に関する情報をAmazon API Gateway REST APIに送信して処理します。企業は、注文が受信された順序で処理されることを保証したいと考えています。どのソリューションがこれらの要件を満たしますか? A. Use an API Gateway integration to publish a message to an Amazon Simple notification Service (Amazon SNS) topic when the application receives an order. Subscribe an AWS Lambda function to the topic to perform processing.アプリケーションが注文を受信したときに、Amazon Simple Notification Service(Amazon SNS)トピックにメッセージを公開するAPI Gateway統合を使用します。トピックにAWS Lambda関数をサブスクライブして処理を実行します。 B. Use an API Gateway integration to send a message to an Amazon Simple Queue Service (Amazon SQS) FIFO queue when the application receives an order. Configure the SQS FIFO queue to invoke an AWS Lambda function for processing.アプリケーションが注文を受信したときに、Amazon Simple Queue Service(Amazon SQS)FIFOキューにメッセージを送信するAPI Gateway統合を使用します。SQS FIFOキューを設定して、AWS Lambda関数を呼び出して処理を実行します。 C. Use an API Gateway authorizer to block any requests while the application processes an order.アプリケーションが注文を処理している間、API Gatewayの認証機能を使用してリクエストをブロックします。 D. Use an API Gateway integration to send a message to an Amazon Simple Queue Service (Amazon SQS) standard queue when the application receives an order. Configure the SQS standard queue to invoke an AWS Lambda function for processing.アプリケーションが注文を受信したときに、Amazon Simple Queue Service(Amazon SQS)標準キューにメッセージを送信するAPI Gateway統合を使用します。SQS標準キューを設定して、AWS Lambda関数を呼び出して処理を実行します。 正解はBです。Amazon SQS FIFOキューを使用することで、メッセージが順番に処理されることが保証されます。FIFOキューは、メッセージが送信された順序で厳密に処理されるため、注文が受信された順序で処理される要件を満たします。 Aのオプションは、Amazon SNSを使用していますが、SNSはメッセージの順序を保証しないため、要件を満たしません。 Cのオプションは、API Gatewayの認証機能を使用してリクエストをブロックすることを提案していますが、これは注文の順序を保証するものではありません。 Dのオプションは、Amazon SQS標準キューを使用していますが、標準キューはメッセージの順序を保証しないため、要件を満たしません。 11 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 11. A company has an application that runs on Amazon EC2 instances and uses an Amazon Aurora database. The EC2 instances connect to the database by using user names and passwords that are stored locally in a file. The company wants to minimize the operational overhead of credential management.ある会社は、Amazon EC2インスタンス上で動作し、Amazon Auroraデータベースを使用するアプリケーションを持っています。EC2インスタンスは、ローカルファイルに保存されているユーザー名とパスワードを使用してデータベースに接続します。会社は、資格情報管理の運用オーバーヘッドを最小限に抑えたいと考えています。 A. Use AWS Secrets Manager. Turn on automatic rotation.AWS Secrets Managerを使用し、自動ローテーションを有効にします。 B. Use AWS Systems Manager Parameter Store. Turn on automatic rotation.AWS Systems Manager Parameter Storeを使用し、自動ローテーションを有効にします。 C. Create an Amazon S3 bucket to store objects that are encrypted with an AWS Key Management Service (AWS KMS) encryption key. Migrate the credential file to the S3 bucket. Point the application to the S3 bucket.Amazon S3バケットを作成し、AWS Key Management Service (AWS KMS) 暗号化キーで暗号化されたオブジェクトを保存します。資格情報ファイルをS3バケットに移行し、アプリケーションをS3バケットにポイントします。 D. Create an encrypted Amazon Elastic Block Store (Amazon EBS) volume for each EC2 instance. Attach the new EBS volume to each EC2 instance. Migrate the credential file to the new EBS volume. Point the application to the new EBS volume.各EC2インスタンス用に暗号化されたAmazon Elastic Block Store (Amazon EBS) ボリュームを作成します。新しいEBSボリュームを各EC2インスタンスにアタッチし、資格情報ファイルを新しいEBSボリュームに移行します。アプリケーションを新しいEBSボリュームにポイントします。 正解はAWS Secrets Managerを使用し、自動ローテーションを有効にすることです。これにより、資格情報の管理が自動化され、運用オーバーヘッドが削減されます。他の選択肢は以下の理由で不適切です:B. AWS Systems Manager Parameter Storeは、シークレットの管理には適していますが、自動ローテーションの機能がSecrets Managerほど強力ではありません。C. Amazon S3バケットを使用して暗号化されたオブジェクトを保存することは、資格情報の管理には適していません。S3はストレージサービスであり、シークレット管理のための機能が不足しています。D. Amazon EBSボリュームを使用して資格情報ファイルを保存することは、運用オーバーヘッドを削減するという目的には適していません。EBSボリュームの管理は手動で行う必要があり、自動化が難しいです。 12 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 12. A global company hosts its web application on Amazon EC2 instances behind an Application Load Balancer (ALB). The web application has static data and dynamic data. The company stores its static data in an Amazon S3 bucket. The company wants to improve performance and reduce latency for the static data and dynamic data. The company is using its own domain name registered with Amazon Route 53.グローバル企業が、アプリケーションロードバランサー(ALB)の背後にあるAmazon EC2インスタンス上にウェブアプリケーションをホストしています。ウェブアプリケーションには静的データと動的データがあります。企業は静的データをAmazon S3バケットに保存しています。企業は静的データと動的データのパフォーマンスを向上させ、レイテンシを削減したいと考えています。企業はAmazon Route 53に登録された独自のドメイン名を使用しています。 A. Create an Amazon CloudFront distribution that has the S3 bucket and the ALB as origins. Configure Route 53 to route traffic to the CloudFront distribution.S3バケットとALBをオリジンとして持つAmazon CloudFrontディストリビューションを作成します。Route 53を設定してトラフィックをCloudFrontディストリビューションにルーティングします。 B. Create an Amazon CloudFront distribution that has the ALB as an origin. Create an AWS Global Accelerator standard accelerator that has the S3 bucket as an endpoint Configure Route 53 to route traffic to the CloudFront distribution.ALBをオリジンとして持つAmazon CloudFrontディストリビューションを作成します。S3バケットをエンドポイントとして持つAWS Global Accelerator標準アクセラレータを作成します。Route 53を設定してトラフィックをCloudFrontディストリビューションにルーティングします。 C. Create an Amazon CloudFront distribution that has the S3 bucket as an origin. Create an AWS Global Accelerator standard accelerator that has the ALB and the CloudFront distribution as endpoints. Create a custom domain name that points to the accelerator DNS name. Use the custom domain name as an endpoint for the web application.S3バケットをオリジンとして持つAmazon CloudFrontディストリビューションを作成します。ALBとCloudFrontディストリビューションをエンドポイントとして持つAWS Global Accelerator標準アクセラレータを作成します。アクセラレータのDNS名を指すカスタムドメイン名を作成します。カスタムドメイン名をウェブアプリケーションのエンドポイントとして使用します。 D. Create an Amazon CloudFront distribution that has the ALB as an origin. Create an AWS Global Accelerator standard accelerator that has the S3 bucket as an endpoint. Create two domain names. Point one domain name to the CloudFront DNS name for dynamic content. Point the other domain name to the accelerator DNS name for static content. Use the domain names as endpoints for the web application.ALBをオリジンとして持つAmazon CloudFrontディストリビューションを作成します。S3バケットをエンドポイントとして持つAWS Global Accelerator標準アクセラレータを作成します。2つのドメイン名を作成します。1つのドメイン名を動的コンテンツ用にCloudFront DNS名にポイントします。もう1つのドメイン名を静的コンテンツ用にアクセラレータDNS名にポイントします。ドメイン名をウェブアプリケーションのエンドポイントとして使用します。 正解はAです。Amazon CloudFrontディストリビューションを作成し、S3バケットとALBをオリジンとして設定することで、静的データと動的データの両方のパフォーマンスを向上させることができます。Route 53を設定してトラフィックをCloudFrontディストリビューションにルーティングすることで、レイテンシを削減できます。 Bの選択肢は、AWS Global Acceleratorを使用してS3バケットをエンドポイントとして設定していますが、CloudFrontディストリビューションのみを使用する方が効率的です。 Cの選択肢は、CloudFrontディストリビューションとAWS Global Acceleratorの両方を使用していますが、これにより複雑さが増し、必要以上のリソースを使用することになります。 Dの選択肢は、静的データと動的データに対して別々のドメイン名を使用していますが、これにより管理が複雑になり、パフォーマンスの向上が期待できません。 13 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 13. A company performs monthly maintenance on its AWS infrastructure. During these maintenance activities, the company needs to rotate the credentials for its Amazon RDS for MySQL databases across multiple AWS Regions.Which solution will meet these requirements with the LEAST operational overhead?ある会社は、AWSインフラストラクチャの月次メンテナンスを実施しています。これらのメンテナンス活動中に、会社は複数のAWSリージョンにわたるAmazon RDS for MySQLデータベースの認証情報をローテーションする必要があります。これらの要件を最小限の運用負荷で満たす解決策はどれですか? A. Store the credentials as secrets in AWS Secrets Manager. Use multi-Region secret replication for the required Regions. Configure Secrets Manager to rotate the secrets on a schedule.AWS Secrets Managerに認証情報をシークレットとして保存します。必要なリージョンに対してマルチリージョンシークレットレプリケーションを使用します。Secrets Managerを設定して、シークレットをスケジュールに従ってローテーションします。 B. Store the credentials as secrets in AWS Systems Manager by creating a secure string parameter. Use multi-Region secret replication for the required Regions. Configure Systems Manager to rotate the secrets on a schedule.AWS Systems Managerにセキュアな文字列パラメータを作成して認証情報をシークレットとして保存します。必要なリージョンに対してマルチリージョンシークレットレプリケーションを使用します。Systems Managerを設定して、シークレットをスケジュールに従ってローテーションします。 C. Store the credentials in an Amazon S3 bucket that has server-side encryption (SSE) enabled. Use Amazon EventBridge (Amazon CloudWatch Events) to invoke an AWS Lambda function to rotate the credentials.サーバーサイド暗号化(SSE)が有効なAmazon S3バケットに認証情報を保存します。Amazon EventBridge(Amazon CloudWatch Events)を使用して、AWS Lambda関数を呼び出して認証情報をローテーションします。 D. Encrypt the credentials as secrets by using AWS Key Management Service (AWS KMS) multi-Region customer managed keys. Store the secrets in an Amazon DynamoDB global table. Use an AWS Lambda function to retrieve the secrets from DynamoDB. Use the RDS API to rotate the secrets.AWS Key Management Service(AWS KMS)のマルチリージョンカスタマー管理キーを使用して認証情報をシークレットとして暗号化します。シークレットをAmazon DynamoDBグローバルテーブルに保存します。AWS Lambda関数を使用してDynamoDBからシークレットを取得します。RDS APIを使用してシークレットをローテーションします。 正解はAです。AWS Secrets Managerを使用して認証情報をシークレットとして保存し、必要なリージョンに対してマルチリージョンシークレットレプリケーションを設定することで、シークレットをスケジュールに従ってローテーションすることができます。これにより、運用負荷を最小限に抑えつつ、セキュリティを確保できます。 BのAWS Systems Managerは、シークレットのローテーションをサポートしていないため、適切ではありません。CのAmazon S3とLambdaを使用する方法は、シークレットのローテーションを自動化するために追加のコードと設定が必要であり、運用負荷が高くなります。DのAWS KMSとDynamoDBを使用する方法も、シークレットのローテーションを自動化するために追加のコードと設定が必要であり、運用負荷が高くなります。 14 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 14. A company runs an ecommerce application on Amazon EC2 instances behind an Application Load Balancer. The instances run in an Amazon EC2 Auto Scaling group across multiple Availability Zones. The Auto Scaling group scales based on CPU utilization metrics. The ecommerce application stores the transaction data in a MySQL 8.0 database that is hosted on a large EC2 instance. The database’s performance degrades quickly as application load increases. The application handles more read requests than write transactions. The company wants a solution that will automatically scale the database to meet the demand of unpredictable read workloads while maintaining high availability.Which solution will meet these requirements?ある会社は、Application Load Balancerの背後にあるAmazon EC2インスタンスでeコマースアプリケーションを実行しています。インスタンスは、複数のアベイラビリティゾーンにまたがるAmazon EC2 Auto Scalingグループで実行されています。Auto Scalingグループは、CPU使用率メトリクスに基づいてスケーリングします。eコマースアプリケーションは、大規模なEC2インスタンスでホストされているMySQL 8.0データベースにトランザクションデータを保存します。アプリケーションの負荷が増加すると、データベースのパフォーマンスが急速に低下します。アプリケーションは、書き込みトランザクションよりも多くの読み取りリクエストを処理します。会社は、予測不可能な読み取りワークロードの需要を満たすためにデータベースを自動的にスケーリングし、高可用性を維持するソリューションを求めています。どのソリューションがこれらの要件を満たしますか? A. Use Amazon Redshift with a single node for leader and compute functionality.リーダーとコンピュート機能を単一ノードで提供するAmazon Redshiftを使用します。 B. Use Amazon RDS with a Single-AZ deployment Configure Amazon RDS to add reader instances in a different Availability Zone.Single-AZデプロイメントでAmazon RDSを使用し、異なるアベイラビリティゾーンにリーダーインスタンスを追加するようにAmazon RDSを設定します。 C. Use Amazon Aurora with a Multi-AZ deployment. Configure Aurora Auto Scaling with Aurora Replicas.Multi-AZデプロイメントでAmazon Auroraを使用し、Auroraレプリカを使用したAurora Auto Scalingを設定します。 D. Use Amazon ElastiCache for Memcached with EC2 Spot Instances.EC2 Spot Instancesと組み合わせてAmazon ElastiCache for Memcachedを使用します。 正解はCです。Amazon Auroraは、Multi-AZデプロイメントとAuroraレプリカを使用したAurora Auto Scalingをサポートしており、読み取りワークロードの需要に応じて自動的にスケーリングし、高可用性を維持します。A. Amazon Redshiftは、リーダーとコンピュート機能を単一ノードで提供しますが、このシナリオでは適切ではありません。B. Amazon RDSは、Single-AZデプロイメントで異なるアベイラビリティゾーンにリーダーインスタンスを追加する設定が可能ですが、自動スケーリング機能はありません。D. Amazon ElastiCache for Memcachedは、EC2 Spot Instancesと組み合わせて使用できますが、データベースの自動スケーリングや高可用性を提供しません。 15 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 15. A company recently migrated to AWS and wants to implement a solution to protect the traffic that flows in and out of the production VPC. The company had an inspection server in its on-premises data center. The inspection server performed specific operations such as traffic flow inspection and traffic filtering. The company wants to have the same functionalities in the AWS Cloud.ある会社が最近AWSに移行し、本番VPCの内外のトラフィックを保護するソリューションを実装したいと考えています。同社はオンプレミスのデータセンターに検査サーバーを持っていました。検査サーバーは、トラフィックフローの検査やトラフィックフィルタリングなどの特定の操作を実行していました。同社はAWSクラウドでも同じ機能を実現したいと考えています。 A. Use Amazon GuardDuty for traffic inspection and traffic filtering in the production VPC.本番VPCのトラフィック検査とフィルタリングにAmazon GuardDutyを使用する。 B. Use Traffic Mirroring to mirror traffic from the production VPC for traffic inspection and filtering.本番VPCからのトラフィックをミラーリングして検査とフィルタリングを行うためにTraffic Mirroringを使用する。 C. Use AWS Network Firewall to create the required rules for traffic inspection and traffic filtering for the production VPC.本番VPCのトラフィック検査とフィルタリングに必要なルールを作成するためにAWS Network Firewallを使用する。 D. Use AWS Firewall Manager to create the required rules for traffic inspection and traffic filtering for the production VPC.本番VPCのトラフィック検査とフィルタリングに必要なルールを作成するためにAWS Firewall Managerを使用する。 正解はCです。AWS Network Firewallを使用することで、本番VPCのトラフィック検査とフィルタリングに必要なルールを作成できます。AのAmazon GuardDutyは、脅威検出サービスであり、トラフィックの検査やフィルタリングには適していません。BのTraffic Mirroringは、トラフィックをミラーリングして検査するためのもので、フィルタリング機能は提供しません。DのAWS Firewall Managerは、複数のAWSアカウントやリソースにわたるファイアウォールルールを管理するためのもので、単一のVPCに対するトラフィック検査とフィルタリングには適していません。 16 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 16. A company hosts a data lake on AWS. The data lake consists of data in Amazon S3 and Amazon RDS for PostgreSQL. The company needs a reporting solution that provides data visualization and includes all the data sources within the data lake. Only the company’s management team should have full access to all the visualizations. The rest of the company should have only limited access.AWS上にデータレイクをホストしている企業があります。データレイクはAmazon S3とAmazon RDS for PostgreSQLのデータで構成されています。企業は、データレイク内のすべてのデータソースを含むデータ視覚化を提供するレポートソリューションを必要としています。企業の管理チームのみがすべての視覚化に完全にアクセスできるようにし、他の社員は限定的なアクセスのみを持つべきです。 A. Create an analysis in Amazon QuickSight. Connect all the data sources and create new datasets. Publish dashboards to visualize the data. Share the dashboards with the appropriate IAM roles.Amazon QuickSightで分析を作成します。すべてのデータソースに接続して新しいデータセットを作成します。ダッシュボードを公開してデータを視覚化し、適切なIAMロールとダッシュボードを共有します。 B. Create an analysis in Amazon QuickSight. Connect all the data sources and create new datasets. Publish dashboards to visualize the data. Share the dashboards with the appropriate users and groups.Amazon QuickSightで分析を作成します。すべてのデータソースに接続して新しいデータセットを作成します。ダッシュボードを公開してデータを視覚化し、適切なユーザーとグループとダッシュボードを共有します。 C. Create an AWS Glue table and crawler for the data in Amazon S3. Create an AWS Glue extract, transform, and load (ETL) job to produce reports. Publish the reports to Amazon S3. Use S3 bucket policies to limit access to the reports.Amazon S3のデータに対してAWS Glueテーブルとクローラーを作成します。AWS Glueの抽出、変換、ロード(ETL)ジョブを作成してレポートを生成します。レポートをAmazon S3に公開し、S3バケットポリシーを使用してレポートへのアクセスを制限します。 D. Create an AWS Glue table and crawler for the data in Amazon S3. Use Amazon Athena Federated Query to access data within Amazon RDS for PostgreSQL. Generate reports by using Amazon Athena. Publish the reports to Amazon S3. Use S3 bucket policies to limit access to the reports.Amazon S3のデータに対してAWS Glueテーブルとクローラーを作成します。Amazon Athena Federated Queryを使用してAmazon RDS for PostgreSQL内のデータにアクセスします。Amazon Athenaを使用してレポートを生成し、レポートをAmazon S3に公開します。S3バケットポリシーを使用してレポートへのアクセスを制限します。 正解はBです。Amazon QuickSightを使用して分析を作成し、すべてのデータソースに接続して新しいデータセットを作成します。ダッシュボードを公開してデータを視覚化し、適切なユーザーとグループとダッシュボードを共有します。これにより、管理チームがすべての視覚化にアクセスでき、他の社員は限定的なアクセスのみを持つことができます。Aの選択肢は、IAMロールとダッシュボードを共有することを提案していますが、これはユーザーとグループに基づくアクセス制御よりも柔軟性が低いです。CとDの選択肢は、AWS GlueとAmazon Athenaを使用してレポートを生成し、Amazon S3に公開することを提案していますが、これらはデータ視覚化の要件を満たしていません。 17 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 17. A company is implementing a new business application. The application runs on two Amazon EC2 instances and uses an Amazon S3 bucket for document storage. A solutions architect needs to ensure that the EC2 instances can access the S3 bucket.What should the solutions architect do to meet this requirement?ある会社が新しいビジネスアプリケーションを導入しています。このアプリケーションは2つのAmazon EC2インスタンスで実行され、ドキュメントストレージにAmazon S3バケットを使用しています。ソリューションアーキテクトは、EC2インスタンスがS3バケットにアクセスできるようにする必要があります。この要件を満たすために、ソリューションアーキテクトは何をすべきですか? A. Create an IAM role that grants access to the S3 bucket. Attach the role to the EC2 instances.S3バケットへのアクセスを許可するIAMロールを作成します。そのロールをEC2インスタンスにアタッチします。 B. Create an IAM policy that grants access to the S3 bucket. Attach the policy to the EC2 instances.S3バケットへのアクセスを許可するIAMポリシーを作成します。そのポリシーをEC2インスタンスにアタッチします。 C. Create an IAM group that grants access to the S3 bucket. Attach the group to the EC2 instances.S3バケットへのアクセスを許可するIAMグループを作成します。そのグループをEC2インスタンスにアタッチします。 D. Create an IAM user that grants access to the S3 bucket. Attach the user account to the EC2 instances.S3バケットへのアクセスを許可するIAMユーザーを作成します。そのユーザーアカウントをEC2インスタンスにアタッチします。 正解はAです。IAMロールを作成し、そのロールをEC2インスタンスにアタッチすることで、EC2インスタンスがS3バケットにアクセスできるようになります。Bのオプションは、IAMポリシーを作成し、それをEC2インスタンスにアタッチすることを提案していますが、ポリシーだけではEC2インスタンスに直接適用することはできません。Cのオプションは、IAMグループを作成し、それをEC2インスタンスにアタッチすることを提案していますが、グループはユーザーを管理するためのものであり、EC2インスタンスに直接適用することはできません。Dのオプションは、IAMユーザーを作成し、そのユーザーアカウントをEC2インスタンスにアタッチすることを提案していますが、ユーザーアカウントはEC2インスタンスに直接適用することはできません。 18 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 18. An application development team is designing a microservice that will convert large images to smaller, compressed images. When a user uploads an image through the web interface, the microservice should store the image in an Amazon S3 bucket, process and compress the image with an AWS Lambda function, and store the image in its compressed form in a different S3 bucket. A solutions architect needs to design a solution that uses durable, stateless components to process the images automatically. Which combination of actions will meet these requirements? (Choose two.)アプリケーション開発チームは、大きな画像を小さな圧縮画像に変換するマイクロサービスを設計しています。ユーザーがウェブインターフェースを通じて画像をアップロードすると、マイクロサービスはその画像をAmazon S3バケットに保存し、AWS Lambda関数で画像を処理および圧縮し、圧縮された形式の画像を別のS3バケットに保存する必要があります。ソリューションアーキテクトは、画像を自動的に処理するために耐久性がありステートレスなコンポーネントを使用するソリューションを設計する必要があります。これらの要件を満たすアクションの組み合わせはどれですか?(2つ選択してください。) A. Create an Amazon Simple Queue Service (Amazon SQS) queue. Configure the S3 bucket to send a notification to the SQS queue when an image is uploaded to the S3 bucket.Amazon SQSキューを作成し、S3バケットに画像がアップロードされたときにSQSキューに通知を送信するように設定します。 B. Configure the Lambda function to use the Amazon Simple Queue Service (Amazon SQS) queue as the invocation source. When the SQS message is successfully processed, delete the message in the queue.Lambda関数をSQSキューを呼び出し元として設定し、SQSメッセージが正常に処理されたらキュー内のメッセージを削除します。 C. Configure the Lambda function to monitor the S3 bucket for new uploads. When an uploaded image is detected, write the file name to a text file in memory and use the text file to keep track of the images that were processed.Lambda関数がS3バケットを監視し、新しいアップロードを検出したときにメモリ内のテキストファイルにファイル名を書き込み、処理された画像を追跡するためにテキストファイルを使用します。 D. Launch an Amazon EC2 instance to monitor an Amazon Simple Queue Service (Amazon SQS) queue. When items are added to the queue, log the file name in a text file on the EC2 instance and invoke the Lambda function.EC2インスタンスを起動してSQSキューを監視し、キューにアイテムが追加されたときにEC2インスタンス上のテキストファイルにファイル名を記録し、Lambda関数を呼び出します。 E. Configure an Amazon EventBridge (Amazon CloudWatch Events) event to monitor the S3 bucket. When an image is uploaded, send an alert to an Amazon Simple Notification Service (Amazon SNS) topic with the application owner’s email address for further processing.Amazon EventBridgeを使用してS3バケットを監視し、画像がアップロードされたときにアプリケーション所有者のメールアドレスにアラートを送信してさらなる処理を行います。 正解はAとBです。A: Amazon SQSキューを作成し、S3バケットに画像がアップロードされたときにSQSキューに通知を送信するように設定します。これにより、画像のアップロードを検出し、Lambda関数をトリガーすることができます。B: Lambda関数をSQSキューを呼び出し元として設定し、SQSメッセージが正常に処理されたらキュー内のメッセージを削除します。これにより、画像の処理が確実に行われ、メッセージが重複して処理されるのを防ぎます。C: Lambda関数がS3バケットを監視し、新しいアップロードを検出したときにメモリ内のテキストファイルにファイル名を書き込む方法は、ステートフルであり、耐久性がありません。D: EC2インスタンスを使用してSQSキューを監視し、キューにアイテムが追加されたときにEC2インスタンス上のテキストファイルにファイル名を記録し、Lambda関数を呼び出す方法は、ステートフルであり、耐久性がありません。E: Amazon EventBridgeを使用してS3バケットを監視し、画像がアップロードされたときにアプリケーション所有者のメールアドレスにアラートを送信する方法は、画像の自動処理には適していません。 確認 19 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 19. A company has a three-tier web application that is deployed on AWS. The web servers are deployed in a public subnet in a VPC. The application servers and database servers are deployed in private subnets in the same VPC. The company has deployed a third-party virtual firewall appliance from AWS Marketplace in an inspection VPC. The appliance is Configured with an IP interface that can accept IP packets. A solutions architect needs to integrate the web application with the appliance to inspect all traffic to the application before the traffic reaches the web server.Which solution will meet these requirements with the LEAST operational overhead?ある会社は、AWSにデプロイされた3層のウェブアプリケーションを持っています。ウェブサーバーはVPCのパブリックサブネットにデプロイされています。アプリケーションサーバーとデータベースサーバーは同じVPCのプライベートサブネットにデプロイされています。この会社は、AWS Marketplaceからサードパーティの仮想ファイアウォールアプライアンスを検査用VPCにデプロイしました。このアプライアンスは、IPパケットを受け入れることができるIPインターフェースで構成されています。ソリューションアーキテクトは、トラフィックがウェブサーバーに到達する前に、すべてのトラフィックを検査するためにウェブアプリケーションとアプライアンスを統合する必要があります。これらの要件を最も少ない運用負荷で満たすソリューションはどれですか? A. Create a Network Load Balancer in the public subnet of the application’s VPC to route the traffic to the appliance for packet inspection.アプリケーションのVPCのパブリックサブネットにNetwork Load Balancerを作成し、トラフィックをアプライアンスにルーティングしてパケット検査を行います。 B. Create an Application Load Balancer in the public subnet of the application’s VPC to route the traffic to the appliance for packet inspection.アプリケーションのVPCのパブリックサブネットにApplication Load Balancerを作成し、トラフィックをアプライアンスにルーティングしてパケット検査を行います。 C. Deploy a transit gateway in the inspection VPConfigure route tables to route the incoming packets through the transit gateway.検査用VPCにTransit Gatewayをデプロイし、ルートテーブルを設定して、着信パケットをTransit Gateway経由でルーティングします。 D. Deploy a Gateway Load Balancer in the inspection VPC. Create a Gateway Load Balancer endpoint to receive the incoming packets and forward the packets to the appliance.検査用VPCにGateway Load Balancerをデプロイします。Gateway Load Balancerエンドポイントを作成して、着信パケットを受け取り、アプライアンスに転送します。 正解はDです。Gateway Load Balancerは、トラフィックを検査用VPC内のアプライアンスに転送するために設計されています。これにより、運用負荷を最小限に抑えつつ、すべてのトラフィックを検査することができます。AのNetwork Load Balancerは、パケット検査のためにトラフィックをアプライアンスにルーティングするために使用されますが、Gateway Load Balancerほど効率的ではありません。BのApplication Load Balancerは、アプリケーションレベルのトラフィックをルーティングするために設計されており、パケット検査には適していません。CのTransit Gatewayは、複数のVPC間のトラフィックをルーティングするために使用されますが、このシナリオではGateway Load Balancerの方が適しています。 20 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 20. A company wants to improve its ability to clone large amounts of production data into a test environment in the same AWS Region. The data is stored in Amazon EC2 instances on Amazon Elastic Block Store (Amazon EBS) volumes. Modi cations to the cloned data must not affect the production environment. The software that accesses this data requires consistently high I/O performance. A solutions architect needs to minimize the time that is required to clone the production data into the test environment. Which solution will meet these requirements?ある企業は、同じAWSリージョン内のテスト環境に大量の本番データを複製する能力を向上させたいと考えています。データはAmazon EC2インスタンスのAmazon Elastic Block Store(Amazon EBS)ボリュームに保存されています。複製されたデータへの変更は、本番環境に影響を与えてはなりません。このデータにアクセスするソフトウェアは、一貫して高いI/Oパフォーマンスを必要とします。ソリューションアーキテクトは、本番データをテスト環境に複製するために必要な時間を最小限に抑える必要があります。どのソリューションがこれらの要件を満たしますか? A. Take EBS snapshots of the production EBS volumes. Restore the snapshots onto EC2 instance store volumes in the test environment.本番EBSボリュームのEBSスナップショットを取得し、テスト環境のEC2インスタンスストアボリュームに復元します。 B. Configure the production EBS volumes to use the EBS Multi-Attach feature. Take EBS snapshots of the production EBS volumes. Attach the production EBS volumes to the EC2 instances in the test environment.本番EBSボリュームをEBS Multi-Attach機能を使用するように設定します。本番EBSボリュームのEBSスナップショットを取得し、テスト環境のEC2インスタンスに本番EBSボリュームをアタッチします。 C. Take EBS snapshots of the production EBS volumes. Create and initialize new EBS volumes. Attach the new EBS volumes to EC2 instances in the test environment before restoring the volumes from the production EBS snapshots.本番EBSボリュームのEBSスナップショットを取得し、新しいEBSボリュームを作成して初期化します。本番EBSスナップショットからボリュームを復元する前に、新しいEBSボリュームをテスト環境のEC2インスタンスにアタッチします。 D. Take EBS snapshots of the production EBS volumes. Turn on the EBS fast snapshot restore feature on the EBS snapshots. Restore the snapshots into new EBS volumes. Attach the new EBS volumes to EC2 instances in the test environment.本番EBSボリュームのEBSスナップショットを取得し、EBSスナップショットの高速復元機能を有効にします。スナップショットを新しいEBSボリュームに復元し、新しいEBSボリュームをテスト環境のEC2インスタンスにアタッチします。 正解はDです。EBSスナップショットの高速復元機能を有効にすることで、スナップショットから新しいEBSボリュームへの復元時間を大幅に短縮できます。これにより、テスト環境へのデータ複製時間が最小限に抑えられます。Aの選択肢は、EC2インスタンスストアボリュームに復元するため、データの永続性が保証されず、I/Oパフォーマンスも一貫しない可能性があります。Bの選択肢は、EBS Multi-Attach機能を使用して本番EBSボリュームをテスト環境のEC2インスタンスに直接アタッチするため、本番環境に影響を与えるリスクがあります。Cの選択肢は、新しいEBSボリュームを作成して初期化するため、復元時間が長くなり、要件を満たしません。 21 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 21. An ecommerce company wants to launch a one-deal-a-day website on AWS. Each day will feature exactly one product on sale for a period of 24 hours. The company wants to be able to handle millions of requests each hour with millisecond latency during peak hours. Which solution will meet these requirements with the LEAST operational overhead?ECサイト会社は、AWSで1日1つの商品を特価で販売するウェブサイトを立ち上げたいと考えています。毎日、24時間限定で1つの商品を特価で販売します。会社は、ピーク時に1時間あたり数百万のリクエストをミリ秒のレイテンシで処理できるようにしたいと考えています。これらの要件を最小限の運用負荷で満たすソリューションはどれですか? A. Use Amazon S3 to host the full website in different S3 buckets. Add Amazon CloudFront distributions. Set the S3 buckets as origins for the distributions. Store the order data in Amazon S3.Amazon S3を使用して、異なるS3バケットにウェブサイト全体をホストします。Amazon CloudFrontディストリビューションを追加し、S3バケットをディストリビューションのオリジンとして設定します。注文データをAmazon S3に保存します。 B. Deploy the full website on Amazon EC2 instances that run in Auto Scaling groups across multiple Availability Zones. Add an Application Load Balancer (ALB) to distribute the website traffic. Add another ALB for the backend APIs. Store the data in Amazon RDS for MySQL.Amazon EC2インスタンスを使用して、複数のアベイラビリティゾーンにまたがるAuto Scalingグループでウェブサイト全体をデプロイします。ウェブサイトのトラフィックを分散するためにApplication Load Balancer (ALB)を追加します。バックエンドAPI用に別のALBを追加します。データをAmazon RDS for MySQLに保存します。 C. Migrate the full application to run in containers. Host the containers on Amazon Elastic Kubernetes Service (Amazon EKS). Use the Kubernetes Cluster Autoscaler to increase and decrease the number of pods to process bursts in traffic. Store the data in Amazon RDS for MySQL.アプリケーション全体をコンテナで実行するように移行します。コンテナをAmazon Elastic Kubernetes Service (Amazon EKS)でホストします。Kubernetes Cluster Autoscalerを使用して、トラフィックの急増に対応するためにポッドの数を増減します。データをAmazon RDS for MySQLに保存します。 D. Use an Amazon S3 bucket to host the website’s static content. Deploy an Amazon CloudFront distribution. Set the S3 bucket as the origin. Use Amazon API Gateway and AWS Lambda functions for the backend APIs. Store the data in Amazon DynamoDB.Amazon S3バケットを使用してウェブサイトの静的コンテンツをホストします。Amazon CloudFrontディストリビューションをデプロイし、S3バケットをオリジンとして設定します。バックエンドAPIにはAmazon API GatewayとAWS Lambda関数を使用します。データをAmazon DynamoDBに保存します。 正解はDです。Amazon S3を使用してウェブサイトの静的コンテンツをホストし、Amazon CloudFrontディストリビューションをデプロイすることで、高速なコンテンツ配信が可能になります。Amazon API GatewayとAWS Lambda関数を使用してバックエンドAPIを構築し、データをAmazon DynamoDBに保存することで、スケーラビリティと低レイテンシを実現します。他の選択肢は以下の理由で不適切です:A: Amazon S3を使用してウェブサイト全体をホストすることは可能ですが、注文データをS3に保存することは適切ではありません。S3は静的コンテンツのホスティングに適していますが、動的なデータ処理には向いていません。B: Amazon EC2インスタンスを使用してウェブサイトをデプロイすることは可能ですが、運用負荷が高くなります。また、複数のALBを使用することで複雑さが増します。C: コンテナを使用してアプリケーションを実行することは可能ですが、Amazon EKSの運用には専門知識が必要であり、運用負荷が高くなります。 22 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 22. A solutions architect is using Amazon S3 to design the storage architecture of a new digital media application. The media files must be resilient to the loss of an Availability Zone. Some files are accessed frequently while other files are rarely accessed in an unpredictable pattern. The solutions architect must minimize the costs of storing and retrieving the media files.ソリューションアーキテクトは、新しいデジタルメディアアプリケーションのストレージアーキテクチャを設計するためにAmazon S3を使用しています。メディアファイルは、アベイラビリティゾーンの喪失に対して耐性を持たなければなりません。一部のファイルは頻繁にアクセスされますが、他のファイルは予測不可能なパターンでまれにアクセスされます。ソリューションアーキテクトは、メディアファイルの保存と取得のコストを最小限に抑える必要があります。 A. S3 StandardS3標準 B. S3 Intelligent-TieringS3インテリジェントティアリング C. S3 Standard-Infrequent Access (S3 Standard-IA)S3標準-低頻度アクセス (S3 Standard-IA) D. S3 One Zone-Infrequent Access (S3 One Zone-IA)S3ワンゾーン-低頻度アクセス (S3 One Zone-IA) 正解はS3 Intelligent-Tieringです。これは、アクセスパターンが予測不可能な場合に最適です。S3 Intelligent-Tieringは、自動的にデータを最もコスト効率の良いアクセス層に移動させ、頻繁にアクセスされるデータとまれにアクセスされるデータの両方に対応します。A. S3 Standardは、頻繁にアクセスされるデータに適していますが、コストが高くなります。C. S3 Standard-Infrequent Access (S3 Standard-IA)は、まれにアクセスされるデータに適していますが、アベイラビリティゾーンの喪失に対する耐性はありません。D. S3 One Zone-Infrequent Access (S3 One Zone-IA)は、単一のアベイラビリティゾーン内でのみデータを保存するため、アベイラビリティゾーンの喪失に対する耐性がありません。 23 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 23. A company is storing backup files by using Amazon S3 Standard storage. The files are accessed frequently for 1 month. However, the files are not accessed after 1 month. The company must keep the files indefinitely.Which storage solution will meet these requirements MOST cost-effectively?会社はAmazon S3 Standardストレージを使用してバックアップファイルを保存しています。ファイルは1か月間頻繁にアクセスされますが、1か月後はアクセスされません。会社はファイルを無期限に保持する必要があります。これらの要件を最も費用対効果の高い方法で満たすストレージソリューションはどれですか? A. Configure S3 Intelligent-Tiering to automatically migrate objects.S3 Intelligent-Tieringを設定して、オブジェクトを自動的に移行します。 B. Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 Glacier Deep Archive after 1 month.1か月後にS3 StandardからS3 Glacier Deep Archiveにオブジェクトを移行するS3ライフサイクル設定を作成します。 C. Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-IA) after 1 month.1か月後にS3 StandardからS3 Standard-Infrequent Access (S3 Standard-IA)にオブジェクトを移行するS3ライフサイクル設定を作成します。 D. Create an S3 Lifecycle configuration to transition objects from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) after 1 month.1か月後にS3 StandardからS3 One Zone-Infrequent Access (S3 One Zone-IA)にオブジェクトを移行するS3ライフサイクル設定を作成します。 正解はBです。S3 Glacier Deep Archiveは、長期間アクセスされないデータを非常に低コストで保存するために設計されています。1か月後にファイルがアクセスされなくなるため、S3 StandardからS3 Glacier Deep Archiveに移行するライフサイクル設定を作成することが最も費用対効果の高いソリューションです。 A. S3 Intelligent-Tieringは、アクセスパターンに基づいて自動的にオブジェクトを移行しますが、このシナリオでは1か月後にアクセスがなくなるため、最適ではありません。C. S3 Standard-IAは、アクセス頻度が低いデータに適していますが、S3 Glacier Deep Archiveよりもコストが高くなります。D. S3 One Zone-IAは、単一の可用性ゾーンにデータを保存するため、S3 Glacier Deep Archiveよりもコストが高く、可用性も低くなります。 24 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 24. A company observes an increase in Amazon EC2 costs in its most recent bill. The billing team notices unwanted vertical scaling of instance types for a couple of EC2 instances. A solutions architect needs to create a graph comparing the last 2 months of EC2 costs and perform an in-depth analysis to identify the root cause of the vertical scaling.How should the solutions architect generate the information with the LEAST operational overhead?ある会社が最近の請求書でAmazon EC2のコストが増加していることに気づきました。請求チームは、いくつかのEC2インスタンスの不要な垂直スケーリングに気づきました。ソリューションアーキテクトは、過去2か月間のEC2コストを比較するグラフを作成し、垂直スケーリングの根本原因を特定するための詳細な分析を行う必要があります。ソリューションアーキテクトは、最小限の運用負荷で情報を生成するにはどうすればよいでしょうか? A. Use AWS Budgets to create a budget report and compare EC2 costs based on instance types.AWS Budgetsを使用して予算レポートを作成し、インスタンスタイプに基づいてEC2コストを比較します。 B. Use Cost Explorer’s granular filtering feature to perform an in-depth analysis of EC2 costs based on instance types.Cost Explorerの細かいフィルタリング機能を使用して、インスタンスタイプに基づいてEC2コストの詳細な分析を行います。 C. Use graphs from the AWS Billing and Cost Management dashboard to compare EC2 costs based on instance types for the last 2 months.AWS Billing and Cost Managementダッシュボードのグラフを使用して、過去2か月間のインスタンスタイプに基づいてEC2コストを比較します。 D. Use AWS Cost and Usage Reports to create a report and send it to an Amazon S3 bucket. Use Amazon QuickSight with Amazon S3 as a source to generate an interactive graph based on instance types.AWS Cost and Usage Reportsを使用してレポートを作成し、Amazon S3バケットに送信します。Amazon QuickSightを使用して、インスタンスタイプに基づいたインタラクティブなグラフを生成します。 正解はBです。Cost Explorerの細かいフィルタリング機能を使用して、インスタンスタイプに基づいてEC2コストの詳細な分析を行うことが、最も運用負荷が少ない方法です。A. AWS Budgetsを使用して予算レポートを作成し、インスタンスタイプに基づいてEC2コストを比較することは、詳細な分析には適していません。C. AWS Billing and Cost Managementダッシュボードのグラフを使用して、過去2か月間のインスタンスタイプに基づいてEC2コストを比較することは、詳細な分析には不十分です。D. AWS Cost and Usage Reportsを使用してレポートを作成し、Amazon S3バケットに送信し、Amazon QuickSightを使用してインスタンスタイプに基づいたインタラクティブなグラフを生成することは、運用負荷が高くなります。 25 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 25. A company is designing an application. The application uses an AWS Lambda function to receive information through Amazon API Gateway and to store the information in an Amazon Aurora PostgreSQL database. During the proof-of-concept stage, the company has to increase the Lambda quotas significantly to handle the high volumes of data that the company needs to load into the database. A solutions architect must recommend a new design to improve scalability and minimize the configuration effort. Which solution will meet these requirements?ある会社がアプリケーションを設計しています。このアプリケーションは、Amazon API Gatewayを介して情報を受信し、その情報をAmazon Aurora PostgreSQLデータベースに保存するためにAWS Lambda関数を使用しています。概念実証段階で、会社はデータベースにロードする必要がある大量のデータを処理するためにLambdaのクォータを大幅に増やす必要があります。ソリューションアーキテクトは、スケーラビリティを向上させ、設定作業を最小限に抑えるための新しい設計を推奨する必要があります。どのソリューションがこれらの要件を満たしますか? A. Refactor the Lambda function code to Apache Tomcat code that runs on Amazon EC2 instances. Connect the database by using native Java Database Connectivity (JDBC) drivers.Lambda関数のコードをApache Tomcatコードにリファクタリングし、Amazon EC2インスタンスで実行します。ネイティブのJava Database Connectivity (JDBC)ドライバを使用してデータベースに接続します。 B. Change the platform from Aurora to Amazon DynamoDB. Provision a DynamoDB Accelerator (DAX) cluster. Use the DAX client SDK to point the existing DynamoDB API calls at the DAX cluster.プラットフォームをAuroraからAmazon DynamoDBに変更します。DynamoDB Accelerator (DAX)クラスターをプロビジョニングします。DAXクライアントSDKを使用して、既存のDynamoDB API呼び出しをDAXクラスターに向けます。 C. Set up two Lambda functions. Configure one function to receive the information. Configure the other function to load the information into the database. Integrate the Lambda functions by using Amazon Simple Notification Service (Amazon SNS).2つのLambda関数を設定します。1つの関数を情報を受信するように設定し、もう1つの関数を情報をデータベースにロードするように設定します。Amazon Simple Notification Service (Amazon SNS)を使用してLambda関数を統合します。 D. Set up two Lambda functions. Configure one function to receive the information. Configure the other function to load the information into the database. Integrate the Lambda functions by using an Amazon Simple Queue Service (Amazon SQS) queue.2つのLambda関数を設定します。1つの関数を情報を受信するように設定し、もう1つの関数を情報をデータベースにロードするように設定します。Amazon Simple Queue Service (Amazon SQS)キューを使用してLambda関数を統合します。 正解はDです。Amazon SQSを使用して2つのLambda関数を統合することで、スケーラビリティが向上し、設定作業が最小限に抑えられます。SQSはメッセージキューサービスであり、非同期処理を可能にし、Lambda関数間の通信を効率的に行うことができます。 Aの選択肢は、Lambda関数をApache Tomcatコードにリファクタリングし、Amazon EC2インスタンスで実行することを提案していますが、これでは設定作業が増え、スケーラビリティが低下します。 Bの選択肢は、AuroraからAmazon DynamoDBにプラットフォームを変更し、DynamoDB Accelerator (DAX)クラスターをプロビジョニングすることを提案していますが、これはデータベースの変更を伴い、設定作業が増えます。 Cの選択肢は、Amazon SNSを使用して2つのLambda関数を統合することを提案していますが、SNSはプッシュ型のメッセージングサービスであり、SQSのようなキューの機能を持たないため、スケーラビリティが低下します。 26 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 26. A company needs to review its AWS Cloud deployment to ensure that its Amazon S3 buckets do not have unauthorized configuration changes.会社は、Amazon S3バケットに不正な設定変更がないことを確認するために、AWSクラウドデプロイメントをレビューする必要があります。 A. Turn on AWS Config with the appropriate rules.適切なルールでAWS Configを有効にします。 B. Turn on AWS Trusted Advisor with the appropriate checks.適切なチェックでAWS Trusted Advisorを有効にします。 C. Turn on Amazon Inspector with the appropriate assessment template.適切な評価テンプレートでAmazon Inspectorを有効にします。 D. Turn on Amazon S3 server access logging. Configure Amazon EventBridge (Amazon Cloud Watch Events).Amazon S3サーバーアクセスログを有効にします。Amazon EventBridge(Amazon CloudWatch Events)を設定します。 正解はAです。AWS Configを使用して、Amazon S3バケットの設定変更を監視し、不正な変更を検出することができます。BのAWS Trusted Advisorは、コスト最適化、パフォーマンス、セキュリティ、フォールトトレランスのベストプラクティスをチェックするためのツールであり、設定変更の監視には適していません。CのAmazon Inspectorは、EC2インスタンスのセキュリティ脆弱性を評価するためのツールであり、S3バケットの設定変更の監視には適していません。DのAmazon S3サーバーアクセスログとAmazon EventBridgeは、S3バケットへのアクセスを監視するためのツールですが、設定変更の監視には適していません。 27 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 27. A company is launching a new application and will display application metrics on an Amazon CloudWatch dashboard. The company’s product manager needs to access this dashboard periodically. The product manager does not have an AWS account. A solutions architect must provide access to the product manager by following the principle of least privilege.どのソリューションがこれらの要件を満たしますか? A. Share the dashboard from the CloudWatch console. Enter the product manager’s email address, and complete the sharing steps. Provide a shareable link for the dashboard to the product manager.CloudWatchコンソールからダッシュボードを共有します。プロダクトマネージャーのメールアドレスを入力し、共有手順を完了します。ダッシュボードの共有可能なリンクをプロダクトマネージャーに提供します。 B. Create an IAM user specifically for the product manager. Attach the CloudWatchReadOnlyAccess AWS managed policy to the user. Share the new login credentials with the product manager. Share the browser URL of the correct dashboard with the product manager.プロダクトマネージャー専用のIAMユーザーを作成します。CloudWatchReadOnlyAccess AWS管理ポリシーをユーザーにアタッチします。新しいログインクレデンシャルをプロダクトマネージャーと共有します。正しいダッシュボードのブラウザURLをプロダクトマネージャーと共有します。 C. Create an IAM user for the company’s employees. Attach the ViewOnlyAccess AWS managed policy to the IAM user. Share the new login credentials with the product manager. Ask the product manager to navigate to the CloudWatch console and locate the dashboard by name in the Dashboards section.会社の従業員用のIAMユーザーを作成します。ViewOnlyAccess AWS管理ポリシーをIAMユーザーにアタッチします。新しいログインクレデンシャルをプロダクトマネージャーと共有します。プロダクトマネージャーにCloudWatchコンソールに移動し、ダッシュボードセクションで名前でダッシュボードを見つけるように依頼します。 D. Deploy a bastion server in a public subnet. When the product manager requires access to the dashboard, start the server and share the RDP credentials. On the bastion server, ensure that the browser is Configured to open the dashboard URL with cached AWS credentials that have appropriate permissions to view the dashboard.パブリックサブネットにバスティオンサーバーをデプロイします。プロダクトマネージャーがダッシュボードにアクセスする必要がある場合、サーバーを起動し、RDPクレデンシャルを共有します。バスティオンサーバーで、ブラウザがダッシュボードURLを開くように設定され、ダッシュボードを表示するための適切な権限を持つキャッシュされたAWSクレデンシャルを使用するようにします。 正解はAです。CloudWatchダッシュボードを共有する機能を使用することで、AWSアカウントを持たないプロダクトマネージャーに最小限の権限でダッシュボードへのアクセスを提供できます。Bは、IAMユーザーを作成し、CloudWatchReadOnlyAccessポリシーをアタッチする方法ですが、これはプロダクトマネージャーにAWSアカウントを作成する必要があり、最小限の権限の原則に反します。Cは、会社の従業員用のIAMユーザーを作成し、ViewOnlyAccessポリシーをアタッチする方法ですが、これもプロダクトマネージャーにAWSアカウントを作成する必要があり、最小限の権限の原則に反します。Dは、バスティオンサーバーをデプロイし、RDPクレデンシャルを共有する方法ですが、これはセキュリティリスクが高く、最小限の権限の原則に反します。 28 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 28. A company is migrating applications to AWS. The applications are deployed in different accounts. The company manages the accounts centrally by using AWS Organizations. The company’s security team needs a single sign-on (SSO) solution across all the company’s accounts. The company must continue managing the users and groups in its on-premises self-managed Microsoft Active Directory.AWSにアプリケーションを移行している企業があります。アプリケーションは異なるアカウントにデプロイされています。企業はAWS Organizationsを使用してアカウントを一元管理しています。企業のセキュリティチームは、すべての企業アカウントにわたるシングルサインオン(SSO)ソリューションを必要としています。企業は、オンプレミスの自己管理型Microsoft Active Directoryでユーザーとグループを管理し続ける必要があります。 A. Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console. Create a one-way forest trust or a one-way domain trust to connect the company’s self-managed Microsoft Active Directory with AWS SSO by using AWS Directory Service for Microsoft Active Directory.AWS SSOコンソールからAWS Single Sign-On (AWS SSO) を有効にします。AWS Directory Service for Microsoft Active Directoryを使用して、企業の自己管理型Microsoft Active DirectoryとAWS SSOを一方向のフォレストトラストまたはドメイントラストで接続します。 B. Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console. Create a two-way forest trust to connect the company’s self-managed Microsoft Active Directory with AWS SSO by using AWS Directory Service for Microsoft Active Directory.AWS SSOコンソールからAWS Single Sign-On (AWS SSO) を有効にします。AWS Directory Service for Microsoft Active Directoryを使用して、企業の自己管理型Microsoft Active DirectoryとAWS SSOを双方向フォレストトラストで接続します。 C. Use AWS Directory Service. Create a two-way trust relationship with the company’s self-managed Microsoft Active Directory.AWS Directory Serviceを使用します。企業の自己管理型Microsoft Active Directoryと双方向の信頼関係を作成します。 D. Deploy an identity provider (IdP) on premises. Enable AWS Single Sign-On (AWS SSO) from the AWS SSO console.オンプレミスにIDプロバイダー(IdP)を展開します。AWS SSOコンソールからAWS Single Sign-On (AWS SSO) を有効にします。 正解はBです。AWS Single Sign-On (AWS SSO) を有効にし、AWS Directory Service for Microsoft Active Directoryを使用して、企業の自己管理型Microsoft Active DirectoryとAWS SSOを双方向フォレストトラストで接続することが要件を満たします。 Aの選択肢は、一方向のフォレストトラストまたはドメイントラストを作成することを提案していますが、これは双方向の信頼関係を必要とする要件を満たしません。 Cの選択肢は、AWS Directory Serviceを使用して双方向の信頼関係を作成することを提案していますが、AWS SSOを使用しないため、要件を満たしません。 Dの選択肢は、オンプレミスにIDプロバイダー(IdP)を展開することを提案していますが、これもAWS SSOを使用しないため、要件を満たしません。 29 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 29. A company provides a Voice over Internet Protocol (VoIP) service that uses UDP connections. The service consists of Amazon EC2 instances that run in an Auto Scaling group. The company has deployments across multiple AWS Regions. The company needs to route users to the Region with the lowest latency. The company also needs automated failover between Regions. Which solution will meet these requirements?ある会社は、UDP接続を使用するVoice over Internet Protocol (VoIP)サービスを提供しています。このサービスは、Auto Scalingグループで実行されるAmazon EC2インスタンスで構成されています。同社は複数のAWSリージョンに展開しています。同社は、ユーザーを最も低いレイテンシーのリージョンにルーティングする必要があります。また、リージョン間の自動フェイルオーバーも必要です。これらの要件を満たすソリューションはどれですか? A. Deploy a Network Load Balancer (NLB) and an associated target group. Associate the target group with the Auto Scaling group. Use the NLB as an AWS Global Accelerator endpoint in each Region.Network Load Balancer (NLB)と関連するターゲットグループをデプロイします。ターゲットグループをAuto Scalingグループに関連付けます。各リージョンでNLBをAWS Global Acceleratorのエンドポイントとして使用します。 B. Deploy an Application Load Balancer (ALB) and an associated target group. Associate the target group with the Auto Scaling group. Use the ALB as an AWS Global Accelerator endpoint in each Region.Application Load Balancer (ALB)と関連するターゲットグループをデプロイします。ターゲットグループをAuto Scalingグループに関連付けます。各リージョンでALBをAWS Global Acceleratorのエンドポイントとして使用します。 C. Deploy a Network Load Balancer (NLB) and an associated target group. Associate the target group with the Auto Scaling group. Create an Amazon Route 53 latency record that points to aliases for each NLB. Create an Amazon CloudFront distribution that uses the latency record as an origin.Network Load Balancer (NLB)と関連するターゲットグループをデプロイします。ターゲットグループをAuto Scalingグループに関連付けます。各NLBのエイリアスを指すAmazon Route 53のレイテンシーレコードを作成します。レイテンシーレコードをオリジンとして使用するAmazon CloudFrontディストリビューションを作成します。 D. Deploy an Application Load Balancer (ALB) and an associated target group. Associate the target group with the Auto Scaling group. Create an Amazon Route 53 weighted record that points to aliases for each ALB. Deploy an Amazon CloudFront distribution that uses the weighted record as an origin.Application Load Balancer (ALB)と関連するターゲットグループをデプロイします。ターゲットグループをAuto Scalingグループに関連付けます。各ALBのエイリアスを指すAmazon Route 53の加重レコードを作成します。加重レコードをオリジンとして使用するAmazon CloudFrontディストリビューションをデプロイします。 正解はAです。Network Load Balancer (NLB)はUDPトラフィックをサポートしており、AWS Global Acceleratorと組み合わせることで、ユーザーを最も低いレイテンシーのリージョンに自動的にルーティングし、リージョン間の自動フェイルオーバーを実現します。BのApplication Load Balancer (ALB)はHTTP/HTTPSトラフィックに最適化されており、UDPトラフィックをサポートしていないため、この要件には適していません。CのAmazon Route 53のレイテンシーレコードとAmazon CloudFrontを使用する方法は、UDPトラフィックを直接サポートしていないため、この要件には適していません。DのAmazon Route 53の加重レコードとAmazon CloudFrontを使用する方法も、UDPトラフィックを直接サポートしていないため、この要件には適していません。 30 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 30. A development team runs monthly resource-intensive tests on its general purpose Amazon RDS for MySQL DB instance with Performance Insights enabled. The testing lasts for 48 hours once a month and is the only process that uses the database. The team wants to reduce the cost of running the tests without reducing the compute and memory attributes of the DB instance.開発チームは、Performance Insightsが有効な汎用Amazon RDS for MySQL DBインスタンスで月に一度、リソースを大量に消費するテストを実行しています。このテストは月に一度48時間続き、データベースを使用する唯一のプロセスです。チームは、DBインスタンスの計算能力とメモリ属性を減らすことなく、テストの実行コストを削減したいと考えています。 A. Stop the DB instance when tests are completed. Restart the DB instance when required.テストが完了したらDBインスタンスを停止します。必要時にDBインスタンスを再起動します。 B. Use an Auto Scaling policy with the DB instance to automatically scale when tests are completed.テストが完了したら、DBインスタンスでAuto Scalingポリシーを使用して自動的にスケーリングします。 C. Create a snapshot when tests are completed. Terminate the DB instance and restore the snapshot when required.テストが完了したらスナップショットを作成します。DBインスタンスを終了させ、必要時にスナップショットを復元します。 D. Modify the DB instance to a low-capacity instance when tests are completed. Modify the DB instance again when required.テストが完了したら、DBインスタンスを低容量インスタンスに変更します。必要時に再度DBインスタンスを変更します。 正解はCです。テストが完了した後にスナップショットを作成し、DBインスタンスを終了させ、必要時にスナップショットを復元することで、テスト期間外のコストを削減できます。Aの選択肢は、DBインスタンスを停止して再起動する方法ですが、これでは停止中のストレージコストが発生します。Bの選択肢は、Auto Scalingポリシーを使用する方法ですが、RDSインスタンスではAuto Scalingはサポートされていません。Dの選択肢は、DBインスタンスを低容量インスタンスに変更する方法ですが、これでは計算能力とメモリ属性が変更されるため、要件を満たしません。 31 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 31. A company that hosts its web application on AWS wants to ensure all Amazon EC2 instances. Amazon RDS DB instances. and Amazon Redshift clusters are Configured with tags. The company wants to minimize the effort of configuring and operating this check.AWS上にウェブアプリケーションをホストしている企業は、すべてのAmazon EC2インスタンス、Amazon RDS DBインスタンス、およびAmazon Redshiftクラスターにタグが設定されていることを確認したいと考えています。同社は、このチェックの設定と運用の手間を最小限に抑えたいと考えています。 A. Use AWS Config rules to define and detect resources that are not properly tagged.AWS Configルールを使用して、適切にタグ付けされていないリソースを定義および検出する。 B. Use Cost Explorer to display resources that are not properly tagged. Tag those resources manually.Cost Explorerを使用して、適切にタグ付けされていないリソースを表示し、それらのリソースを手動でタグ付けする。 C. Write API calls to check all resources for proper tag allocation. Periodically run the code on an EC2 instance.APIコールを書いて、すべてのリソースが適切にタグ付けされているかどうかを確認し、定期的にEC2インスタンス上でコードを実行する。 D. Write API calls to check all resources for proper tag allocation. Schedule an AWS Lambda function through Amazon CloudWatch to periodically run the code.APIコールを書いて、すべてのリソースが適切にタグ付けされているかどうかを確認し、Amazon CloudWatchを通じてAWS Lambda関数をスケジュールして定期的にコードを実行する。 正解はAです。AWS Configルールを使用して、適切にタグ付けされていないリソースを定義および検出することが、最も効率的な方法です。 BのCost Explorerを使用して手動でタグ付けする方法は、手間がかかり、効率的ではありません。CとDのAPIコールを書いて定期的に実行する方法は、自動化されていますが、AWS Configルールを使用するよりも複雑で、維持管理が大変です。 32 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 32. A development team needs to host a website that will be accessed by other teams. The website contents consist of HTML, CSS, client-side JavaScript, and images.開発チームは、他のチームがアクセスするウェブサイトをホストする必要があります。ウェブサイトの内容はHTML、CSS、クライアントサイドJavaScript、および画像で構成されています。 A. Containerize the website and host it in AWS Fargate.ウェブサイトをコンテナ化し、AWS Fargateでホストする。 B. Create an Amazon S3 bucket and host the website there.Amazon S3バケットを作成し、そこにウェブサイトをホストする。 C. Deploy a web server on an Amazon EC2 instance to host the website.Amazon EC2インスタンスにウェブサーバーをデプロイし、ウェブサイトをホストする。 D. Configure an Application Load Balancer with an AWS Lambda target that uses the Express.js framework.Express.jsフレームワークを使用するAWS LambdaターゲットでApplication Load Balancerを設定する。 正解はBです。Amazon S3は静的ウェブサイトホスティングに最適で、コスト効率が高いです。AのAWS Fargateはコンテナを実行するためのサービスで、静的ウェブサイトホスティングには不向きです。CのAmazon EC2インスタンスは、ウェブサーバーをデプロイするための仮想サーバーですが、静的ウェブサイトホスティングには過剰なリソースを使用します。DのApplication Load BalancerとAWS Lambdaの組み合わせは、動的コンテンツの処理に適していますが、静的ウェブサイトホスティングには不必要です。 33 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 33. A company runs an online marketplace web application on AWS. The application serves hundreds of thousands of users during peak hours. The company needs a scalable, near-real-time solution to share the details of millions of financial transactions with several other internal applications. Transactions also need to be processed to remove sensitive data before being stored in a document database for low-latency retrieval.ある会社はAWS上でオンラインマーケットプレイスのウェブアプリケーションを運営しています。このアプリケーションはピーク時に数十万人のユーザーにサービスを提供します。会社は、数百万件の金融取引の詳細を他のいくつかの内部アプリケーションと共有するためのスケーラブルでほぼリアルタイムのソリューションを必要としています。また、取引は低遅延で取得できるようにドキュメントデータベースに保存される前に、機密データを削除するために処理する必要があります。 A. Store the transactions data into Amazon DynamoDB. Set up a rule in DynamoDB to remove sensitive data from every transaction upon write. Use DynamoDB Streams to share the transactions data with other applications.取引データをAmazon DynamoDBに保存します。DynamoDBにルールを設定して、書き込み時に各取引から機密データを削除します。DynamoDB Streamsを使用して、他のアプリケーションと取引データを共有します。 B. Stream the transactions data into Amazon Kinesis Data Firehose to store data in Amazon DynamoDB and Amazon S3. Use AWS Lambda integration with Kinesis Data Firehose to remove sensitive data. Other applications can consume the data stored in Amazon S3.取引データをAmazon Kinesis Data Firehoseにストリーミングして、データをAmazon DynamoDBとAmazon S3に保存します。Kinesis Data FirehoseとAWS Lambdaを統合して機密データを削除します。他のアプリケーションはAmazon S3に保存されたデータを消費できます。 C. Stream the transactions data into Amazon Kinesis Data Streams. Use AWS Lambda integration to remove sensitive data from every transaction and then store the transactions data in Amazon DynamoDB. Other applications can consume the transactions data off the Kinesis data stream.取引データをAmazon Kinesis Data Streamsにストリーミングします。AWS Lambdaを統合して各取引から機密データを削除し、その後取引データをAmazon DynamoDBに保存します。他のアプリケーションはKinesisデータストリームから取引データを消費できます。 D. Store the batched transactions data in Amazon S3 as files. Use AWS Lambda to process every file and remove sensitive data before updating the files in Amazon S3. The Lambda function then stores the data in Amazon DynamoDB. Other applications can consume transaction files stored in Amazon S3.バッチ処理された取引データをAmazon S3にファイルとして保存します。AWS Lambdaを使用して各ファイルを処理し、Amazon S3のファイルを更新する前に機密データを削除します。その後、Lambda関数はデータをAmazon DynamoDBに保存します。他のアプリケーションはAmazon S3に保存された取引ファイルを消費できます。 正解はCです。Amazon Kinesis Data Streamsを使用して取引データをストリーミングし、AWS Lambdaを使用して各取引から機密データを削除し、その後Amazon DynamoDBにデータを保存します。他のアプリケーションはKinesisデータストリームから取引データを消費できます。Aの選択肢は、DynamoDBにデータを保存し、DynamoDB Streamsを使用して他のアプリケーションとデータを共有することを提案していますが、機密データの削除がDynamoDBのルールで行われるため、柔軟性が低く、リアルタイム処理には適していません。Bの選択肢は、Amazon Kinesis Data Firehoseを使用してデータをDynamoDBとS3に保存し、AWS Lambdaを使用して機密データを削除することを提案していますが、S3に保存されたデータを他のアプリケーションが消費するため、リアルタイム性が低くなります。Dの選択肢は、バッチ処理された取引データをS3にファイルとして保存し、AWS Lambdaを使用して機密データを削除し、その後DynamoDBにデータを保存することを提案していますが、バッチ処理のためリアルタイム性が低くなります。 34 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 34. A company hosts its multi-tier applications on AWS. For compliance, governance, auditing, and security, the company must track configuration changes on its AWS resources and record a history of API calls made to these resources.What should a solutions architect do to meet these requirements?AWSにマルチティアアプリケーションをホストしている企業があります。コンプライアンス、ガバナンス、監査、セキュリティのために、企業はAWSリソースの設定変更を追跡し、これらのリソースに対して行われたAPI呼び出しの履歴を記録する必要があります。これらの要件を満たすために、ソリューションアーキテクトは何をすべきですか? A. Use AWS CloudTrail to track configuration changes and AWS Config to record API calls.設定変更を追跡するためにAWS CloudTrailを使用し、API呼び出しを記録するためにAWS Configを使用します。 B. Use AWS Config to track configuration changes and AWS CloudTrail to record API calls.設定変更を追跡するためにAWS Configを使用し、API呼び出しを記録するためにAWS CloudTrailを使用します。 C. Use AWS Config to track configuration changes and Amazon CloudWatch to record API calls.設定変更を追跡するためにAWS Configを使用し、API呼び出しを記録するためにAmazon CloudWatchを使用します。 D. Use AWS CloudTrail to track configuration changes and Amazon CloudWatch to record API calls.設定変更を追跡するためにAWS CloudTrailを使用し、API呼び出しを記録するためにAmazon CloudWatchを使用します。 正解はBです。AWS Configは、AWSリソースの設定変更を追跡するために使用されます。これにより、リソースの設定がどのように変更されたかを確認できます。AWS CloudTrailは、AWSアカウントに対して行われたAPI呼び出しの履歴を記録します。これにより、誰がどのAPIを呼び出したかを追跡できます。他の選択肢は以下の理由で誤りです:A. AWS CloudTrailはAPI呼び出しを記録しますが、設定変更を追跡するのはAWS Configです。C. Amazon CloudWatchはAPI呼び出しを記録しません。D. Amazon CloudWatchはAPI呼び出しを記録しません。 35 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 35. A company is preparing to launch a public-facing web application in the AWS Cloud. The architecture consists of Amazon EC2 instances within a VPC behind an Elastic Load Balancer (ELB). A third-party service is used for the DNS. The company’s solutions architect must recommend a solution to detect and protect against large-scale DDoS attacks.AWSクラウドで公開向けのウェブアプリケーションを立ち上げようとしている企業があります。アーキテクチャは、Elastic Load Balancer (ELB) の背後にあるVPC内のAmazon EC2インスタンスで構成されています。DNSにはサードパーティのサービスが使用されています。企業のソリューションアーキテクトは、大規模なDDoS攻撃を検出し、保護するためのソリューションを推奨する必要があります。 A. Enable Amazon GuardDuty on the account.アカウントでAmazon GuardDutyを有効にする。 B. Enable Amazon Inspector on the EC2 instances.EC2インスタンスでAmazon Inspectorを有効にする。 C. Enable AWS Shield and assign Amazon Route 53 to it.AWS Shieldを有効にしてAmazon Route 53を割り当てる。 D. Enable AWS Shield Advanced and assign the ELB to it.AWS Shield Advancedを有効にしてELBを割り当てる。 正解はDです。AWS Shield Advancedは、大規模なDDoS攻撃から保護するための高度なサービスです。ELBにAWS Shield Advancedを割り当てることで、ELBを介したトラフィックが保護されます。 A. Amazon GuardDutyは、アカウントのセキュリティを監視するためのサービスですが、DDoS攻撃に対する保護は提供しません。B. Amazon Inspectorは、EC2インスタンスのセキュリティとコンプライアンスを評価するためのサービスですが、DDoS攻撃に対する保護は提供しません。C. AWS Shieldは基本的なDDoS保護を提供しますが、AWS Shield Advancedほどの高度な保護機能はありません。また、Amazon Route 53はDNSサービスであり、ELBの保護には直接関係ありません。 36 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 36. A company is building an application in the AWS Cloud. The application will store data in Amazon S3 buckets in two AWS Regions. The company must use an AWS Key Management Service (AWS KMS) customer managed key to encrypt all data that is stored in the S3 buckets. The data in both S3 buckets must be encrypted and decrypted with the same KMS key. The data and the key must be stored in each of the two Regions.どのソリューションがこれらの要件を最小の運用オーバーヘッドで満たすでしょうか? A. Create an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Configure replication between the S3 buckets.各リージョンにS3バケットを作成します。S3バケットをAmazon S3管理の暗号化キー(SSE-S3)を使用してサーバー側暗号化を設定します。S3バケット間のレプリケーションを設定します。 B. Create a customer managed multi-Region KMS key. Create an S3 bucket in each Region. Configure replication between the S3 buckets. Configure the application to use the KMS key with client-side encryption.顧客管理のマルチリージョンKMSキーを作成します。各リージョンにS3バケットを作成します。S3バケット間のレプリケーションを設定します。アプリケーションをクライアント側暗号化でKMSキーを使用するように設定します。 C. Create a customer managed KMS key and an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with Amazon S3 managed encryption keys (SSE-S3). Configure replication between the S3 buckets.各リージョンに顧客管理のKMSキーとS3バケットを作成します。S3バケットをAmazon S3管理の暗号化キー(SSE-S3)を使用してサーバー側暗号化を設定します。S3バケット間のレプリケーションを設定します。 D. Create a customer managed KMS key and an S3 bucket in each Region. Configure the S3 buckets to use server-side encryption with AWS KMS keys (SSE-KMS). Configure replication between the S3 buckets.各リージョンに顧客管理のKMSキーとS3バケットを作成します。S3バケットをAWS KMSキー(SSE-KMS)を使用してサーバー側暗号化を設定します。S3バケット間のレプリケーションを設定します。 正解はBです。なぜなら、マルチリージョンKMSキーを使用することで、両方のリージョンで同じKMSキーを使用してデータを暗号化および復号化することができ、運用オーバーヘッドを最小限に抑えることができます。 Aのオプションは、SSE-S3を使用しているため、KMSキーを使用していません。これは要件を満たしません。 Cのオプションは、SSE-S3を使用しているため、KMSキーを使用していません。これは要件を満たしません。 Dのオプションは、SSE-KMSを使用していますが、マルチリージョンKMSキーを使用していないため、両方のリージョンで同じKMSキーを使用することができません。これは要件を満たしません。 37 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 37. A company recently launched a variety of new workloads on Amazon EC2 instances in its AWS account. The company needs to create a strategy to access and administer the instances remotely and securely. The company needs to implement a repeatable process that works with native AWS services and follows the AWS Well-Architected Framework.どのソリューションがこれらの要件を満たし、最小の運用オーバーヘッドで実現できるでしょうか? A. Use the EC2 serial console to directly access the terminal interface of each instance for administration.EC2シリアルコンソールを使用して、各インスタンスのターミナルインターフェースに直接アクセスします。 B. Attach the appropriate IAM role to each existing instance and new instance. Use AWS Systems Manager Session Manager to establish a remote SSH session.適切なIAMロールを各既存インスタンスと新規インスタンスにアタッチします。AWS Systems Manager Session Managerを使用してリモートSSHセッションを確立します。 C. Create an administrative SSH key pair. Load the public key into each EC2 instance. Deploy a bastion host in a public subnet to provide a tunnel for administration of each instance.管理用SSHキーペアを作成します。各EC2インスタンスに公開キーをロードします。パブリックサブネットにバスティオンホストをデプロイして、各インスタンスの管理用トンネルを提供します。 D. Establish an AWS Site-to-Site VPN connection. Instruct administrators to use their local on-premises machines to connect directly to the instances by using SSH keys across the VPN tunnel.AWSサイト間VPN接続を確立します。管理者に、VPNトンネルを介してSSHキーを使用して直接インスタンスに接続するよう指示します。 正解はBです。AWS Systems Manager Session Managerを使用することで、IAMロールをインスタンスにアタッチし、リモートSSHセッションを確立することができます。これにより、運用オーバーヘッドを最小限に抑えつつ、安全なリモートアクセスを実現できます。 他の選択肢の誤り:A. EC2シリアルコンソールを使用すると、各インスタンスのターミナルインターフェースに直接アクセスできますが、運用オーバーヘッドが高くなります。C. 管理用SSHキーペアを作成し、各EC2インスタンスに公開キーをロードする方法は、運用オーバーヘッドが高く、セキュリティリスクも伴います。D. AWSサイト間VPN接続を確立し、管理者がオンプレミスのマシンを使用してVPNトンネルを介して直接インスタンスに接続する方法は、運用オーバーヘッドが高く、複雑です。 38 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 38. A company is hosting a static website on Amazon S3 and is using Amazon Route 53 for DNS. The website is experiencing increased demand from around the world. The company must decrease latency for users who access the website.Which solution meets these requirements MOST cost-effectively?Amazon S3で静的ウェブサイトをホストし、Amazon Route 53をDNSとして使用している会社があります。ウェブサイトは世界中からの需要が増加しています。会社は、ウェブサイトにアクセスするユーザーのレイテンシを削減する必要があります。これらの要件を最もコスト効率的に満たす解決策はどれですか? A. Replicate the S3 bucket that contains the website to all AWS Regions. Add Route 53 geolocation routing entries.ウェブサイトを含むS3バケットをすべてのAWSリージョンに複製します。Route 53の地理的位置に基づくルーティングエントリを追加します。 B. Provision accelerators in AWS Global Accelerator. Associate the supplied IP addresses with the S3 bucket. Edit the Route 53 entries to point to the IP addresses of the accelerators.AWS Global Acceleratorでアクセラレータをプロビジョニングします。提供されたIPアドレスをS3バケットに関連付けます。Route 53エントリを編集して、アクセラレータのIPアドレスを指すようにします。 C. Add an Amazon CloudFront distribution in front of the S3 bucket. Edit the Route 53 entries to point to the CloudFront distribution.S3バケットの前にAmazon CloudFrontディストリビューションを追加します。Route 53エントリを編集して、CloudFrontディストリビューションを指すようにします。 D. Enable S3 Transfer Acceleration on the bucket. Edit the Route 53 entries to point to the new endpoint.バケットでS3 Transfer Accelerationを有効にします。Route 53エントリを編集して、新しいエンドポイントを指すようにします。 正解はCです。Amazon CloudFrontは、コンテンツ配信ネットワーク(CDN)サービスであり、ユーザーに近いエッジロケーションからコンテンツを配信することで、レイテンシを削減します。これにより、世界中のユーザーに対して高速なアクセスを提供できます。 他の選択肢の誤り:A. S3バケットをすべてのAWSリージョンに複製し、Route 53の地理的位置に基づくルーティングを追加することは、コストが高く、管理が複雑になります。B. AWS Global Acceleratorを使用してアクセラレータをプロビジョニングし、S3バケットに関連付けることは、CloudFrontに比べてコストが高くなります。D. S3 Transfer Accelerationを有効にすることは、CloudFrontに比べてレイテンシ削減効果が低く、コスト効率も劣ります。 39 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 39. A company maintains a searchable repository of items on its website. The data is stored in an Amazon RDS for MySQL database table that contains more than 10 million rows. The database has 2 TB of General Purpose SSD storage. There are millions of updates against this data every day through the company’s website. The company has noticed that some insert operations are taking 10 seconds or longer. The company has determined that the database storage performance is the problem. Which solution addresses this performance issue?ある会社は、そのウェブサイト上に検索可能なアイテムのリポジトリを維持しています。データは、1000万行以上を含むAmazon RDS for MySQLデータベーステーブルに保存されています。データベースには2TBの汎用SSDストレージがあります。会社のウェブサイトを通じて、毎日数百万の更新がこのデータに対して行われています。会社は、いくつかの挿入操作に10秒以上かかっていることに気づきました。会社は、データベースストレージのパフォーマンスが問題であると判断しました。このパフォーマンス問題に対処する解決策はどれですか? A. Change the storage type to Provisioned IOPS SSD.ストレージタイプをProvisioned IOPS SSDに変更する。 B. Change the DB instance to a memory optimized instance class.DBインスタンスをメモリ最適化インスタンスクラスに変更する。 C. Change the DB instance to a burstable performance instance class.DBインスタンスをバースト可能なパフォーマンスインスタンスクラスに変更する。 D. Enable Multi-AZ RDS read replicas with MySQL native asynchronous replication.MySQLネイティブの非同期レプリケーションを使用してMulti-AZ RDSリードレプリカを有効にする。 正解はAです。Provisioned IOPS SSDにストレージタイプを変更することで、データベースのI/Oパフォーマンスを向上させることができます。これは、高頻度の更新操作に対して特に有効です。Bのメモリ最適化インスタンスクラスへの変更は、メモリ関連のパフォーマンス問題には有効ですが、このケースではストレージのパフォーマンスが問題です。Cのバースト可能なパフォーマンスインスタンスクラスへの変更は、一時的なパフォーマンスの向上には役立ちますが、持続的な高パフォーマンスは保証されません。DのMySQLネイティブの非同期レプリケーションを使用したMulti-AZ RDSリードレプリカの有効化は、読み取りパフォーマンスの向上には役立ちますが、書き込みパフォーマンスの問題には直接的な解決策ではありません。 40 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 40. A company has thousands of edge devices that collectively generate 1 TB of status alerts each day. Each alert is approximately 2 KB in size.A solutions architect needs to implement a solution to ingest and store the alerts for future analysis.The company wants a highly available solution. However, the company needs to minimize costs and does not want to manage additional infrastructure. Additionally, the company wants to keep 14 days of data available for immediate analysis and archive any data older than 14 days.What is the MOST operationally efficient solution that meets these requirements?ある会社には、数千台のエッジデバイスがあり、それらが毎日合計1TBのステータスアラートを生成します。各アラートは約2KBのサイズです。ソリューションアーキテクトは、将来の分析のためにアラートを取り込み、保存するソリューションを実装する必要があります。会社は高可用性のソリューションを望んでいます。しかし、会社はコストを最小限に抑え、追加のインフラストラクチャを管理したくありません。さらに、会社は14日間のデータを即座に分析できるように保持し、14日を超えるデータをアーカイブしたいと考えています。これらの要件を満たす最も運用効率の良いソリューションは何ですか? A. Create an Amazon Kinesis Data Firehose delivery stream to ingest the alerts. Configure the Kinesis Data Firehose stream to deliver the alerts to an Amazon S3 bucket. Set up an S3 Lifecycle configuration to transition data to Amazon S3 Glacier after 14 days.Amazon Kinesis Data Firehose配信ストリームを作成してアラートを取り込みます。Kinesis Data Firehoseストリームを設定して、アラートをAmazon S3バケットに配信します。S3ライフサイクル設定を設定して、14日後にデータをAmazon S3 Glacierに移行します。 B. Launch Amazon EC2 instances across two Availability Zones and place them behind an Elastic Load Balancer to ingest the alerts. Create a script on the EC2 instances that will store the alerts in an Amazon S3 bucket. Set up an S3 Lifecycle configuration to transition data to Amazon S3 Glacier after 14 days.2つのアベイラビリティゾーンにまたがるAmazon EC2インスタンスを起動し、Elastic Load Balancerの背後に配置してアラートを取り込みます。EC2インスタンス上にスクリプトを作成し、アラートをAmazon S3バケットに保存します。S3ライフサイクル設定を設定して、14日後にデータをAmazon S3 Glacierに移行します。 C. Create an Amazon Kinesis Data Firehose delivery stream to ingest the alerts. Configure the Kinesis Data Firehose stream to deliver the alerts to an Amazon OpenSearch Service (Amazon Elasticsearch Service) cluster. Set up the Amazon OpenSearch Service (Amazon Elasticsearch Service) cluster to take manual snapshots every day and delete data from the cluster that is older than 14 days.Amazon Kinesis Data Firehose配信ストリームを作成してアラートを取り込みます。Kinesis Data Firehoseストリームを設定して、アラートをAmazon OpenSearch Service(Amazon Elasticsearch Service)クラスターに配信します。Amazon OpenSearch Service(Amazon Elasticsearch Service)クラスターを設定して、毎日手動スナップショットを取得し、14日を超えるデータをクラスターから削除します。 D. Create an Amazon Simple Queue Service (Amazon SQS) standard queue to ingest the alerts, and set the message retention period to 14 days. Configure consumers to poll the SQS queue, check the age of the message, and analyze the message data as needed. If the message is 14 days old, the consumer should copy the message to an Amazon S3 bucket and delete the message from the SQS queue.Amazon Simple Queue Service(Amazon SQS)標準キューを作成してアラートを取り込み、メッセージの保持期間を14日に設定します。コンシューマーを設定して、SQSキューをポーリングし、メッセージの年齢を確認し、必要に応じてメッセージデータを分析します。メッセージが14日経過した場合、コンシューマーはメッセージをAmazon S3バケットにコピーし、SQSキューからメッセージを削除します。 正解はAです。Amazon Kinesis Data Firehoseを使用してアラートを取り込み、Amazon S3バケットに配信するソリューションは、高可用性を提供し、追加のインフラストラクチャを管理する必要がありません。また、S3ライフサイクル設定を使用して、14日後にデータをAmazon S3 Glacierに移行することで、コストを最小限に抑えることができます。 Bのオプションは、EC2インスタンスを管理する必要があり、追加のインフラストラクチャ管理が発生するため、要件を満たしません。 Cのオプションは、Amazon OpenSearch Serviceを使用していますが、手動スナップショットの管理が必要であり、運用効率が低下します。 Dのオプションは、Amazon SQSを使用していますが、メッセージの保持期間が14日間であり、14日を超えるデータをアーカイブするための自動化されたプロセスがありません。 41 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 41. A company’s application integrates with multiple software-as-a-service (SaaS) sources for data collection. The company runs Amazon EC2 instances to receive the data and to upload the data to an Amazon S3 bucket for analysis. The same EC2 instance that receives and uploads the data also sends a notification to the user when an upload is complete. The company has noticed slow application performance and wants to improve the performance as much as possible.どのソリューションが、最小の運用オーバーヘッドでこれらの要件を満たしますか? A. Create an Auto Scaling group so that EC2 instances can scale out. Configure an S3 event notification to send events to an Amazon Simple Notification Service (Amazon SNS) topic when the upload to the S3 bucket is complete.EC2インスタンスがスケールアウトできるようにAuto Scalingグループを作成します。S3バケットへのアップロードが完了したときにAmazon SNSトピックにイベントを送信するようにS3イベント通知を設定します。 B. Create an Amazon AppFlow flow to transfer data between each SaaS source and the S3 bucket. Configure an S3 event notification to send events to an Amazon Simple Notification Service (Amazon SNS) topic when the upload to the S3 bucket is complete.各SaaSソースとS3バケット間でデータを転送するためにAmazon AppFlowフローを作成します。S3バケットへのアップロードが完了したときにAmazon SNSトピックにイベントを送信するようにS3イベント通知を設定します。 C. Create an Amazon EventBridge (Amazon CloudWatch Events) rule for each SaaS source to send output data. Configure the S3 bucket as the rule’s target. Create a second EventBridge (Cloud Watch Events) rule to send events when the upload to the S3 bucket is complete. Configure an Amazon Simple Notification Service (Amazon SNS) topic as the second rule’s target.各SaaSソースから出力データを送信するためにAmazon EventBridge(Amazon CloudWatch Events)ルールを作成します。S3バケットをルールのターゲットとして設定します。S3バケットへのアップロードが完了したときにイベントを送信するために2番目のEventBridge(CloudWatch Events)ルールを作成します。2番目のルールのターゲットとしてAmazon SNSトピックを設定します。 D. Create a Docker container to use instead of an EC2 instance. Host the containerized application on Amazon Elastic Container Service (Amazon ECS). Configure Amazon CloudWatch Container Insights to send events to an Amazon Simple Notification Service (Amazon SNS) topic when the upload to the S3 bucket is complete.EC2インスタンスの代わりに使用するDockerコンテナを作成します。コンテナ化されたアプリケーションをAmazon Elastic Container Service(Amazon ECS)でホストします。S3バケットへのアップロードが完了したときにAmazon SNSトピックにイベントを送信するようにAmazon CloudWatch Container Insightsを設定します。 正解はBです。Amazon AppFlowを使用して各SaaSソースとS3バケット間でデータを転送し、S3バケットへのアップロードが完了したときにAmazon SNSトピックにイベントを送信するようにS3イベント通知を設定することで、運用オーバーヘッドを最小限に抑えつつ、パフォーマンスを向上させることができます。 他の選択肢の誤り:A: Auto Scalingグループを作成してEC2インスタンスをスケールアウトさせることは、運用オーバーヘッドが増加する可能性があります。C: Amazon EventBridgeを使用して各SaaSソースからデータを送信し、S3バケットをルールのターゲットとして設定することは、複雑で運用オーバーヘッドが高くなります。D: Dockerコンテナを使用してAmazon ECSでホストすることは、EC2インスタンスの代わりに使用する場合、運用オーバーヘッドが増加する可能性があります。 42 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 42. A company runs a highly available image-processing application on Amazon EC2 instances in a single VPC. The EC2 instances run inside several subnets across multiple Availability Zones. The EC2 instances do not communicate with each other. However, the EC2 instances download images from Amazon S3 and upload images to Amazon S3 through a single NAT gateway. The company is concerned about data transfer charges.ある会社は、単一のVPC内のAmazon EC2インスタンス上で高可用性の画像処理アプリケーションを実行しています。EC2インスタンスは、複数のアベイラビリティーゾーンにまたがるいくつかのサブネット内で実行されています。EC2インスタンスは互いに通信しません。ただし、EC2インスタンスはAmazon S3から画像をダウンロードし、単一のNATゲートウェイを介してAmazon S3に画像をアップロードします。同社はデータ転送料金を懸念しています。 A. Launch the NAT gateway in each Availability Zone.各アベイラビリティーゾーンにNATゲートウェイを起動する。 B. Replace the NAT gateway with a NAT instance.NATゲートウェイをNATインスタンスに置き換える。 C. Deploy a gateway VPC endpoint for Amazon S3.Amazon S3のゲートウェイVPCエンドポイントをデプロイする。 D. Provision an EC2 Dedicated Host to run the EC2 instances.EC2インスタンスを実行するためにEC2 Dedicated Hostをプロビジョニングする。 最もコスト効率の良い方法は、Amazon S3のゲートウェイVPCエンドポイントをデプロイすることです。これにより、NATゲートウェイを介さずに直接Amazon S3にアクセスできるため、リージョン間のデータ転送料金を回避できます。他のオプションは以下の理由で適切ではありません:A. 各アベイラビリティーゾーンにNATゲートウェイを起動すると、NATゲートウェイのコストが増加し、データ転送料金も削減されません。B. NATゲートウェイをNATインスタンスに置き換えると、管理の複雑さが増し、コスト削減効果は限定的です。D. EC2 Dedicated Hostをプロビジョニングすると、インスタンスの柔軟性が低下し、コスト削減効果はありません。 43 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 43. A company has an on-premises application that generates a large amount of time-sensitive data that is backed up to Amazon S3. The application has grown and there are user complaints about internet bandwidth limitations. A solutions architect needs to design a long-term solution that allows for both timely backups to Amazon S3 and with minimal impact on internet connectivity for internal users.企業には、Amazon S3にバックアップされる大量の時間に敏感なデータを生成するオンプレミスアプリケーションがあります。アプリケーションが成長し、ユーザーからインターネット帯域幅の制限に関する苦情が寄せられています。ソリューションアーキテクトは、Amazon S3へのタイムリーなバックアップと内部ユーザーのインターネット接続への影響を最小限に抑える長期的なソリューションを設計する必要があります。 A. Establish AWS VPN connections and proxy all traffic through a VPC gateway endpoint.AWS VPN接続を確立し、すべてのトラフィックをVPCゲートウェイエンドポイントを通じてプロキシします。 B. Establish a new AWS Direct Connect connection and direct backup traffic through this new connection.新しいAWS Direct Connect接続を確立し、この新しい接続を通じてバックアップトラフィックを直接送信します。 C. Order daily AWS Snowball devices. Load the data onto the Snowball devices and return the devices to AWS each day.毎日AWS Snowballデバイスを注文し、データをSnowballデバイスにロードして、毎日デバイスをAWSに返送します。 D. Submit a support ticket through the AWS Management Console. Request the removal of S3 service limits from the account.AWS Management Consoleを通じてサポートチケットを送信し、アカウントからS3のサービス制限を解除するリクエストを送信します。 正解はBです。AWS Direct Connectを使用することで、オンプレミスのネットワークとAWSの間の専用のネットワーク接続を確立し、インターネット帯域幅の制限を回避できます。これにより、バックアップトラフィックを直接AWSに送信し、内部ユーザーのインターネット接続への影響を最小限に抑えることができます。AのVPN接続は、インターネットを介して接続するため、帯域幅の制限が依然として問題となります。CのAWS Snowballデバイスは、大量のデータを物理的に転送するためのソリューションですが、毎日デバイスを返送する必要があり、タイムリーなバックアップには適していません。Dのサポートチケットを送信してS3のサービス制限を解除するリクエストは、帯域幅の問題を解決するものではありません。 44 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 44. A company has an Amazon S3 bucket that contains critical data. The company must protect the data from accidental deletion.Which combination of steps should a solutions architect take to meet these requirements? (Choose two.)企業には重要なデータを含むAmazon S3バケットがあります。企業はデータを誤って削除されないように保護する必要があります。これらの要件を満たすために、ソリューションアーキテクトはどの組み合わせの手順を取るべきですか?(2つ選択してください) A. Enable versioning on the S3 bucket.S3バケットでバージョニングを有効にする B. Enable MFA Delete on the S3 bucket.S3バケットでMFA Deleteを有効にする C. Create a bucket policy on the S3 bucket.S3バケットにバケットポリシーを作成する D. Enable default encryption on the S3 bucket.S3バケットでデフォルトの暗号化を有効にする E. Create a lifecycle policy for the objects in the S3 bucket.S3バケット内のオブジェクトのライフサイクルポリシーを作成する 正解はAとBです。A. S3バケットでバージョニングを有効にすると、誤って削除された場合でも以前のバージョンに戻すことができます。B. S3バケットでMFA Deleteを有効にすると、削除操作に多要素認証が必要となり、誤った削除を防ぐことができます。C. バケットポリシーを作成することは、アクセス制御には役立ちますが、誤った削除を防ぐことはできません。D. デフォルトの暗号化を有効にすることは、データのセキュリティを向上させますが、誤った削除を防ぐことはできません。E. ライフサイクルポリシーを作成することは、オブジェクトのライフサイクル管理には役立ちますが、誤った削除を防ぐことはできません。 確認 45 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 45. A company has a data ingestion workflow that consists of the following:• An Amazon Simple Notification Service (Amazon SNS) topic for notifications about new data deliveries• An AWS Lambda function to process the data and record metadataThe company observes that the ingestion workflow fails occasionally because of network connectivity issues. When such a failure occurs, the Lambda function does not ingest the corresponding data unless the company manually reruns the job.Which combination of actions should a solutions architect take to ensure that the Lambda function ingests all data in the future? (Choose two.) ある会社には、以下のようなデータ取り込みワークフローがあります:• 新しいデータ配信に関する通知のためのAmazon Simple Notification Service(Amazon SNS)トピック• データを処理し、メタデータを記録するためのAWS Lambda関数この会社は、ネットワーク接続の問題により、取り込みワークフローが時々失敗することを観察しています。このような失敗が発生すると、Lambda関数は対応するデータを取り込まず、会社が手動でジョブを再実行するまで取り込みません。ソリューションアーキテクトは、Lambda関数が将来すべてのデータを取り込むことを保証するために、どの組み合わせのアクションを取るべきですか?(2つ選択してください) A. Deploy the Lambda function in multiple Availability Zones.Lambda関数を複数のアベイラビリティゾーンにデプロイします。 B. Create an Amazon Simple Queue Service (Amazon SQS) queue, and subscribe it to the SNS topic.Amazon Simple Queue Service(Amazon SQS)キューを作成し、それをSNSトピックにサブスクライブします。 C. Increase the CPU and memory that are allocated to the Lambda function.Lambda関数に割り当てられたCPUとメモリを増やします。 D. Increase provisioned throughput for the Lambda function.Lambda関数のプロビジョニングされたスループットを増やします。 E. Modify the Lambda function to read from an Amazon Simple Queue Service (Amazon SQS) queue.Lambda関数を変更して、Amazon Simple Queue Service(Amazon SQS)キューから読み取るようにします。 正解はBとEです。B. Amazon Simple Queue Service(Amazon SQS)キューを作成し、それをSNSトピックにサブスクライブします。E. Lambda関数を変更して、Amazon Simple Queue Service(Amazon SQS)キューから読み取るようにします。 他の選択肢が誤っている理由:A. Lambda関数を複数のアベイラビリティゾーンにデプロイすることは、ネットワーク接続の問題を解決しません。C. Lambda関数に割り当てられたCPUとメモリを増やすことは、ネットワーク接続の問題を解決しません。D. Lambda関数のプロビジョニングされたスループットを増やすことは、ネットワーク接続の問題を解決しません。 確認 46 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 46. A company has an application that provides marketing services to stores. The services are based on previous purchases by store customers.ストアにマーケティングサービスを提供するアプリケーションを持つ会社があります。サービスは、ストアの顧客による過去の購入に基づいています。 A. Use an Amazon S3 bucket as a secure transfer point. Use Amazon Inspector to scan the objects in the bucket. If objects contain PII, trigger an S3 Lifecycle policy to remove the objects that contain PII.Amazon S3バケットを安全な転送ポイントとして使用します。Amazon Inspectorを使用してバケット内のオブジェクトをスキャンします。オブジェクトにPIIが含まれている場合、S3ライフサイクルポリシーをトリガーしてPIIを含むオブジェクトを削除します。 B. Use an Amazon S3 bucket as a secure transfer point. Use Amazon Macie to scan the objects in the bucket. If objects contain PII, use Amazon Simple Notification Service (Amazon SNS) to trigger a notification to the administrators to remove the objects that contain PII.Amazon S3バケットを安全な転送ポイントとして使用します。Amazon Macieを使用してバケット内のオブジェクトをスキャンします。オブジェクトにPIIが含まれている場合、Amazon Simple Notification Service (Amazon SNS)を使用して管理者に通知をトリガーし、PIIを含むオブジェクトを削除します。 C. Implement custom scanning algorithms in an AWS Lambda function. Trigger the function when objects are loaded into the bucket. If objects contain PII, use Amazon Simple Notification Service (Amazon SNS) to trigger a notification to the administrators to remove the objects that contain PII.AWS Lambda関数にカスタムスキャンアルゴリズムを実装します。オブジェクトがバケットにロードされたときに関数をトリガーします。オブジェクトにPIIが含まれている場合、Amazon Simple Notification Service (Amazon SNS)を使用して管理者に通知をトリガーし、PIIを含むオブジェクトを削除します。 D. Implement custom scanning algorithms in an AWS Lambda function. Trigger the function when objects are loaded into the bucket. If objects contain PII, use Amazon Simple Email Service (Amazon SES) to trigger a notification to the administrators and trigger an S3 Lifecycle policy to remove the meats that contain PII.AWS Lambda関数にカスタムスキャンアルゴリズムを実装します。オブジェクトがバケットにロードされたときに関数をトリガーします。オブジェクトにPIIが含まれている場合、Amazon Simple Email Service (Amazon SES)を使用して管理者に通知をトリガーし、S3ライフサイクルポリシーをトリガーしてPIIを含むオブジェクトを削除します。 正解はBです。Amazon S3バケットを安全な転送ポイントとして使用し、Amazon Macieを使用してバケット内のオブジェクトをスキャンします。オブジェクトにPIIが含まれている場合、Amazon Simple Notification Service (Amazon SNS)を使用して管理者に通知をトリガーし、PIIを含むオブジェクトを削除します。 他の選択肢の誤り:A: Amazon Inspectorはセキュリティの脆弱性をスキャンするためのもので、PIIの検出には適していません。C: カスタムスキャンアルゴリズムを実装するのは開発コストが高く、最小限の開発努力で要件を満たすことができません。D: Amazon SESを使用して通知を送信するのは適切ですが、S3ライフサイクルポリシーを使用してオブジェクトを削除するのは、PIIを含むオブジェクトを自動的に削除するための最適な方法ではありません。 47 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 47. A company needs guaranteed Amazon EC2 capacity in three specific Availability Zones in a specific AWS Region for an upcoming event that will last 1 week.What should the company do to guarantee the EC2 capacity?ある企業が、特定のAWSリージョン内の3つの特定のアベイラビリティーゾーンで、1週間続く予定のイベントのためにAmazon EC2の容量を保証する必要があります。EC2の容量を保証するために、企業は何をすべきですか? A. Purchase Reserved Instances that specify the Region needed.必要なリージョンを指定したReserved Instancesを購入する。 B. Create an On-Demand Capacity Reservation that specifies the Region needed.必要なリージョンを指定したOn-Demand Capacity Reservationを作成する。 C. Purchase Reserved Instances that specify the Region and three Availability Zones needed.必要なリージョンと3つのアベイラビリティーゾーンを指定したReserved Instancesを購入する。 D. Create an On-Demand Capacity Reservation that specifies the Region and three Availability Zones needed.必要なリージョンと3つのアベイラビリティーゾーンを指定したOn-Demand Capacity Reservationを作成する。 正解はDです。On-Demand Capacity Reservationを使用することで、特定のリージョンと3つのアベイラビリティーゾーンでEC2の容量を保証することができます。A. 必要なリージョンを指定したReserved Instancesを購入することは、特定のアベイラビリティーゾーンを保証しません。B. 必要なリージョンを指定したOn-Demand Capacity Reservationを作成することは、特定のアベイラビリティーゾーンを保証しません。C. 必要なリージョンと3つのアベイラビリティーゾーンを指定したReserved Instancesを購入することは、容量を保証しません。 48 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 48. A company’s website uses an Amazon EC2 instance store for its catalog of items. The company wants to make sure that the catalog is highly available and that the catalog is stored in a durable location.会社のウェブサイトは、商品カタログにAmazon EC2インスタンスストアを使用しています。会社は、カタログが高可用性であり、耐久性のある場所に保存されていることを確認したいと考えています。 A. Move the catalog to Amazon ElastiCache for Redis.カタログをAmazon ElastiCache for Redisに移動する。 B. Deploy a larger EC2 instance with a larger instance store.より大きなインスタンスストアを持つより大きなEC2インスタンスをデプロイする。 C. Move the catalog from the instance store to Amazon S3 Glacier Deep Archive.カタログをインスタンスストアからAmazon S3 Glacier Deep Archiveに移動する。 D. Move the catalog to an Amazon Elastic File System (Amazon EFS) file system.カタログをAmazon Elastic File System (Amazon EFS) ファイルシステムに移動する。 正解はDです。Amazon Elastic File System (Amazon EFS) は、高可用性と耐久性を提供するため、カタログの保存に適しています。A. Amazon ElastiCache for Redisは、キャッシュ用であり、耐久性のあるストレージとしては適していません。B. より大きなEC2インスタンスとインスタンスストアをデプロイしても、高可用性と耐久性の問題は解決されません。C. Amazon S3 Glacier Deep Archiveは、長期保存用であり、頻繁にアクセスするカタログには適していません。 49 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 49. A company stores call transcript files on a monthly basis. Users access the files randomly within 1 year of the call, but users access the files infrequently after 1 year. The company wants to optimize its solution by giving users the ability to query and retrieve files that are less than 1 year-old as quickly as possible. A delay in retrieving older files is acceptable.どのソリューションがこれらの要件を最もコスト効率的に満たすでしょうか? A. Store individual files with tags in Amazon S3 Glacier Instant Retrieval. Query the tags to retrieve the files from S3 Glacier Instant Retrieval.タグ付きの個別ファイルをAmazon S3 Glacier Instant Retrievalに保存します。タグをクエリして、S3 Glacier Instant Retrievalからファイルを取得します。 B. Store individual files in Amazon S3 Intelligent-Tiering. Use S3 Lifecycle policies to move the files to S3 Glacier Flexible Retrieval after 1 year. Query and retrieve the files that are in Amazon S3 by using Amazon Athena. Query and retrieve the files that are in S3 Glacier by using S3 Glacier Select.個別ファイルをAmazon S3 Intelligent-Tieringに保存します。1年後にS3 Lifecycleポリシーを使用してファイルをS3 Glacier Flexible Retrievalに移動します。Amazon Athenaを使用してAmazon S3内のファイルをクエリおよび取得します。S3 Glacier Selectを使用してS3 Glacier内のファイルをクエリおよび取得します。 C. Store individual files with tags in Amazon S3 Standard storage. Store search metadata for each archive in Amazon S3 Standard storage. Use S3 Lifecycle policies to move the files to S3 Glacier Instant Retrieval after 1 year. Query and retrieve the files by searching for metadata from Amazon S3.タグ付きの個別ファイルをAmazon S3 Standard storageに保存します。各アーカイブの検索メタデータをAmazon S3 Standard storageに保存します。1年後にS3 Lifecycleポリシーを使用してファイルをS3 Glacier Instant Retrievalに移動します。Amazon S3からメタデータを検索してファイルをクエリおよび取得します。 D. Store individual files in Amazon S3 Standard storage. Use S3 Lifecycle policies to move the files to S3 Glacier Deep Archive after 1 year. Store search metadata in Amazon RDS. Query the files from Amazon RDS. Retrieve the files from S3 Glacier Deep Archive.個別ファイルをAmazon S3 Standard storageに保存します。1年後にS3 Lifecycleポリシーを使用してファイルをS3 Glacier Deep Archiveに移動します。検索メタデータをAmazon RDSに保存します。Amazon RDSからファイルをクエリします。S3 Glacier Deep Archiveからファイルを取得します。 正解はBです。Amazon S3 Intelligent-Tieringは、アクセスパターンに基づいて自動的にストレージクラスを最適化するため、1年以内のファイルに迅速にアクセスできるようにします。1年を超えるファイルはS3 Glacier Flexible Retrievalに移動され、コストを削減します。他の選択肢の誤り:A: S3 Glacier Instant Retrievalは、迅速なアクセスを提供しますが、コストが高くなります。C: S3 Standard storageは、1年以内のファイルに迅速にアクセスできますが、1年を超えるファイルをS3 Glacier Instant Retrievalに移動すると、コストが高くなります。D: S3 Glacier Deep Archiveは、非常に低コストですが、ファイルの取得に時間がかかります。 50 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 50. A company has a production workload that runs on 1,000 Amazon EC2 Linux instances. The workload is powered by third-party software. The company needs to patch the third-party software on all EC2 instances as quickly as possible to remediate a critical security vulnerability. What should a solutions architect do to meet these requirements?ある会社は、1,000台のAmazon EC2 Linuxインスタンスで実行されている本番ワークロードを持っています。このワークロードはサードパーティのソフトウェアによって動いています。会社は、重要なセキュリティ脆弱性を修正するために、すべてのEC2インスタンス上のサードパーティソフトウェアをできるだけ早くパッチ適用する必要があります。ソリューションアーキテクトは、これらの要件を満たすために何をすべきですか? A. Create an AWS Lambda function to apply the patch to all EC2 instances.AWS Lambda関数を作成して、すべてのEC2インスタンスにパッチを適用します。 B. Configure AWS Systems Manager Patch Manager to apply the patch to all EC2 instances.AWS Systems Manager Patch Managerを設定して、すべてのEC2インスタンスにパッチを適用します。 C. Schedule an AWS Systems Manager maintenance window to apply the patch to all EC2 instances.AWS Systems Managerメンテナンスウィンドウをスケジュールして、すべてのEC2インスタンスにパッチを適用します。 D. Use AWS Systems Manager Run Command to run a custom command that applies the patch to all EC2 instances.AWS Systems Manager Run Commandを使用して、すべてのEC2インスタンスにパッチを適用するカスタムコマンドを実行します。 正解はDです。AWS Systems Manager Run Commandを使用して、すべてのEC2インスタンスにパッチを適用するカスタムコマンドを実行することが、迅速かつ効率的な方法です。他の選択肢について:A. AWS Lambda関数を作成してすべてのEC2インスタンスにパッチを適用することは、Lambdaが直接EC2インスタンスを管理するためのツールではないため、適切ではありません。B. AWS Systems Manager Patch Managerを設定してすべてのEC2インスタンスにパッチを適用することは、Patch Managerが主にオペレーティングシステムのパッチ管理に使用されるため、サードパーティソフトウェアのパッチ適用には適していません。C. AWS Systems ManagerメンテナンスウィンドウをスケジュールしてすべてのEC2インスタンスにパッチを適用することは、時間がかかる可能性があり、迅速な対応が必要なセキュリティ脆弱性の修正には適していません。 51 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 51. A company is developing an application that provides order shipping statistics for retrieval by a REST API. The company wants to extract the shipping statistics, organize the data into an easy-to-read HTML format, and send the report to several email addresses at the same time every morning.企業は、REST APIで取得できる注文出荷統計を提供するアプリケーションを開発しています。企業は、出荷統計を抽出し、データを読みやすいHTML形式に整理し、毎朝同時に複数のメールアドレスにレポートを送信したいと考えています。 A. Configure the application to send the data to Amazon Kinesis Data Firehose.アプリケーションを設定して、データをAmazon Kinesis Data Firehoseに送信します。 B. Use Amazon Simple Email Service (Amazon SES) to format the data and to send the report by email.Amazon Simple Email Service (Amazon SES)を使用して、データをフォーマットし、メールでレポートを送信します。 C. Create an Amazon EventBridge (Amazon CloudWatch Events) scheduled event that invokes an AWS Glue job to query the application’s API for the data.Amazon EventBridge (Amazon CloudWatch Events)のスケジュールされたイベントを作成し、AWS Glueジョブを呼び出して、アプリケーションのAPIからデータをクエリします。 D. Create an Amazon EventBridge (Amazon CloudWatch Events) scheduled event that invokes an AWS Lambda function to query the application’s API for the data.Amazon EventBridge (Amazon CloudWatch Events)のスケジュールされたイベントを作成し、AWS Lambda関数を呼び出して、アプリケーションのAPIからデータをクエリします。 E. Store the application data in Amazon S3. Create an Amazon Simple Notification Service (Amazon SNS) topic as an S3 event destination to send the report by email.アプリケーションデータをAmazon S3に保存します。Amazon Simple Notification Service (Amazon SNS)トピックをS3イベントの宛先として作成し、メールでレポートを送信します。 正解はBとDです。B: Amazon Simple Email Service (Amazon SES)を使用して、データをフォーマットし、メールでレポートを送信します。これは、HTML形式のレポートをメールで送信するための適切なサービスです。D: Amazon EventBridge (Amazon CloudWatch Events)のスケジュールされたイベントを作成し、AWS Lambda関数を呼び出して、アプリケーションのAPIからデータをクエリします。これにより、毎朝自動的にデータを取得し、処理することができます。 他のオプションの誤り:A: Amazon Kinesis Data Firehoseは、データをリアルタイムでストリーミグするためのサービスであり、この要件には適していません。C: AWS Glueジョブを使用してデータをクエリすることは可能ですが、Lambda関数の方が軽量で、このようなタスクには適しています。E: Amazon S3にデータを保存し、Amazon SNSトピックを使用してメールを送信することは、データのフォーマットとメール送信のプロセスが複雑になるため、適していません。 確認 52 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 52. A company wants to migrate its on-premises application to AWS. The application produces output files that vary in size from tens of gigabytes to hundreds of terabytes. The application data must be stored in a standard file system structure. The company wants a solution that scales automatically, is highly available, and requires minimum operational overhead.Which solution will meet these requirements?ある企業がオンプレミスのアプリケーションをAWSに移行したいと考えています。アプリケーションは数十ギガバイトから数百テラバイトのサイズの出力ファイルを生成します。アプリケーションデータは標準的なファイルシステム構造で保存する必要があります。企業は自動的にスケールし、高可用性があり、運用オーバーヘッドが最小限のソリューションを求めています。どのソリューションがこれらの要件を満たしますか? A. Migrate the application to run as containers on Amazon Elastic Container Service (Amazon ECS). Use Amazon S3 for storage.アプリケーションをAmazon Elastic Container Service (Amazon ECS) 上でコンテナとして実行するように移行します。ストレージにはAmazon S3を使用します。 B. Migrate the application to run as containers on Amazon Elastic Kubernetes Service (Amazon EKS). Use Amazon Elastic Block Store (Amazon EBS) for storage.アプリケーションをAmazon Elastic Kubernetes Service (Amazon EKS) 上でコンテナとして実行するように移行します。ストレージにはAmazon Elastic Block Store (Amazon EBS) を使用します。 C. Migrate the application to Amazon EC2 instances in a Multi-AZ Auto Scaling group. Use Amazon Elastic File System (Amazon EFS) for storage.アプリケーションをMulti-AZ Auto ScalingグループのAmazon EC2インスタンスに移行します。ストレージにはAmazon Elastic File System (Amazon EFS) を使用します。 D. Migrate the application to Amazon EC2 instances in a Multi-AZ Auto Scaling group. Use Amazon Elastic Block Store (Amazon EBS) for storage.アプリケーションをMulti-AZ Auto ScalingグループのAmazon EC2インスタンスに移行します。ストレージにはAmazon Elastic Block Store (Amazon EBS) を使用します。 正解はCです。Amazon EC2インスタンスをMulti-AZ Auto Scalingグループで実行し、Amazon Elastic File System (Amazon EFS) をストレージとして使用することで、自動スケーリング、高可用性、最小限の運用オーバーヘッドを実現できます。AのAmazon ECSとAmazon S3の組み合わせは、ファイルシステム構造をサポートしていないため、要件を満たしません。BのAmazon EKSとAmazon EBSの組み合わせは、EBSが単一のAZに制限されるため、高可用性を実現できません。DのAmazon EC2とAmazon EBSの組み合わせも、EBSが単一のAZに制限されるため、高可用性を実現できません。 53 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 53. A company needs to store its accounting records in Amazon S3. The records must be immediately accessible for 1 year and then must be archived for an additional 9 years. No one at the company, including administrative users and root users, can be able to delete the records during the entire 10-year period. The records must be stored with maximum resiliency.会社は会計記録をAmazon S3に保存する必要があります。記録は1年間はすぐにアクセス可能で、その後さらに9年間アーカイブされる必要があります。会社の誰も、管理者ユーザーやルートユーザーを含めて、10年間の全期間中に記録を削除できないようにする必要があります。記録は最大の回復力で保存される必要があります。 A. Store the records in S3 Glacier for the entire 10-year period. Use an access control policy to deny deletion of the records for a period of 10 years.10年間の全期間中にS3 Glacierに記録を保存します。10年間の記録の削除を拒否するアクセス制御ポリシーを使用します。 B. Store the records by using S3 Intelligent-Tiering. Use an IAM policy to deny deletion of the records. After 10 years, change the IAM policy to allow deletion.S3 Intelligent-Tieringを使用して記録を保存します。IAMポリシーを使用して記録の削除を拒否します。10年後、IAMポリシーを変更して削除を許可します。 C. Use an S3 Lifecycle policy to transition the records from S3 Standard to S3 Glacier Deep Archive after 1 year. Use S3 Object Lock in compliance mode for a period of 10 years.S3ライフサイクルポリシーを使用して、1年後にS3 StandardからS3 Glacier Deep Archiveに記録を移行します。10年間のS3 Object Lockをコンプライアンスモードで使用します。 D. Use an S3 Lifecycle policy to transition the records from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) after 1 year. Use S3 Object Lock in governance mode for a period of 10 years.S3ライフサイクルポリシーを使用して、1年後にS3 StandardからS3 One Zone-Infrequent Access (S3 One Zone-IA)に記録を移行します。10年間のS3 Object Lockをガバナンスモードで使用します。 正解はCです。S3ライフサイクルポリシーを使用して、1年後にS3 StandardからS3 Glacier Deep Archiveに記録を移行し、S3 Object Lockをコンプライアンスモードで10年間使用することで、記録の削除を防ぎ、最大の回復力を確保します。 他の選択肢の誤り:A: S3 Glacierは即時アクセスを提供しないため、1年間の即時アクセス要件を満たしません。B: S3 Intelligent-Tieringは、10年間の削除防止を保証するものではありません。D: S3 One Zone-IAは、最大の回復力を提供しないため、要件を満たしません。 54 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 54. A company runs multiple Windows workloads on AWS. The company’s employees use Windows file shares that are hosted on two Amazon EC2 instances. The file shares synchronize data between themselves and maintain duplicate copies. The company wants a highly available and durable storage solution that preserves how users currently access the files.AWSで複数のWindowsワークロードを実行している会社があります。同社の従業員は、2つのAmazon EC2インスタンスでホストされているWindowsファイル共有を使用しています。ファイル共有はデータを同期し、重複したコピーを保持します。同社は、ユーザーが現在ファイルにアクセスする方法を維持しながら、高可用性で耐久性のあるストレージソリューションを求めています。 A. Migrate all the data to Amazon S3. Set up IAM authentication for users to access files.すべてのデータをAmazon S3に移行します。ユーザーがファイルにアクセスするためにIAM認証を設定します。 B. Set up an Amazon S3 File Gateway. Mount the S3 File Gateway on the existing EC2 instances.Amazon S3 File Gatewayを設定します。既存のEC2インスタンスにS3 File Gatewayをマウントします。 C. Extend the file share environment to Amazon FSx for Windows File Server with a Multi-AZ configuration. Migrate all the data to FSx for Windows File Server.ファイル共有環境をAmazon FSx for Windows File Serverに拡張し、Multi-AZ構成を使用します。すべてのデータをFSx for Windows File Serverに移行します。 D. Extend the file share environment to Amazon Elastic File System (Amazon EFS) with a Multi-AZ configuration. Migrate all the data to Amazon EFS.ファイル共有環境をAmazon Elastic File System (Amazon EFS)に拡張し、Multi-AZ構成を使用します。すべてのデータをAmazon EFSに移行します。 正解はCです。Amazon FSx for Windows File Serverは、Windowsファイルサーバーとの完全な互換性を提供し、Multi-AZ構成を使用することで高可用性と耐久性を実現します。これにより、ユーザーは現在のアクセス方法を変更することなく、ファイルにアクセスできます。Aは誤りです。Amazon S3はオブジェクトストレージであり、Windowsファイル共有の直接的な代替としては適していません。IAM認証を設定しても、ユーザーが現在使用しているファイル共有の方法を維持することはできません。Bは誤りです。Amazon S3 File Gatewayは、オンプレミスのファイル共有とS3の間のブリッジとして機能しますが、高可用性と耐久性を提供するために設計されていません。Dは誤りです。Amazon EFSはLinuxベースのファイルシステムであり、Windowsファイルサーバーとの完全な互換性を提供しません。 55 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 55. A solutions architect is developing a VPC architecture that includes multiple subnets. The architecture will host applications that use Amazon EC2 instances and Amazon RDS DB instances. The architecture consists of six subnets in two Availability Zones. Each Availability Zone includes a public subnet, a private subnet, and a dedicated subnet for databases. Only EC2 instances that run in the private subnets can have access to the RDS databases.どのソリューションがこれらの要件を満たしますか? A. Create a new route table that excludes the route to the public subnets’ CIDR blocks. Associate the route table with the database subnets.パブリックサブネットのCIDRブロックへのルートを除外する新しいルートテーブルを作成し、それをデータベースサブネットに関連付けます。 B. Create a security group that denies inbound traffic from the security group that is assigned to instances in the public subnets. Attach the security group to the DB instances.パブリックサブネット内のインスタンスに割り当てられたセキュリティグループからのインバウンドトラフィックを拒否するセキュリティグループを作成し、それをDBインスタンスにアタッチします。 C. Create a security group that allows inbound traffic from the security group that is assigned to instances in the private subnets. Attach the security group to the DB instances.プライベートサブネット内のインスタンスに割り当てられたセキュリティグループからのインバウンドトラフィックを許可するセキュリティグループを作成し、それをDBインスタンスにアタッチします。 D. Create a new peering connection between the public subnets and the private subnets. Create a different peering connection between the private subnets and the database subnets.パブリックサブネットとプライベートサブネットの間に新しいピアリング接続を作成し、プライベートサブネットとデータベースサブネットの間に別のピアリング接続を作成します。 正解はCです。プライベートサブネット内のインスタンスに割り当てられたセキュリティグループからのインバウンドトラフィックを許可するセキュリティグループを作成し、それをDBインスタンスにアタッチすることで、プライベートサブネット内のEC2インスタンスのみがRDSデータベースにアクセスできるようになります。 他の選択肢の誤り:A: パブリックサブネットのCIDRブロックへのルートを除外する新しいルートテーブルを作成し、それをデータベースサブネットに関連付けることは、プライベートサブネットからのアクセスを制限するものではありません。B: パブリックサブネット内のインスタンスに割り当てられたセキュリティグループからのインバウンドトラフィックを拒否するセキュリティグループを作成し、それをDBインスタンスにアタッチすることは、プライベートサブネットからのアクセスを許可するものではありません。D: パブリックサブネットとプライベートサブネットの間に新しいピアリング接続を作成し、プライベートサブネットとデータベースサブネットの間に別のピアリング接続を作成することは、セキュリティグループを使用してアクセスを制御するよりも複雑で、要件を満たしません。 56 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 56. A company has registered its domain name with Amazon Route 53. The company uses Amazon API Gateway in the ca-central-1 Region as a public interface for its backend microservice APIs. Third-party services consume the APIs securely. The company wants to design its API Gateway URL with the company’s domain name and corresponding certificate so that the third-party services can use HTTPS.ある会社がAmazon Route 53にドメイン名を登録しました。この会社は、バックエンドのマイクロサービスAPIの公開インターフェースとして、ca-central-1リージョンのAmazon API Gatewayを使用しています。サードパーティサービスはAPIを安全に利用しています。会社は、サードパーティサービスがHTTPSを使用できるように、会社のドメイン名と対応する証明書を使用してAPI GatewayのURLを設計したいと考えています。 A. Create stage variables in API Gateway with Name=”Endpoint-URL” and Value=”Company Domain Name” to overwrite the default URL. Import the public certificate associated with the company’s domain name into AWS Certificate Manager (ACM).API Gatewayでステージ変数を作成し、Name=”Endpoint-URL”とValue=”Company Domain Name”を設定してデフォルトのURLを上書きします。会社のドメイン名に関連付けられた公開証明書をAWS Certificate Manager (ACM)にインポートします。 B. Create Route 53 DNS records with the company’s domain name. Point the alias record to the Regional API Gateway stage endpoint. Import the public certificate associated with the company’s domain name into AWS Certificate Manager (ACM) in the us-east-1 Region.会社のドメイン名を使用してRoute 53 DNSレコードを作成します。エイリアスレコードをリージョナルAPI Gatewayステージエンドポイントにポイントします。会社のドメイン名に関連付けられた公開証明書をus-east-1リージョンのAWS Certificate Manager (ACM)にインポートします。 C. Create a Regional API Gateway endpoint. Associate the API Gateway endpoint with the company’s domain name. Import the public certificate associated with the company’s domain name into AWS Certificate Manager (ACM) in the same Region. Attach the certificate to the API Gateway endpoint. Configure Route 53 to route traffic to the API Gateway endpoint.リージョナルAPI Gatewayエンドポイントを作成します。API Gatewayエンドポイントを会社のドメイン名と関連付けます。会社のドメイン名に関連付けられた公開証明書を同じリージョンのAWS Certificate Manager (ACM)にインポートします。証明書をAPI Gatewayエンドポイントに添付します。Route 53を設定してトラフィックをAPI Gatewayエンドポイントにルーティングします。 D. Create a Regional API Gateway endpoint. Associate the API Gateway endpoint with the company’s domain name. Import the public certificate associated with the company’s domain name into AWS Certificate Manager (ACM) in the us-east-1 Region. Attach the certificate to the API Gateway APIs. Create Route 53 DNS records with the company’s domain name. Point an A record to the company’s domain name.リージョナルAPI Gatewayエンドポイントを作成します。API Gatewayエンドポイントを会社のドメイン名と関連付けます。会社のドメイン名に関連付けられた公開証明書をus-east-1リージョンのAWS Certificate Manager (ACM)にインポートします。証明書をAPI Gateway APIに添付します。会社のドメイン名を使用してRoute 53 DNSレコードを作成します。Aレコードを会社のドメイン名にポイントします。 正解はCです。Cのオプションでは、リージョナルAPI Gatewayエンドポイントを作成し、会社のドメイン名と関連付けます。次に、会社のドメイン名に関連付けられた公開証明書を同じリージョンのAWS Certificate Manager (ACM)にインポートし、その証明書をAPI Gatewayエンドポイントに添付します。最後に、Route 53を設定してトラフィックをAPI Gatewayエンドポイントにルーティングします。 Aのオプションは、API Gatewayのステージ変数を使用してデフォルトのURLを上書きすることを提案していますが、これではドメイン名と証明書の関連付けが正しく行われません。 Bのオプションは、Route 53 DNSレコードを作成し、エイリアスレコードをリージョナルAPI Gatewayステージエンドポイントにポイントすることを提案していますが、証明書をus-east-1リージョンにインポートするため、リージョン間の整合性が取れません。 Dのオプションは、リージョナルAPI Gatewayエンドポイントを作成し、会社のドメイン名と関連付けますが、証明書をus-east-1リージョンにインポートするため、リージョン間の整合性が取れません。また、Aレコードを会社のドメイン名にポイントする設定も不適切です。 57 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 57. A company is running a popular social media website. The website gives users the ability to upload images to share with other users. The company wants to make sure that the images do not contain inappropriate content. The company needs a solution that minimizes development effort.ある会社が人気のあるソーシャルメディアウェブサイトを運営しています。このウェブサイトは、ユーザーが他のユーザーと共有するために画像をアップロードする機能を提供しています。会社は、画像に不適切なコンテンツが含まれていないことを確認したいと考えています。会社は、開発作業を最小限に抑えるソリューションを必要としています。 A. Use Amazon Comprehend to detect inappropriate content. Use human review for low-confidence predictions.Amazon Comprehendを使用して不適切なコンテンツを検出します。信頼度が低い予測に対しては人間のレビューを使用します。 B. Use Amazon Rekognition to detect inappropriate content. Use human review for low-confidence predictions.Amazon Rekognitionを使用して不適切なコンテンツを検出します。信頼度が低い予測に対しては人間のレビューを使用します。 C. Use Amazon SageMaker to detect inappropriate content. Use ground truth to label low-confidence predictions.Amazon SageMakerを使用して不適切なコンテンツを検出します。信頼度が低い予測に対してはグラウンドトゥルースを使用してラベル付けします。 D. Use AWS Fargate to deploy a custom machine learning model to detect inappropriate content. Use ground truth to label low-confidence predictions.AWS Fargateを使用してカスタム機械学習モデルをデプロイし、不適切なコンテンツを検出します。信頼度が低い予測に対してはグラウンドトゥルースを使用してラベル付けします。 正解はBです。Amazon Rekognitionは、画像や動画の分析に特化したサービスで、不適切なコンテンツの検出に適しています。また、信頼度が低い予測に対しては人間のレビューを使用することで、精度を高めることができます。AのAmazon Comprehendはテキスト分析に特化しており、画像の分析には適していません。CのAmazon SageMakerは機械学習モデルの構築とトレーニングに使用されますが、開発作業が増加します。DのAWS Fargateはコンテナの実行に使用されますが、カスタム機械学習モデルのデプロイには開発作業が増加します。 58 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 58. A company wants to run its critical applications in containers to meet requirements for scalability and availability. The company prefers to focus on maintenance of the critical applications. The company does not want to be responsible for provisioning and managing the underlying infrastructure that runs the containerized workload.企業は、スケーラビリティと可用性の要件を満たすために、重要なアプリケーションをコンテナで実行したいと考えています。企業は、重要なアプリケーションのメンテナンスに集中したいと考えています。企業は、コンテナ化されたワークロードを実行する基盤となるインフラストラクチャのプロビジョニングと管理を担当したくありません。 A. Use Amazon EC2 instances, and install Docker on the instances.Amazon EC2インスタンスを使用し、インスタンスにDockerをインストールします。 B. Use Amazon Elastic Container Service (Amazon ECS) on Amazon EC2 worker nodes.Amazon EC2ワーカーノード上でAmazon Elastic Container Service (Amazon ECS)を使用します。 C. Use Amazon Elastic Container Service (Amazon ECS) on AWS Fargate.AWS Fargate上でAmazon Elastic Container Service (Amazon ECS)を使用します。 D. Use Amazon EC2 instances from an Amazon Elastic Container Service (Amazon ECS)-optimized Amazon Machine Image (AMI).Amazon Elastic Container Service (Amazon ECS)に最適化されたAmazon Machine Image (AMI)からAmazon EC2インスタンスを使用します。 正解はCです。AWS Fargateを使用することで、基盤となるインフラストラクチャの管理をAWSに任せることができ、企業はアプリケーションのメンテナンスに集中できます。オプションAとDは、EC2インスタンスを使用するため、基盤となるインフラストラクチャの管理が必要です。オプションBは、ECSを使用していますが、EC2ワーカーノードを使用するため、やはり基盤となるインフラストラクチャの管理が必要です。 59 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 59. A company hosts more than 300 global websites and applications. The company requires a platform to analyze more than 30 TB of clickstream data each day.企業は300以上のグローバルなウェブサイトとアプリケーションをホストしています。企業は毎日30TB以上のクリックストリームデータを分析するためのプラットフォームを必要としています。 A. Design an AWS Data Pipeline to archive the data to an Amazon S3 bucket and run an Amazon EMR cluster with the data to generate analytics.AWS Data Pipelineを設計してデータをAmazon S3バケットにアーカイブし、Amazon EMRクラスターを実行して分析を生成します。 B. Create an Auto Scaling group of Amazon EC2 instances to process the data and send it to an Amazon S3 data lake for Amazon Redshift to use for analysis.Amazon EC2インスタンスのAuto Scalingグループを作成してデータを処理し、Amazon S3データレイクに送信してAmazon Redshiftで分析します。 C. Cache the data to Amazon CloudFront. Store the data in an Amazon S3 bucket. When an object is added to the S3 bucket. run an AWS Lambda function to process the data for analysis.データをAmazon CloudFrontにキャッシュします。データをAmazon S3バケットに保存します。S3バケットにオブジェクトが追加されたときにAWS Lambda関数を実行してデータを処理します。 D. Collect the data from Amazon Kinesis Data Streams. Use Amazon Kinesis Data Firehose to transmit the data to an Amazon S3 data lake. Load the data in Amazon Redshift for analysis.Amazon Kinesis Data Streamsからデータを収集します。Amazon Kinesis Data Firehoseを使用してデータをAmazon S3データレイクに転送します。Amazon Redshiftにデータをロードして分析します。 正解はDです。Amazon Kinesis Data Streamsを使用してデータを収集し、Amazon Kinesis Data Firehoseを使用してデータをAmazon S3データレイクに転送し、Amazon Redshiftにデータをロードして分析するのが最適な方法です。 Aのオプションは、AWS Data Pipelineを使用してデータをAmazon S3バケットにアーカイブし、Amazon EMRクラスターを実行して分析を生成する方法ですが、リアルタイム性に欠けます。 Bのオプションは、Amazon EC2インスタンスのAuto Scalingグループを作成してデータを処理し、Amazon S3データレイクに送信してAmazon Redshiftで分析する方法ですが、スケーラビリティとコスト効率が低いです。 Cのオプションは、Amazon CloudFrontにデータをキャッシュし、Amazon S3バケットにデータを保存し、S3バケットにオブジェクトが追加されたときにAWS Lambda関数を実行してデータを処理する方法ですが、リアルタイム処理には適していません。 60 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 60. A company has a website hosted on AWS. The website is behind an Application Load Balancer (ALB) that is Configured to handle HTTP and HTTPS separately. The company wants to forward all requests to the website so that the requests will use HTTPS.AWSにホストされているウェブサイトがあります。ウェブサイトは、HTTPとHTTPSを別々に処理するように設定されたアプリケーションロードバランサー(ALB)の背後にあります。会社は、すべてのリクエストをHTTPSを使用するようにウェブサイトに転送したいと考えています。 A. Update the ALB’s network ACL to accept only HTTPS traffic.ALBのネットワークACLを更新してHTTPSトラフィックのみを受け入れるようにする。 B. Create a rule that replaces the HTTP in the URL with HTTPS.URLのHTTPをHTTPSに置き換えるルールを作成する。 C. Create a listener rule on the ALB to redirect HTTP traffic to HTTPS.ALBにリスナールールを作成してHTTPトラフィックをHTTPSにリダイレクトする。 D. Replace the ALB with a Network Load Balancer Configured to use Server Name Indication (SNI).ALBをサーバーネームインジケーション(SNI)を使用するように設定されたネットワークロードバランサーに置き換える。 正解はCです。ALBにリスナールールを作成してHTTPトラフィックをHTTPSにリダイレクトすることで、すべてのリクエストがHTTPSを使用するようにすることができます。Aの選択肢は、ALBのネットワークACLを更新してHTTPSトラフィックのみを受け入れるようにすることを提案していますが、これはHTTPトラフィックをHTTPSにリダイレクトするものではありません。Bの選択肢は、URLのHTTPをHTTPSに置き換えるルールを作成することを提案していますが、これはALBのリスナールールを使用するよりも効率的ではありません。Dの選択肢は、ALBをサーバーネームインジケーション(SNI)を使用するように設定されたネットワークロードバランサーに置き換えることを提案していますが、これはHTTPトラフィックをHTTPSにリダイレクトするものではありません。 61 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 61. A company is developing a two-tier web application on AWS. The company’s developers have deployed the application on an Amazon EC2 instance that connects directly to a backend Amazon RDS database. The company must not hardcode database credentials in the application. The company must also implement a solution to automatically rotate the database credentials on a regular basis. Which solution will meet these requirements with the LEAST operational overhead?AWSで2層のウェブアプリケーションを開発している会社があります。同社の開発者は、バックエンドのAmazon RDSデータベースに直接接続するAmazon EC2インスタンスにアプリケーションをデプロイしました。同社は、アプリケーションにデータベースの認証情報をハードコードしてはいけません。また、定期的にデータベースの認証情報を自動的にローテーションするソリューションを実装する必要があります。これらの要件を最小限の運用負荷で満たすソリューションはどれですか? A. Store the database credentials in the instance metadata. Use Amazon EventBridge (Amazon CloudWatch Events) rules to run a scheduled AWS Lambda function that updates the RDS credentials and instance metadata at the same time.インスタンスメタデータにデータベースの認証情報を保存します。Amazon EventBridge(Amazon CloudWatch Events)ルールを使用して、RDSの認証情報とインスタンスメタデータを同時に更新するスケジュールされたAWS Lambda関数を実行します。 B. Store the database credentials in a configuration file in an encrypted Amazon S3 bucket. Use Amazon EventBridge (Amazon CloudWatch Events) rules to run a scheduled AWS Lambda function that updates the RDS credentials and the credentials in the configuration file at the same time. Use S3 Versioning to ensure the ability to fall back to previous values.暗号化されたAmazon S3バケット内の設定ファイルにデータベースの認証情報を保存します。Amazon EventBridge(Amazon CloudWatch Events)ルールを使用して、RDSの認証情報と設定ファイル内の認証情報を同時に更新するスケジュールされたAWS Lambda関数を実行します。S3バージョニングを使用して、以前の値に戻す機能を確保します。 C. Store the database credentials as a secret in AWS Secrets Manager. Turn on automatic rotation for the secret. Attach the required permission to the EC2 role to grant access to the secret.AWS Secrets Managerにシークレットとしてデータベースの認証情報を保存します。シークレットの自動ローテーションを有効にします。EC2ロールに必要な権限を付与してシークレットへのアクセスを許可します。 D. Store the database credentials as encrypted parameters in AWS Systems Manager Parameter Store. Turn on automatic rotation for the encrypted parameters. Attach the required permission to the EC2 role to grant access to the encrypted parameters.AWS Systems Manager Parameter Storeに暗号化されたパラメータとしてデータベースの認証情報を保存します。暗号化されたパラメータの自動ローテーションを有効にします。EC2ロールに必要な権限を付与して暗号化されたパラメータへのアクセスを許可します。 正解はCです。AWS Secrets Managerを使用してデータベースの認証情報をシークレットとして保存し、自動ローテーションを有効にすることで、最小限の運用負荷で要件を満たすことができます。また、EC2ロールに必要な権限を付与してシークレットへのアクセスを許可します。Aの選択肢は、インスタンスメタデータに認証情報を保存する方法ですが、自動ローテーションを実装するために追加のLambda関数が必要であり、運用負荷が高くなります。Bの選択肢は、暗号化されたS3バケットに認証情報を保存する方法ですが、S3バケットの管理とバージョニングの設定が必要であり、運用負荷が高くなります。Dの選択肢は、AWS Systems Manager Parameter Storeに暗号化されたパラメータとして認証情報を保存する方法ですが、自動ローテーションを実装するために追加の設定が必要であり、運用負荷が高くなります。 62 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 62. A company is deploying a new public web application to AWS. The application will run behind an Application Load Balancer (ALB). The application needs to be encrypted at the edge with an SSL/TLS certificate that is issued by an external certificate authority (CA). The certificate must be rotated each year before the certificate expires.企業はAWSに新しいパブリックWebアプリケーションを展開しています。アプリケーションはApplication Load Balancer(ALB)の背後で実行されます。アプリケーションは、外部の認証局(CA)によって発行されたSSL/TLS証明書を使用してエッジで暗号化する必要があります。証明書は、有効期限が切れる前に毎年更新する必要があります。 A. Use AWS Certificate Manager (ACM) to issue an SSL/TLS certificate. Apply the certificate to the ALB. Use the managed renewal feature to automatically rotate the certificate.AWS Certificate Manager(ACM)を使用してSSL/TLS証明書を発行します。証明書をALBに適用します。管理された更新機能を使用して証明書を自動的に更新します。 B. Use AWS Certificate Manager (ACM) to issue an SSL/TLS certificate. Import the key material from the certificate. Apply the certificate to the ALB. Use the managed renewal feature to automatically rotate the certificate.AWS Certificate Manager(ACM)を使用してSSL/TLS証明書を発行します。証明書からキーマテリアルをインポートします。証明書をALBに適用します。管理された更新機能を使用して証明書を自動的に更新します。 C. Use AWS Certificate Manager (ACM) Private Certificate Authority to issue an SSL/TLS certificate from the root CA. Apply the certificate to the ALB. Use the managed renewal feature to automatically rotate the certificate.AWS Certificate Manager(ACM)Private Certificate Authorityを使用してルートCAからSSL/TLS証明書を発行します。証明書をALBに適用します。管理された更新機能を使用して証明書を自動的に更新します。 D. Use AWS Certificate Manager (ACM) to import an SSL/TLS certificate. Apply the certificate to the ALB. Use Amazon EventBridge (Amazon CloudWatch Events) to send a notification when the certificate is nearing expiration. Rotate the certificate manually.AWS Certificate Manager(ACM)を使用してSSL/TLS証明書をインポートします。証明書をALBに適用します。Amazon EventBridge(Amazon CloudWatch Events)を使用して、証明書の有効期限が近づいたときに通知を送信し、手動で証明書を更新します。 正解はDです。AWS Certificate Manager(ACM)を使用してSSL/TLS証明書をインポートし、ALBに適用します。Amazon EventBridge(Amazon CloudWatch Events)を使用して、証明書の有効期限が近づいたときに通知を送信し、手動で証明書を更新します。他の選択肢は以下の理由で誤りです:A. ACMを使用してSSL/TLS証明書を発行し、ALBに適用しますが、外部CAからの証明書が必要なため、このオプションは適切ではありません。B. ACMを使用してSSL/TLS証明書を発行し、証明書からキーマテリアルをインポートしますが、外部CAからの証明書が必要なため、このオプションは適切ではありません。C. ACM Private Certificate Authorityを使用してルートCAからSSL/TLS証明書を発行しますが、外部CAからの証明書が必要なため、このオプションは適切ではありません。 63 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 63. A company runs its infrastructure on AWS and has a registered base of 700,000 users for its document management application. The company intends to create a product that converts large .pdf files to .jpg imagefiles. The .pdf files average 5 MB in size. The company needs to store the original files and the convertedfiles. A solutions architect must design a scalable solution to accommodate demand that will grow rapidly over time.ある会社はAWS上でインフラを運用しており、文書管理アプリケーションの登録ユーザー数は70万人です。同社は、大きな.pdfファイルを.jpg画像ファイルに変換する製品を作成する予定です。.pdfファイルの平均サイズは5MBです。同社は、元のファイルと変換されたファイルを保存する必要があります。ソリューションアーキテクトは、時間の経過とともに急速に増加する需要に対応するためのスケーラブルなソリューションを設計する必要があります。 A. Save the .pdf files to Amazon S3. Configure an S3 PUT event to invoke an AWS Lambda function to convert the files to .jpg format and store them back in Amazon S3..pdfファイルをAmazon S3に保存します。S3 PUTイベントを設定して、AWS Lambda関数を呼び出し、ファイルを.jpg形式に変換して再度Amazon S3に保存します。 B. Save the .pdf files to Amazon DynamoDB. Use the DynamoDB Streams feature to invoke an AWS Lambda function to convert the files to .jpg format and store them back in DynamoDB..pdfファイルをAmazon DynamoDBに保存します。DynamoDB Streams機能を使用して、AWS Lambda関数を呼び出し、ファイルを.jpg形式に変換して再度DynamoDBに保存します。 C. Upload the .pdf files to an AWS Elastic Beanstalk application that includes Amazon EC2 instances, Amazon Elastic Block Store (Amazon EBS) storage, and an Auto Scaling group. Use a program in the EC2 instances to convert the files to .jpg format. Save the .pdf files and the .jpg files in the EBS store..pdfファイルを、Amazon EC2インスタンス、Amazon Elastic Block Store(Amazon EBS)ストレージ、およびAuto Scalingグループを含むAWS Elastic Beanstalkアプリケーションにアップロードします。EC2インスタンス内のプログラムを使用して、ファイルを.jpg形式に変換します。.pdfファイルと.jpgファイルをEBSストアに保存します。 D. Upload the .pdf files to an AWS Elastic Beanstalk application that includes Amazon EC2 instances, Amazon Elastic File System (Amazon EFS) storage, and an Auto Scaling group. Use a program in the EC2 instances to convert the file to .jpg format. Save the .pdf files and the .jpg files in the EBS store..pdfファイルを、Amazon EC2インスタンス、Amazon Elastic File System(Amazon EFS)ストレージ、およびAuto Scalingグループを含むAWS Elastic Beanstalkアプリケーションにアップロードします。EC2インスタンス内のプログラムを使用して、ファイルを.jpg形式に変換します。.pdfファイルと.jpgファイルをEBSストアに保存します。 正解はAです。Amazon S3は、大規模なファイルストレージに適しており、コスト効率が高いです。S3 PUTイベントを使用してAWS Lambda関数を呼び出すことで、ファイルを自動的に変換し、再度S3に保存することができます。これにより、スケーラビリティとコスト効率が最適化されます。BのDynamoDBは、ドキュメントストレージには適していません。また、DynamoDB Streamsを使用してLambdaを呼び出すことは可能ですが、ストレージコストが高くなります。CとDのElastic Beanstalkは、EC2インスタンスを使用してファイルを変換するため、スケーラビリティとコスト効率の面で劣ります。また、EBSストレージは、S3に比べてコストが高くなります。 64 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 64. A company has more than 5 TB of file data on Windows file servers that run on premises. Users and applications interact with the data each day.The company is moving its Windows workloads to AWS. As the company continues this process, the company requires access to AWS and on-premises file storage with minimum latency. The company needs a solution that minimizes operational overhead and requires no significant changes to the existing file access patterns. The company uses an AWS Site-to-Site VPN connection for connectivity to AWS.What should a solutions architect do to meet these requirements?ある企業は、オンプレミスで実行されているWindowsファイルサーバーに5TB以上のファイルデータを持っています。ユーザーとアプリケーションは毎日このデータとやり取りします。同社はWindowsワークロードをAWSに移行しています。このプロセスを続ける中で、同社はAWSとオンプレミスのファイルストレージに最小限の遅延でアクセスする必要があります。同社は、運用上のオーバーヘッドを最小限に抑え、既存のファイルアクセスパターンに大きな変更を加える必要のないソリューションを必要としています。同社はAWSへの接続にAWSサイト間VPN接続を使用しています。これらの要件を満たすために、ソリューションアーキテクトは何をすべきですか? A. Deploy and Configure Amazon FSx for Windows File Server on AWS. Move the on-premises file data to FSx for Windows File Server. ReConfigure the workloads to use FSx for Windows File Server on AWS.AWS上にAmazon FSx for Windows File Serverを展開し、オンプレミスのファイルデータをFSx for Windows File Serverに移動します。AWS上のFSx for Windows File Serverを使用するようにワークロードを再設定します。 B. Deploy and Configure an Amazon S3 File Gateway on premises. Move the on-premises file data to the S3 File Gateway. ReConfigure the on-premises workloads and the cloud workloads to use the S3 File Gateway.オンプレミスにAmazon S3 File Gatewayを展開し、オンプレミスのファイルデータをS3 File Gatewayに移動します。オンプレミスとクラウドのワークロードをS3 File Gatewayを使用するように再設定します。 C. Deploy and Configure an Amazon S3 File Gateway on premises. Move the on-premises file data to Amazon S3. ReConfigure the workloads to use either Amazon S3 directly or the S3 File Gateway. depending on each workload’s location.オンプレミスにAmazon S3 File Gatewayを展開し、オンプレミスのファイルデータをAmazon S3に移動します。各ワークロードの場所に応じて、Amazon S3を直接使用するか、S3 File Gatewayを使用するようにワークロードを再設定します。 D. Deploy and Configure Amazon FSx for Windows File Server on AWS. Deploy and Configure an Amazon FSx File Gateway on premises. Move the on-premises file data to the FSx File Gateway. Configure the cloud workloads to use FSx for Windows File Server on AWS. Configure the on-premises workloads to use the FSx File Gateway.AWS上にAmazon FSx for Windows File Serverを展開し、オンプレミスにAmazon FSx File Gatewayを展開します。オンプレミスのファイルデータをFSx File Gatewayに移動します。AWS上のFSx for Windows File Serverを使用するようにクラウドワークロードを設定し、オンプレミスのワークロードをFSx File Gatewayを使用するように設定します。 正解はDです。Dの選択肢では、AWS上にAmazon FSx for Windows File Serverを展開し、オンプレミスにAmazon FSx File Gatewayを展開することで、オンプレミスとAWSの両方で最小限の遅延でファイルにアクセスできるようになります。また、既存のファイルアクセスパターンに大きな変更を加える必要がなく、運用上のオーバーヘッドも最小限に抑えられます。Aの選択肢では、オンプレミスのファイルデータをFSx for Windows File Serverに移動し、ワークロードを再設定する必要がありますが、これではオンプレミスとAWSの両方でファイルにアクセスするための最小限の遅延を実現できません。BとCの選択肢では、Amazon S3 File Gatewayを使用していますが、これではWindowsファイルサーバーとの互換性が低く、既存のファイルアクセスパターンに大きな変更を加える必要があります。 65 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 65. A hospital recently deployed a RESTful API with Amazon API Gateway and AWS Lambda. The hospital uses API Gateway and Lambda to upload reports that are in PDF format and JPEG format. The hospital needs to modify the Lambda code to identify protected health information (PHI) in the reports.Which solution will meet these requirements with the LEAST operational overhead?病院は最近、Amazon API GatewayとAWS Lambdaを使用してRESTful APIをデプロイしました。病院はAPI GatewayとLambdaを使用して、PDF形式とJPEG形式のレポートをアップロードしています。病院は、レポート内の保護された健康情報(PHI)を識別するためにLambdaコードを変更する必要があります。これらの要件を最小限の運用負荷で満たす解決策はどれですか? A. Use existing Python libraries to extract the text from the reports and to identify the PHI from the extracted text.既存のPythonライブラリを使用してレポートからテキストを抽出し、抽出されたテキストからPHIを識別する。 B. Use Amazon Textract to extract the text from the reports. Use Amazon SageMaker to identify the PHI from the extracted text.Amazon Textractを使用してレポートからテキストを抽出する。Amazon SageMakerを使用して抽出されたテキストからPHIを識別する。 C. Use Amazon Textract to extract the text from the reports. Use Amazon Comprehend Medical to identify the PHI from the extracted text.Amazon Textractを使用してレポートからテキストを抽出する。Amazon Comprehend Medicalを使用して抽出されたテキストからPHIを識別する。 D. Use Amazon Rekognition to extract the text from the reports. Use Amazon Comprehend Medical to identify the PHI from the extracted text.Amazon Rekognitionを使用してレポートからテキストを抽出する。Amazon Comprehend Medicalを使用して抽出されたテキストからPHIを識別する。 正解はCです。Amazon Textractを使用してレポートからテキストを抽出し、Amazon Comprehend Medicalを使用して抽出されたテキストからPHIを識別することが、最小限の運用負荷で要件を満たします。 他の選択肢の誤り:A: 既存のPythonライブラリを使用してテキストを抽出し、PHIを識別することは可能ですが、運用負荷が高くなります。B: Amazon SageMakerを使用してPHIを識別することは可能ですが、SageMakerは機械学習モデルのトレーニングとデプロイに使用されるため、運用負荷が高くなります。D: Amazon Rekognitionは画像やビデオの分析に適しており、テキストの抽出には適していません。 66 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 66. A company has an application that generates a large number of files, each approximately 5 MB in size. The files are stored in Amazon S3. Company policy requires the files to be stored for 4 years before they can be deleted. Immediate accessibility is always required as the files contain critical business data that is not easy to reproduce. The files are frequently accessed in the first 30 days of the object creation but are rarely accessed after the first 30 days.Which storage solution is MOST cost-effective?ある会社には、それぞれ約5MBのサイズのファイルを大量に生成するアプリケーションがあります。ファイルはAmazon S3に保存されています。会社の方針では、ファイルを削除する前に4年間保存する必要があります。ファイルには重要なビジネスデータが含まれており、再現が容易ではないため、常に即時のアクセスが必要です。ファイルはオブジェクト作成後の最初の30日間は頻繁にアクセスされますが、最初の30日後はほとんどアクセスされません。最もコスト効率の高いストレージソリューションはどれですか? A. Create an S3 bucket lifecycle policy to move files from S3 Standard to S3 Glacier 30 days from object creation. Delete the files 4 years after object creation.オブジェクト作成から30日後にファイルをS3 StandardからS3 Glacierに移動するS3バケットライフサイクルポリシーを作成します。オブジェクト作成から4年後にファイルを削除します。 B. Create an S3 bucket lifecycle policy to move files from S3 Standard to S3 One Zone-Infrequent Access (S3 One Zone-IA) 30 days from object creation. Delete the files 4 years after object creation.オブジェクト作成から30日後にファイルをS3 StandardからS3 One Zone-Infrequent Access (S3 One Zone-IA)に移動するS3バケットライフサイクルポリシーを作成します。オブジェクト作成から4年後にファイルを削除します。 C. Create an S3 bucket lifecycle policy to move files from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-IA) 30 days from object creation. Delete the files 4 years after object creation.オブジェクト作成から30日後にファイルをS3 StandardからS3 Standard-Infrequent Access (S3 Standard-IA)に移動するS3バケットライフサイクルポリシーを作成します。オブジェクト作成から4年後にファイルを削除します。 D. Create an S3 bucket lifecycle policy to move files from S3 Standard to S3 Standard-Infrequent Access (S3 Standard-IA) 30 days from object creation. Move the files to S3 Glacier 4 years after object creation.オブジェクト作成から30日後にファイルをS3 StandardからS3 Standard-Infrequent Access (S3 Standard-IA)に移動するS3バケットライフサイクルポリシーを作成します。オブジェクト作成から4年後にファイルをS3 Glacierに移動します。 正解はCです。S3 Standard-Infrequent Access (S3 Standard-IA)は、最初の30日間は頻繁にアクセスされるが、その後はほとんどアクセスされないファイルに適しています。S3 Standard-IAは、S3 Standardよりも低コストで、即時のアクセスが可能です。Aのオプションは、S3 Glacierに移動するため、即時のアクセスができません。Bのオプションは、S3 One Zone-Infrequent Access (S3 One Zone-IA)を使用していますが、これは単一のアベイラビリティゾーンにデータを保存するため、可用性が低くなります。Dのオプションは、4年後にS3 Glacierに移動するため、即時のアクセスができません。 67 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 67. A company hosts an application on multiple Amazon EC2 instances. The application processes messages from an Amazon SQS queue, writes to an Amazon RDS table, and deletes the message from the queue. Occasional duplicate records are found in the RDS table. The SQS queue does not contain any duplicate messages.What should a solutions architect do to ensure messages are being processed once only?ある会社は、複数のAmazon EC2インスタンス上でアプリケーションをホストしています。このアプリケーションは、Amazon SQSキューからのメッセージを処理し、Amazon RDSテーブルに書き込み、キューからメッセージを削除します。RDSテーブルには時々重複したレコードが見つかります。SQSキューには重複したメッセージは含まれていません。ソリューションアーキテクトは、メッセージが一度だけ処理されるようにするために何をすべきですか? A. Use the CreateQueue API call to create a new queue.CreateQueue API呼び出しを使用して新しいキューを作成します。 B. Use the AddPermission API call to add appropriate permissions.AddPermission API呼び出しを使用して適切なパーミッションを追加します。 C. Use the ReceiveMessage API call to set an appropriate wait time.ReceiveMessage API呼び出しを使用して適切な待機時間を設定します。 D. Use the ChangeMessageVisibility API call to increase the visibility timeout.ChangeMessageVisibility API呼び出しを使用して可視性タイムアウトを増やします。 正解はDです。ChangeMessageVisibility API呼び出しを使用して可視性タイムアウトを増やすことで、メッセージが再度表示される前に十分な時間を確保し、重複処理を防ぐことができます。AのCreateQueue API呼び出しは新しいキューを作成するためのもので、この問題の解決には直接関係ありません。BのAddPermission API呼び出しは適切なパーミッションを追加するためのもので、メッセージの重複処理の問題には直接関係ありません。CのReceiveMessage API呼び出しは適切な待機時間を設定するためのもので、メッセージの重複処理の問題には直接関係ありません。 68 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 68. A solutions architect is designing a new hybrid architecture to extend a company’s on-premises infrastructure to AWS. The company requires a highly available connection with consistent low latency to an AWS Region. The company needs to minimize costs and is willing to accept slower traffic if the primary connection fails.ソリューションアーキテクトは、企業のオンプレミスインフラストラクチャをAWSに拡張するための新しいハイブリッドアーキテクチャを設計しています。企業は、AWSリージョンへの一貫した低遅延の高可用性接続を必要としています。企業はコストを最小限に抑える必要があり、プライマリ接続が失敗した場合に低速のトラフィックを受け入れることをいとわない。 A. Provision an AWS Direct Connect connection to a Region. Provision a VPN connection as a backup if the primary Direct Connect connection fails.リージョンにAWS Direct Connect接続をプロビジョニングします。プライマリDirect Connect接続が失敗した場合にバックアップとしてVPN接続をプロビジョニングします。 B. Provision a VPN tunnel connection to a Region for private connectivity. Provision a second VPN tunnel for private connectivity and as a backup if the primary VPN connection fails.リージョンにプライベート接続のためのVPNトンネル接続をプロビジョニングします。プライマリVPN接続が失敗した場合にプライベート接続とバックアップとして2番目のVPNトンネルをプロビジョニングします。 C. Provision an AWS Direct Connect connection to a Region. Provision a second Direct Connect connection to the same Region as a backup if the primary Direct Connect connection fails.リージョンにAWS Direct Connect接続をプロビジョニングします。プライマリDirect Connect接続が失敗した場合にバックアップとして同じリージョンに2番目のDirect Connect接続をプロビジョニングします。 D. Provision an AWS Direct Connect connection to a Region. Use the Direct Connect failover attribute from the AWS CLI to automatically create a backup connection if the primary Direct Connect connection fails.リージョンにAWS Direct Connect接続をプロビジョニングします。プライマリDirect Connect接続が失敗した場合にAWS CLIからDirect Connectフェイルオーバー属性を使用して自動的にバックアップ接続を作成します。 正解はAです。AWS Direct Connectは、オンプレミスネットワークとAWSの間に専用のネットワーク接続を提供し、一貫した低遅延と高可用性を実現します。VPN接続をバックアップとして使用することで、プライマリ接続が失敗した場合に低速のトラフィックを受け入れることができます。Bのオプションは、VPNトンネル接続を使用していますが、Direct Connectほど低遅延や高可用性を提供しません。Cのオプションは、2つのDirect Connect接続を使用していますが、コストが高くなります。Dのオプションは、Direct Connectのフェイルオーバー属性を使用していますが、自動的にバックアップ接続を作成する機能はありません。 69 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 69. A company is running a business-critical web application on Amazon EC2 instances behind an Application Load Balancer. The EC2 instances are in an Auto Scaling group. The application uses an Amazon Aurora PostgreSQL database that is deployed in a single Availability Zone. The company wants the application to be highly available with minimum downtime and minimum loss of data.Which solution will meet these requirements with the LEAST operational effort? ある会社は、Application Load Balancerの背後にあるAmazon EC2インスタンス上でビジネスクリティカルなウェブアプリケーションを実行しています。EC2インスタンスはAuto Scalingグループにあります。アプリケーションは、単一のアベイラビリティーゾーンにデプロイされたAmazon Aurora PostgreSQLデータベースを使用しています。会社は、最小限のダウンタイムと最小限のデータ損失でアプリケーションを高可用性にしたいと考えています。これらの要件を最小限の運用努力で満たす解決策はどれですか? A. Place the EC2 instances in different AWS Regions. Use Amazon Route 53 health checks to redirect traffic. Use Aurora PostgreSQL Cross Region Replication.EC2インスタンスを異なるAWSリージョンに配置します。Amazon Route 53のヘルスチェックを使用してトラフィックをリダイレクトします。Aurora PostgreSQLのクロスリージョンレプリケーションを使用します。 B. Configure the Auto Scaling group to use multiple Availability Zones. Configure the database as Multi-AZ. Configure an Amazon RDS Proxy instance for the database.Auto Scalingグループを複数のアベイラビリティーゾーンで使用するように設定します。データベースをマルチAZに設定します。データベース用のAmazon RDS Proxyインスタンスを設定します。 C. Configure the Auto Scaling group to use one Availability Zone. Generate hourly snapshots of the database. Recover the database from the snapshots in the event of a failure.Auto Scalingグループを1つのアベイラビリティーゾーンで使用するように設定します。データベースの毎時のスナップショットを生成します。障害時にスナップショットからデータベースを回復します。 D. Configure the Auto Scaling group to use multiple AWS Regions. Write the data from the application to Amazon S3. Use S3 Event Notifications to launch an AWS Lambda function to write the data to the database.Auto Scalingグループを複数のAWSリージョンで使用するように設定します。アプリケーションからのデータをAmazon S3に書き込みます。S3イベント通知を使用してAWS Lambda関数を起動し、データをデータベースに書き込みます。 正解はBです。Auto Scalingグループを複数のアベイラビリティーゾーンで使用し、データベースをマルチAZに設定し、データベース用のAmazon RDS Proxyインスタンスを設定することで、最小限の運用努力で高可用性を実現できます。 Aのオプションは、EC2インスタンスを異なるAWSリージョンに配置し、Amazon Route 53のヘルスチェックを使用してトラフィックをリダイレクトし、Aurora PostgreSQLのクロスリージョンレプリケーションを使用することを提案しています。これは運用努力が大きく、要件を満たすのに最適ではありません。 Cのオプションは、Auto Scalingグループを1つのアベイラビリティーゾーンで使用し、データベースの毎時のスナップショットを生成し、障害時にスナップショットからデータベースを回復することを提案しています。これはデータ損失のリスクが高く、高可用性を実現するのに適していません。 Dのオプションは、Auto Scalingグループを複数のAWSリージョンで使用し、アプリケーションからのデータをAmazon S3に書き込み、S3イベント通知を使用してAWS Lambda関数を起動し、データをデータベースに書き込むことを提案しています。これは複雑で、運用努力が大きくなります。 70 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 70. A company’s HTTP application is behind a Network Load Balancer (NLB). The NLB’s target group is Configured to use an Amazon EC2 Auto Scaling group with multiple EC2 instances that run the web service.会社のHTTPアプリケーションは、Network Load Balancer(NLB)の背後にあります。NLBのターゲットグループは、ウェブサービスを実行する複数のEC2インスタンスを持つAmazon EC2 Auto Scalingグループを使用するように構成されています。 A. Enable HTTP health checks on the NLB, supplying the URL of the company’s application.NLBでHTTPヘルスチェックを有効にし、会社のアプリケーションのURLを提供します。 B. Add a cron job to the EC2 instances to check the local application’s logs once each minute. If HTTP errors are detected. the application will restart.EC2インスタンスにcronジョブを追加し、毎分ローカルアプリケーションのログをチェックします。HTTPエラーが検出された場合、アプリケーションは再起動します。 C. Replace the NLB with an Application Load Balancer. Enable HTTP health checks by supplying the URL of the company’s application. Configure an Auto Scaling action to replace unhealthy instances.NLBをApplication Load Balancerに置き換えます。会社のアプリケーションのURLを提供してHTTPヘルスチェックを有効にします。不健全なインスタンスを置き換えるためのAuto Scalingアクションを構成します。 D. Create an Amazon Cloud Watch alarm that monitors the UnhealthyHostCount metric for the NLB. Configure an Auto Scaling action to replace unhealthy instances when the alarm is in the ALARM state.NLBのUnhealthyHostCountメトリックを監視するAmazon CloudWatchアラームを作成します。アラームがALARM状態のときに不健全なインスタンスを置き換えるためのAuto Scalingアクションを構成します。 The correct answer is C because replacing the NLB with an Application Load Balancer (ALB) and enabling HTTP health checks allows the ALB to monitor the health of the EC2 instances based on HTTP responses. This setup can automatically replace unhealthy instances, improving the application’s availability without custom scripts.正解はCです。Network Load Balancer(NLB)をApplication Load Balancer(ALB)に置き換え、HTTPヘルスチェックを有効にすることで、ALBはHTTPレスポンスに基づいてEC2インスタンスの健全性を監視できます。この設定により、カスタムスクリプトなしでアプリケーションの可用性を向上させることができます。 Option A is incorrect because NLB does not support HTTP health checks, only TCP health checks.オプションAは、NLBがHTTPヘルスチェックをサポートしていないため、不正解です。NLBはTCPヘルスチェックのみをサポートしています。 Option B is incorrect because adding a cron job to restart the application manually is not a scalable or efficient solution.オプションBは、アプリケーションを手動で再起動するためのcronジョブを追加することは、スケーラブルで効率的な解決策ではないため、不正解です。 Option D is incorrect because monitoring the UnhealthyHostCount metric does not directly address the issue of HTTP errors and does not provide a mechanism to replace unhealthy instances based on HTTP health checks.オプションDは、UnhealthyHostCountメトリックを監視しても、HTTPエラーの問題に直接対処できず、HTTPヘルスチェックに基づいて不健全なインスタンスを置き換えるメカニズムを提供しないため、不正解です。 71 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 71. A company runs a shopping application that uses Amazon DynamoDB to store customer information. In case of data corruption, a solutions architect needs to design a solution that meets a recovery point objective (RPO) of 15 minutes and a recovery time objective (RTO) of 1 hour. What should the solutions architect recommend to meet these requirements?ある会社がAmazon DynamoDBを使用して顧客情報を保存するショッピングアプリケーションを運営しています。データ破損の場合、ソリューションアーキテクトは、15分の回復ポイント目標(RPO)と1時間の回復時間目標(RTO)を満たすソリューションを設計する必要があります。これらの要件を満たすために、ソリューションアーキテクトは何を推奨すべきですか? A. Configure DynamoDB global tables. For RPO recovery, point the application to a different AWS Region.DynamoDBグローバルテーブルを設定します。RPO回復のために、アプリケーションを別のAWSリージョンにポイントします。 B. Configure DynamoDB point-in-time recovery. For RPO recovery, restore to the desired point in time.DynamoDBポイントインタイムリカバリを設定します。RPO回復のために、希望の時点に復元します。 C. Export the DynamoDB data to Amazon S3 Glacier on a daily basis. For RPO recovery, import the data from S3 Glacier to DynamoDB.DynamoDBデータを毎日Amazon S3 Glacierにエクスポートします。RPO回復のために、S3 GlacierからDynamoDBにデータをインポートします。 D. Schedule Amazon Elastic Block Store (Amazon EBS) snapshots for the DynamoDB table every 15 minutes. For RPO recovery, restore the DynamoDB table by using the EBS snapshot.DynamoDBテーブルのAmazon Elastic Block Store(Amazon EBS)スナップショットを15分ごとにスケジュールします。RPO回復のために、EBSスナップショットを使用してDynamoDBテーブルを復元します。 The correct answer is B because DynamoDB point-in-time recovery (PITR) allows you to restore your DynamoDB table to any point in time within the last 35 days, which meets the RPO requirement of 15 minutes. Additionally, the recovery process is relatively quick, which helps in meeting the RTO of 1 hour. Option A is incorrect because DynamoDB global tables are designed for multi-region replication and do not provide point-in-time recovery capabilities. Option C is incorrect because exporting data to Amazon S3 Glacier on a daily basis does not meet the RPO requirement of 15 minutes, as the data is only backed up once a day. Option D is incorrect because Amazon EBS snapshots are not applicable to DynamoDB tables, as DynamoDB is a managed NoSQL database service and does not use EBS volumes. 72 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 72. A company runs a photo processing application that needs to frequently upload and download pictures from Amazon S3 buckets that are located in the same AWS Region. A solutions architect has noticed an increased cost in data transfer fees and needs to implement a solution to reduce these costs.写真処理アプリケーションを運営している企業が、同じAWSリージョンにあるAmazon S3バケットから頻繁に写真をアップロードおよびダウンロードする必要があります。ソリューションアーキテクトは、データ転送料金の増加に気づき、これらのコストを削減するためのソリューションを実装する必要があります。 A. Deploy Amazon API Gateway into a public subnet and adjust the route table to route S3 calls through it.Amazon API Gatewayをパブリックサブネットにデプロイし、S3呼び出しを経由するようにルートテーブルを調整します。 B. Deploy a NAT gateway into a public subnet and attach an endpoint policy that allows access to the S3 buckets.NATゲートウェイをパブリックサブネットにデプロイし、S3バケットへのアクセスを許可するエンドポイントポリシーをアタッチします。 C. Deploy the application into a public subnet and allow it to route through an internet gateway to access the S3 buckets.アプリケーションをパブリックサブネットにデプロイし、インターネットゲートウェイを経由してS3バケットにアクセスできるようにします。 D. Deploy an S3 VPC gateway endpoint into the VPC and attach an endpoint policy that allows access to the S3 buckets.S3 VPCゲートウェイエンドポイントをVPCにデプロイし、S3バケットへのアクセスを許可するエンドポイントポリシーをアタッチします。 正解はDです。S3 VPCゲートウェイエンドポイントをVPCにデプロイし、S3バケットへのアクセスを許可するエンドポイントポリシーをアタッチすることで、データ転送料金を削減できます。A. Amazon API Gatewayをパブリックサブネットにデプロイし、S3呼び出しを経由するようにルートテーブルを調整することは、データ転送料金の削減には適していません。B. NATゲートウェイをパブリックサブネットにデプロイし、S3バケットへのアクセスを許可するエンドポイントポリシーをアタッチすることは、データ転送料金の削減には適していません。C. アプリケーションをパブリックサブネットにデプロイし、インターネットゲートウェイを経由してS3バケットにアクセスすることは、データ転送料金の削減には適していません。 73 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 73. A company recently launched Linux-based application instances on Amazon EC2 in a private subnet and launched a Linux-based bastion host on an Amazon EC2 instance in a public subnet of a VPC. A solutions architect needs to connect from the on-premises network, through the company’s internet connection, to the bastion host, and to the application servers. The solutions architect must make sure that the security groups of all the EC2 instances will allow that access.Which combination of steps should the solutions architect take to meet these requirements? (Choose two.)ある会社が最近、プライベートサブネット内のAmazon EC2上にLinuxベースのアプリケーションインスタンスを起動し、VPCのパブリックサブネット内のAmazon EC2インスタンス上にLinuxベースのバスティオンホストを起動しました。ソリューションアーキテクトは、オンプレミスネットワークから会社のインターネット接続を経由してバスティオンホストに接続し、アプリケーションサーバーに接続する必要があります。ソリューションアーキテクトは、すべてのEC2インスタンスのセキュリティグループがそのアクセスを許可することを確認する必要があります。これらの要件を満たすために、ソリューションアーキテクトはどの組み合わせの手順を実行すべきですか?(2つ選択してください。) A. Replace the current security group of the bastion host with one that only allows inbound access from the application instances.バスティオンホストの現在のセキュリティグループを、アプリケーションインスタンスからのインバウンドアクセスのみを許可するものに置き換える。 B. Replace the current security group of the bastion host with one that only allows inbound access from the internal IP range for the company.バスティオンホストの現在のセキュリティグループを、会社の内部IP範囲からのインバウンドアクセスのみを許可するものに置き換える。 C. Replace the current security group of the bastion host with one that only allows inbound access from the external IP range for the company.バスティオンホストの現在のセキュリティグループを、会社の外部IP範囲からのインバウンドアクセスのみを許可するものに置き換える。 D. Replace the current security group of the application instances with one that allows inbound SSH access from only the private IP address of the bastion host.アプリケーションインスタンスの現在のセキュリティグループを、バスティオンホストのプライベートIPアドレスからのSSHアクセスのみを許可するものに置き換える。 E. Replace the current security group of the application instances with one that allows inbound SSH access from only the public IP address of the bastion host.アプリケーションインスタンスの現在のセキュリティグループを、バスティオンホストのパブリックIPアドレスからのSSHアクセスのみを許可するものに置き換える。 正解はCとDです。C: バスティオンホストの現在のセキュリティグループを、会社の外部IP範囲からのインバウンドアクセスのみを許可するものに置き換える必要があります。これにより、オンプレミスネットワークからのアクセスが許可されます。D: アプリケーションインスタンスの現在のセキュリティグループを、バスティオンホストのプライベートIPアドレスからのSSHアクセスのみを許可するものに置き換える必要があります。これにより、バスティオンホストを経由してアプリケーションサーバーに安全にアクセスできます。A: バスティオンホストのセキュリティグループをアプリケーションインスタンスからのインバウンドアクセスのみを許可するものに置き換えると、オンプレミスネットワークからのアクセスが許可されないため、不適切です。B: バスティオンホストのセキュリティグループを会社の内部IP範囲からのインバウンドアクセスのみを許可するものに置き換えると、外部からのアクセスが許可されないため、不適切です。E: アプリケーションインスタンスのセキュリティグループをバスティオンホストのパブリックIPアドレスからのSSHアクセスのみを許可するものに置き換えると、セキュリティリスクが高まるため、不適切です。 確認 74 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 74. A solutions architect is designing a two-tier web application. The application consists of a public-facing web tier hosted on Amazon EC2 in public subnets. The database tier consists of Microsoft SQL Server running on Amazon EC2 in a private subnet. Security is a high priority for the company.この状況でセキュリティグループをどのように設定すべきですか?(2つ選択してください) A. Configure the security group for the web tier to allow inbound traffic on port 443 from 0.0.0.0/0.Web層のセキュリティグループを設定し、ポート443で0.0.0.0/0からのインバウンドトラフィックを許可する。 B. Configure the security group for the web tier to allow outbound traffic on port 443 from 0.0.0.0/0.Web層のセキュリティグループを設定し、ポート443で0.0.0.0/0へのアウトバウンドトラフィックを許可する。 C. Configure the security group for the database tier to allow inbound traffic on port 1433 from the security group for the web tier.データベース層のセキュリティグループを設定し、ポート1433でWeb層のセキュリティグループからのインバウンドトラフィックを許可する。 D. Configure the security group for the database tier to allow outbound traffic on ports 443 and 1433 to the security group for the web tier.データベース層のセキュリティグループを設定し、ポート443と1433でWeb層のセキュリティグループへのアウトバウンドトラフィックを許可する。 E. Configure the security group for the database tier to allow inbound traffic on ports 443 and 1433 from the security group for the web tier.データベース層のセキュリティグループを設定し、ポート443と1433でWeb層のセキュリティグループからのインバウンドトラフィックを許可する。 正解はAとCです。A: Web層のセキュリティグループを設定し、ポート443で0.0.0.0/0からのインバウンドトラフィックを許可する必要があります。これにより、ユーザーはHTTPS経由でWebアプリケーションにアクセスできます。C: データベース層のセキュリティグループを設定し、ポート1433でWeb層のセキュリティグループからのインバウンドトラフィックを許可する必要があります。これにより、Web層はデータベース層と通信できます。B: Web層のセキュリティグループでポート443でのアウトバウンドトラフィックを許可する必要はありません。これは、Web層が外部にデータを送信する必要がないためです。D: データベース層のセキュリティグループでポート443と1433でのアウトバウンドトラフィックを許可する必要はありません。これは、データベース層が外部にデータを送信する必要がないためです。E: データベース層のセキュリティグループでポート443と1433でのインバウンドトラフィックを許可する必要はありません。これは、データベース層がHTTPS経由で通信する必要がないためです。 確認 75 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 75. A company wants to move a multi-tiered application from on premises to the AWS Cloud to improve the application’s performance. The application consists of application tiers that communicate with each other by way of RESTful services. Transactions are dropped when one tier becomes overloaded. A solutions architect must design a solution that resolves these issues and modernizes the application.Which solution meets these requirements and is the MOST operationally efficient?企業は、アプリケーションのパフォーマンスを向上させるために、オンプレミスからAWSクラウドに多層アプリケーションを移行したいと考えています。アプリケーションは、RESTfulサービスを介して互いに通信するアプリケーション層で構成されています。1つの層が過負荷になると、トランザクションがドロップされます。ソリューションアーキテクトは、これらの問題を解決し、アプリケーションを近代化するソリューションを設計する必要があります。これらの要件を満たし、最も運用効率の高いソリューションはどれですか? A. Use Amazon API Gateway and direct transactions to the AWS Lambda functions as the application layer. Use Amazon Simple Queue Service (Amazon SQS) as the communication layer between application services.Amazon API Gatewayを使用して、アプリケーション層としてAWS Lambda関数にトランザクションを直接送信します。アプリケーションサービス間の通信層としてAmazon Simple Queue Service (Amazon SQS)を使用します。 B. Use Amazon CloudWatch metrics to analyze the application performance history to determine the servers’ peak utilization during the performance failures. Increase the size of the application server’s Amazon EC2 instances to meet the peak requirements.Amazon CloudWatchメトリクスを使用して、パフォーマンス障害時のサーバーのピーク使用率を分析し、アプリケーションサーバーのAmazon EC2インスタンスのサイズを増やしてピーク要件を満たします。 C. Use Amazon Simple Notification Service (Amazon SNS) to handle the messaging between application servers running on Amazon EC2 in an Auto Scaling group. Use Amazon CloudWatch to monitor the SNS queue length and scale up and down as required.Amazon Simple Notification Service (Amazon SNS)を使用して、Auto Scalingグループ内のAmazon EC2上で実行されているアプリケーションサーバー間のメッセージングを処理します。Amazon CloudWatchを使用してSNSキューの長さを監視し、必要に応じてスケールアップおよびダウンします。 D. Use Amazon Simple Queue Service (Amazon SQS) to handle the messaging between application servers running on Amazon EC2 in an Auto Scaling group. Use Amazon CloudWatch to monitor the SQS queue length and scale up when communication failures are detected.Amazon Simple Queue Service (Amazon SQS)を使用して、Auto Scalingグループ内のAmazon EC2上で実行されているアプリケーションサーバー間のメッセージングを処理します。Amazon CloudWatchを使用してSQSキューの長さを監視し、通信障害が検出されたときにスケールアップします。 正解はAです。A. Amazon API Gatewayを使用して、アプリケーション層としてAWS Lambda関数にトランザクションを直接送信します。アプリケーションサービス間の通信層としてAmazon Simple Queue Service (Amazon SQS)を使用します。このソリューションは、API GatewayとLambdaを使用してスケーラブルで効率的なアプリケーション層を提供し、SQSを使用して信頼性の高いメッセージングを実現します。これにより、過負荷によるトランザクションのドロップを防ぎます。 B. Amazon CloudWatchメトリクスを使用して、パフォーマンス障害時のサーバーのピーク使用率を分析し、アプリケーションサーバーのAmazon EC2インスタンスのサイズを増やしてピーク要件を満たします。このソリューションは、過負荷時の対応策としてインスタンスサイズを増やすことに焦点を当てていますが、根本的な問題を解決するものではありません。 C. Amazon Simple Notification Service (Amazon SNS)を使用して、Auto Scalingグループ内のAmazon EC2上で実行されているアプリケーションサーバー間のメッセージングを処理します。Amazon CloudWatchを使用してSNSキューの長さを監視し、必要に応じてスケールアップおよびダウンします。このソリューションは、SNSを使用していますが、SNSはメッセージングの信頼性が低く、トランザクションのドロップを防ぐのに適していません。 D. Amazon Simple Queue Service (Amazon SQS)を使用して、Auto Scalingグループ内のAmazon EC2上で実行されているアプリケーションサーバー間のメッセージングを処理します。Amazon CloudWatchを使用してSQSキューの長さを監視し、通信障害が検出されたときにスケールアップします。このソリューションは、SQSを使用していますが、API GatewayとLambdaを使用したAのソリューションに比べて、運用効率が低くなります。 76 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 76. A company receives 10 TB of instrumentation data each day from several machines located at a single factory. The data consists of JSON files stored on a storage area network (SAN) in an on-premises data center located within the factory. The company wants to send this data to Amazon S3 where it can be accessed by several additional systems that provide critical near-real-time analytics. A secure transfer is important because the data is considered sensitive.どのソリューションが最も信頼性の高いデータ転送を提供しますか? A. AWS DataSync over public internetパブリックインターネット経由のAWS DataSync B. AWS DataSync over AWS Direct ConnectAWS Direct Connect経由のAWS DataSync C. AWS Database Migration Service (AWS DMS) over public internetパブリックインターネット経由のAWS Database Migration Service (AWS DMS) D. AWS Database Migration Service (AWS DMS) over AWS Direct ConnectAWS Direct Connect経由のAWS Database Migration Service (AWS DMS) 正解はBです。AWS DataSync over AWS Direct Connectは、オンプレミスのデータセンターからAmazon S3へのデータ転送において、最も信頼性の高い方法です。AWS Direct Connectを使用することで、データはパブリックインターネットを経由せずに直接AWSに転送されるため、セキュリティが向上し、転送の信頼性も高まります。 他の選択肢の誤り:A. AWS DataSync over public internet: パブリックインターネットを経由するため、セキュリティリスクが高く、信頼性も低くなります。C. AWS Database Migration Service (AWS DMS) over public internet: DMSはデータベースの移行に適しており、このシナリオでは適切ではありません。また、パブリックインターネットを経由するため、セキュリティリスクがあります。D. AWS Database Migration Service (AWS DMS) over AWS Direct Connect: DMSはデータベースの移行に適しており、このシナリオでは適切ではありません。 77 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 77. A company needs to Configure a real-time data ingestion architecture for its application. The company needs an API, a process that transforms data as the data is streamed, and a storage solution for the data.Which solution will meet these requirements with the LEAST operational overhead?ある会社は、アプリケーションのためのリアルタイムデータインジェストアーキテクチャを設定する必要があります。会社はAPI、データがストリーミングされる際にデータを変換するプロセス、およびデータのストレージソリューションを必要としています。これらの要件を最も少ない運用オーバーヘッドで満たすソリューションはどれですか? A. Deploy an Amazon EC2 instance to host an API that sends data to an Amazon Kinesis data stream. Create an Amazon Kinesis Data Firehose delivery stream that uses the Kinesis data stream as a data source. Use AWS Lambda functions to transform the data. Use the Kinesis Data Firehose delivery stream to send the data to Amazon S3.Amazon EC2インスタンスをデプロイして、データをAmazon Kinesisデータストリームに送信するAPIをホストします。Kinesisデータストリームをデータソースとして使用するAmazon Kinesis Data Firehose配信ストリームを作成します。AWS Lambda関数を使用してデータを変換します。Kinesis Data Firehose配信ストリームを使用してデータをAmazon S3に送信します。 B. Deploy an Amazon EC2 instance to host an API that sends data to AWS Glue. Stop source/destination checking on the EC2 instance. Use AWS Glue to transform the data and to send the data to Amazon S3.Amazon EC2インスタンスをデプロイして、データをAWS Glueに送信するAPIをホストします。EC2インスタンスのソース/デスティネーションチェックを停止します。AWS Glueを使用してデータを変換し、Amazon S3に送信します。 C. Configure an Amazon API Gateway API to send data to an Amazon Kinesis data stream. Create an Amazon Kinesis Data Firehose delivery stream that uses the Kinesis data stream as a data source. Use AWS Lambda functions to transform the data. Use the Kinesis Data Firehose delivery stream to send the data to Amazon S3.Amazon API Gateway APIを設定して、データをAmazon Kinesisデータストリームに送信します。Kinesisデータストリームをデータソースとして使用するAmazon Kinesis Data Firehose配信ストリームを作成します。AWS Lambda関数を使用してデータを変換します。Kinesis Data Firehose配信ストリームを使用してデータをAmazon S3に送信します。 D. Configure an Amazon API Gateway API to send data to AWS Glue. Use AWS Lambda functions to transform the data. Use AWS Glue to send the data to Amazon S3.Amazon API Gateway APIを設定して、データをAWS Glueに送信します。AWS Lambda関数を使用してデータを変換します。AWS Glueを使用してデータをAmazon S3に送信します。 正解はCです。Amazon API Gatewayを使用してデータをAmazon Kinesisデータストリームに送信し、Kinesis Data Firehose配信ストリームを使用してデータを変換し、Amazon S3に送信するソリューションが、最も少ない運用オーバーヘッドで要件を満たします。 Aの選択肢は、EC2インスタンスを使用してAPIをホストする必要があり、運用オーバーヘッドが増加します。Bの選択肢は、EC2インスタンスを使用してAPIをホストし、AWS Glueを使用してデータを変換する必要があり、これも運用オーバーヘッドが増加します。Dの選択肢は、AWS Glueを使用してデータを変換し、Amazon S3に送信する必要があり、これも運用オーバーヘッドが増加します。 78 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 78. A company needs to keep user transaction data in an Amazon DynamoDB table. The company must retain the data for 7 years.What is the MOST operationally efficient solution that meets these requirements?会社はAmazon DynamoDBテーブルにユーザートランザクションデータを保持する必要があります。会社は7年間データを保持する必要があります。これらの要件を満たす最も運用効率の良いソリューションは何ですか? A. Use DynamoDB point-in-time recovery to back up the table continuously.DynamoDBのポイントインタイムリカバリを使用してテーブルを継続的にバックアップします。 B. Use AWS Backup to create backup schedules and retention policies for the table.AWS Backupを使用してテーブルのバックアップスケジュールと保持ポリシーを作成します。 C. Create an on-demand backup of the table by using the DynamoDB console. Store the backup in an Amazon S3 bucket. Set an S3 Lifecycle configuration for the S3 bucket.DynamoDBコンソールを使用してテーブルのオンデマンドバックアップを作成します。バックアップをAmazon S3バケットに保存します。S3バケットのライフサイクル設定を行います。 D. Create an Amazon EventBridge (Amazon CloudWatch Events) rule to invoke an AWS Lambda function. Configure the Lambda function to back up the table and to store the backup in an Amazon S3 bucket. Set an S3 Lifecycle configuration for the S3 bucket.Amazon EventBridge(Amazon CloudWatch Events)ルールを作成してAWS Lambda関数を呼び出します。Lambda関数を設定してテーブルをバックアップし、バックアップをAmazon S3バケットに保存します。S3バケットのライフサイクル設定を行います。 正解はBです。AWS Backupを使用してバックアップスケジュールと保持ポリシーを作成することで、7年間のデータ保持要件を満たすことができます。AWS Backupは自動化されたバックアップと保持ポリシーを提供し、運用効率が高いです。他の選択肢について:A. DynamoDBのポイントインタイムリカバリは継続的にバックアップを行いますが、7年間の保持要件を満たすための自動化された保持ポリシーは提供しません。C. DynamoDBコンソールを使用してオンデマンドバックアップを作成し、S3バケットに保存することは可能ですが、自動化されたスケジュールと保持ポリシーがないため、運用効率が低いです。D. Amazon EventBridgeルールを使用してLambda関数を呼び出し、バックアップを作成することは可能ですが、AWS Backupに比べて複雑で、運用効率が低いです。 79 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 79. A company is planning to use an Amazon DynamoDB table for data storage. The company is concerned about cost optimization. The table will not be used on most mornings. In the evenings, the read and write traffic will often be unpredictable. When traffic spikes occur, they will happen very quickly.会社はデータストレージにAmazon DynamoDBテーブルを使用する予定です。会社はコスト最適化を懸念しています。テーブルはほとんどの朝には使用されません。夕方には、読み取りおよび書き込みトラフィックが予測不可能になることがよくあります。トラフィックスパイクが発生すると、非常に迅速に発生します。 A. Create a DynamoDB table in on-demand capacity mode.オンデマンド容量モードでDynamoDBテーブルを作成する。 B. Create a DynamoDB table with a global secondary index.グローバルセカンダリインデックスを持つDynamoDBテーブルを作成する。 C. Create a DynamoDB table with provisioned capacity and auto scaling.プロビジョニングされた容量と自動スケーリングを持つDynamoDBテーブルを作成する。 D. Create a DynamoDB table in provisioned capacity mode, and Configure it as a global table.プロビジョニングされた容量モードでDynamoDBテーブルを作成し、グローバルテーブルとして設定する。 正解はAです。オンデマンド容量モードでは、使用量に応じて自動的にスケーリングされるため、予測不可能なトラフィックパターンに適しています。これにより、使用されない時間帯にコストを最適化し、急激なトラフィックスパイクに対応できます。Bのグローバルセカンダリインデックスは、クエリパフォーマンスを向上させますが、コスト最適化には直接関係ありません。Cのプロビジョニングされた容量と自動スケーリングは、トラフィックパターンが予測可能な場合に適していますが、急激なスパイクには対応できない可能性があります。Dのプロビジョニングされた容量モードのグローバルテーブルは、複数のリージョンでの可用性を高めますが、コスト最適化には適していません。 80 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 80. A company recently signed a contract with an AWS Managed Service Provider (MSP) Partner for help with an application migration initiative. A solutions architect needs to share an Amazon Machine Image (AMI) from an existing AWS account with the MSP Partner’s AWS account. The AMI is backed by Amazon Elastic Block Store (Amazon EBS) and uses an AWS Key Management Service (AWS KMS) customer managed key to encrypt EBS volume snapshots.What is the MOST secure way for the solutions architect to share the AMI with the MSP Partner’s AWS account?ある会社が最近、アプリケーション移行イニシアチブの支援のためにAWSマネージドサービスプロバイダー(MSP)パートナーと契約を結びました。ソリューションアーキテクトは、既存のAWSアカウントからMSPパートナーのAWSアカウントにAmazon Machine Image(AMI)を共有する必要があります。AMIはAmazon Elastic Block Store(Amazon EBS)によってバックアップされ、AWS Key Management Service(AWS KMS)のカスタマー管理キーを使用してEBSボリュームスナップショットを暗号化しています。ソリューションアーキテクトがMSPパートナーのAWSアカウントとAMIを共有する最も安全な方法は何ですか? A. Make the encrypted AMI and snapshots publicly available. Modify the key policy to allow the MSP Partner’s AWS account to use the key.暗号化されたAMIとスナップショットを公開します。キーポリシーを変更して、MSPパートナーのAWSアカウントがキーを使用できるようにします。 B. Modify the launchPermission property of the AMI. Share the AMI with the MSP Partner’s AWS account only. Modify the key policy to allow the MSP Partner’s AWS account to use the key.AMIのlaunchPermissionプロパティを変更します。AMIをMSPパートナーのAWSアカウントのみと共有します。キーポリシーを変更して、MSPパートナーのAWSアカウントがキーを使用できるようにします。 C. Modify the launchPermission property of the AMI. Share the AMI with the MSP Partner’s AWS account only. Modify the key policy to trust a new KMS key that is owned by the MSP Partner for encryption.AMIのlaunchPermissionプロパティを変更します。AMIをMSPパートナーのAWSアカウントのみと共有します。キーポリシーを変更して、MSPパートナーが所有する新しいKMSキーを暗号化のために信頼するようにします。 D. Export the AMI from the source account to an Amazon S3 bucket in the MSP Partner’s AWS account, Encrypt the S3 bucket with a new KMS key that is owned by the MSP Partner. Copy and launch the AMI in the MSP Partner’s AWS account.ソースアカウントからMSPパートナーのAWSアカウントのAmazon S3バケットにAMIをエクスポートし、MSPパートナーが所有する新しいKMSキーでS3バケットを暗号化します。MSPパートナーのAWSアカウントでAMIをコピーして起動します。 正解はBです。AMIを共有する最も安全な方法は、AMIのlaunchPermissionプロパティを変更し、MSPパートナーのAWSアカウントのみと共有することです。さらに、キーポリシーを変更して、MSPパートナーのAWSアカウントがキーを使用できるようにします。 他の選択肢の誤り:A: 暗号化されたAMIとスナップショットを公開すると、セキュリティリスクが高まります。C: MSPパートナーが所有する新しいKMSキーを信頼するようにキーポリシーを変更することは、セキュリティ上のリスクがあります。D: AMIをMSPパートナーのAWSアカウントのAmazon S3バケットにエクスポートし、新しいKMSキーで暗号化することは、手間がかかり、セキュリティリスクもあります。 81 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 81. A solutions architect is designing the cloud architecture for a new application being deployed on AWS. The process should run in parallel while adding and removing application nodes as needed based on the number of jobs to be processed. The processor application is stateless. The solutions architect must ensure that the application is loosely coupled and the job items are durably stored.ソリューションアーキテクトは、AWSにデプロイされる新しいアプリケーションのクラウドアーキテクチャを設計しています。処理するジョブの数に基づいて、必要に応じてアプリケーションノードを追加および削除しながら、プロセスを並列で実行する必要があります。プロセッサアプリケーションはステートレスです。ソリューションアーキテクトは、アプリケーションが疎結合であり、ジョブアイテムが耐久性を持って保存されることを保証する必要があります。 A. Create an Amazon SNS topic to send the jobs that need to be processed. Create an Amazon Machine Image (AMI) that consists of the processor application. Create a launch configuration that uses the AMI. Create an Auto Scaling group using the launch configuration. Set the scaling policy for the Auto Scaling group to add and remove nodes based on CPU usage.処理するジョブを送信するためにAmazon SNSトピックを作成します。プロセッサアプリケーションで構成されるAmazon Machine Image(AMI)を作成します。AMIを使用して起動設定を作成します。起動設定を使用してAuto Scalingグループを作成します。CPU使用率に基づいてノードを追加および削除するようにAuto Scalingグループのスケーリングポリシーを設定します。 B. Create an Amazon SQS queue to hold the jobs that need to be processed. Create an Amazon Machine Image (AMI) that consists of the processor application. Create a launch configuration that uses the AMI. Create an Auto Scaling group using the launch configuration. Set the scaling policy for the Auto Scaling group to add and remove nodes based on network usage.処理するジョブを保持するためにAmazon SQSキューを作成します。プロセッサアプリケーションで構成されるAmazon Machine Image(AMI)を作成します。AMIを使用して起動設定を作成します。起動設定を使用してAuto Scalingグループを作成します。ネットワーク使用率に基づいてノードを追加および削除するようにAuto Scalingグループのスケーリングポリシーを設定します。 C. Create an Amazon SQS queue to hold the jobs that need to be processed. Create an Amazon Machine Image (AMI) that consists of the processor application. Create a launch template that uses the AMI. Create an Auto Scaling group using the launch template. Set the scaling policy for the Auto Scaling group to add and remove nodes based on the number of items in the SQS queue.処理するジョブを保持するためにAmazon SQSキューを作成します。プロセッサアプリケーションで構成されるAmazon Machine Image(AMI)を作成します。AMIを使用して起動テンプレートを作成します。起動テンプレートを使用してAuto Scalingグループを作成します。SQSキュー内のアイテム数に基づいてノードを追加および削除するようにAuto Scalingグループのスケーリングポリシーを設定します。 D. Create an Amazon SNS topic to send the jobs that need to be processed. Create an Amazon Machine Image (AMI) that consists of the processor application. Create a launch template that uses the AMI. Create an Auto Scaling group using the launch template. Set the scaling policy for the Auto Scaling group to add and remove nodes based on the number of messages published to the SNS topic.処理するジョブを送信するためにAmazon SNSトピックを作成します。プロセッサアプリケーションで構成されるAmazon Machine Image(AMI)を作成します。AMIを使用して起動テンプレートを作成します。起動テンプレートを使用してAuto Scalingグループを作成します。SNSトピックに公開されたメッセージ数に基づいてノードを追加および削除するようにAuto Scalingグループのスケーリングポリシーを設定します。 正解はCです。Amazon SQSキューを使用して処理するジョブを保持し、AMIを使用して起動テンプレートを作成し、SQSキュー内のアイテム数に基づいてノードを追加および削除するAuto Scalingグループを作成する設計が適切です。Aの設計は、CPU使用率に基づいてノードを追加および削除するため、ジョブの数に基づいてスケーリングする必要がある要件に合致しません。Bの設計は、ネットワーク使用率に基づいてノードを追加および削除するため、ジョブの数に基づいてスケーリングする必要がある要件に合致しません。Dの設計は、SNSトピックに公開されたメッセージ数に基づいてノードを追加および削除するため、ジョブの数に基づいてスケーリングする必要がある要件に合致しません。 82 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 82. A company hosts its web applications in the AWS Cloud. The company Configures Elastic Load Balancers to use certificates that are imported into AWS Certificate Manager (ACM). The company’s security team must be notified 30 days before the expiration of each certificate.What should a solutions architect recommend to meet this requirement?ある会社がAWSクラウドにウェブアプリケーションをホストしています。同社はElastic Load Balancerを設定し、AWS Certificate Manager (ACM)にインポートされた証明書を使用しています。同社のセキュリティチームは、各証明書の有効期限が切れる30日前に通知を受け取る必要があります。この要件を満たすために、ソリューションアーキテクトは何を推奨すべきですか? A. Add a rule in ACM to publish a custom message to an Amazon Simple Notification Service (Amazon SNS) topic every day, beginning 30 days before any certificate will expire.ACMにルールを追加して、証明書の有効期限が切れる30日前から毎日Amazon SNSトピックにカスタムメッセージを公開するように設定する。 B. Create an AWS Config rule that checks for certificates that will expire within 30 days. Configure Amazon EventBridge (Amazon CloudWatch Events) to invoke a custom alert by way of Amazon Simple Notification Service (Amazon SNS) when AWS Config reports a noncompliant resource.AWS Configルールを作成して、30日以内に期限切れになる証明書をチェックし、AWS Configが非準拠リソースを報告したときにAmazon EventBridge (Amazon CloudWatch Events) を介してAmazon SNSでカスタムアラートを発行するように設定する。 C. Use AWS Trusted Advisor to check for certificates that will expire within 30 days. Create an Amazon CloudWatch alarm that is based on Trusted Advisor metrics for check status changes. Configure the alarm to send a custom alert by way of Amazon Simple Notification Service (Amazon SNS).AWS Trusted Advisorを使用して30日以内に期限切れになる証明書をチェックし、Trusted Advisorのメトリクスに基づいてAmazon CloudWatchアラームを作成し、アラームがAmazon SNSを介してカスタムアラートを送信するように設定する。 D. Create an Amazon EventBridge (Amazon CloudWatch Events) rule to detect any certificates that will expire within 30 days. Configure the rule to invoke an AWS Lambda function. Configure the Lambda function to send a custom alert by way of Amazon Simple Notification Service (Amazon SNS).Amazon EventBridge (Amazon CloudWatch Events) ルールを作成して30日以内に期限切れになる証明書を検出し、ルールがAWS Lambda関数を呼び出し、Lambda関数がAmazon SNSを介してカスタムアラートを送信するように設定する。 正解はBです。A. ACMにルールを追加して、証明書の有効期限が切れる30日前から毎日Amazon SNSトピックにカスタムメッセージを公開するように設定することは、ACM自体がこの機能を提供していないため、適切ではありません。B. AWS Configルールを作成して、30日以内に期限切れになる証明書をチェックし、AWS Configが非準拠リソースを報告したときにAmazon EventBridge (Amazon CloudWatch Events) を介してAmazon SNSでカスタムアラートを発行するように設定することは、要件を満たす適切な方法です。C. AWS Trusted Advisorを使用して30日以内に期限切れになる証明書をチェックし、Trusted Advisorのメトリクスに基づいてAmazon CloudWatchアラームを作成し、アラームがAmazon SNSを介してカスタムアラートを送信するように設定することは、Trusted Advisorがこのような特定の証明書の有効期限を監視するためのツールではないため、適切ではありません。D. Amazon EventBridge (Amazon CloudWatch Events) ルールを作成して30日以内に期限切れになる証明書を検出し、ルールがAWS Lambda関数を呼び出し、Lambda関数がAmazon SNSを介してカスタムアラートを送信するように設定することは、複雑で不要なステップが含まれており、効率的ではありません。 83 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 83. A company’s dynamic website is hosted using on-premises servers in the United States. The company is launching its product in Europe, and it wants to optimize site loading times for new European users. The site’s backend must remain in the United States. The product is being launched in a few days, and an immediate solution is needed.What should the solutions architect recommend?アメリカにあるオンプレミスサーバーを使用して、企業の動的なウェブサイトがホストされています。企業はヨーロッパで製品を発売し、新しいヨーロッパのユーザーのためにサイトの読み込み時間を最適化したいと考えています。サイトのバックエンドはアメリカに残す必要があります。製品は数日後に発売され、即時の解決策が必要です。ソリューションアーキテクトは何を推奨すべきですか? A. Launch an Amazon EC2 instance in us-east-1 and migrate the site to it.us-east-1にAmazon EC2インスタンスを起動し、サイトを移行する。 B. Move the website to Amazon S3. Use Cross-Region Replication between Regions.ウェブサイトをAmazon S3に移動する。リージョン間でクロスリージョンレプリケーションを使用する。 C. Use Amazon CloudFront with a custom origin pointing to the on-premises servers.オンプレミスサーバーを指すカスタムオリジンでAmazon CloudFrontを使用する。 D. Use an Amazon Route 53 geoproximity routing policy pointing to on-premises servers.オンプレミスサーバーを指すAmazon Route 53のジオプロキシミティルーティングポリシーを使用する。 正解はCです。Amazon CloudFrontを使用して、オンプレミスサーバーを指すカスタムオリジンを設定することで、ヨーロッパのユーザーに対してサイトの読み込み時間を最適化できます。CloudFrontはコンテンツ配信ネットワーク(CDN)として機能し、ユーザーに近いエッジロケーションからコンテンツを配信します。 他の選択肢の誤り:A. us-east-1にAmazon EC2インスタンスを起動し、サイトを移行することは、ヨーロッパのユーザーにとって読み込み時間を最適化しません。B. ウェブサイトをAmazon S3に移動し、リージョン間でクロスリージョンレプリケーションを使用することは、動的なウェブサイトには適していません。D. Amazon Route 53のジオプロキシミティルーティングポリシーを使用してオンプレミスサーバーを指すことは、読み込み時間を最適化しません。 84 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 84. A company wants to reduce the cost of its existing three-tier web architecture. The web, application, and database servers are running on Amazon EC2 instances for the development, test, and production environments. The EC2 instances average 30% CPU utilization during peak hours and 10% CPU utilization during non-peak hours. The production EC2 instances run 24 hours a day. The development and test EC2 instances run for at least 8 hours each day. The company plans to implement automation to stop the development and test EC2 instances when they are not in use. Which EC2 instance purchasing solution will meet the company’s requirements MOST cost-effectively?ある企業は、既存の3層ウェブアーキテクチャのコストを削減したいと考えています。ウェブ、アプリケーション、データベースサーバーは、開発、テスト、および本番環境用のAmazon EC2インスタンスで実行されています。EC2インスタンスは、ピーク時のCPU使用率が平均30%、非ピーク時のCPU使用率が平均10%です。本番EC2インスタンスは24時間稼働しています。開発およびテストEC2インスタンスは、毎日少なくとも8時間稼働しています。企業は、使用されていないときに開発およびテストEC2インスタンスを停止する自動化を実装する予定です。どのEC2インスタンスの購入ソリューションが、企業の要件を最もコスト効率よく満たすでしょうか? A. Use Spot Instances for the production EC2 instances. Use Reserved Instances for the development and test EC2 instances.本番環境のEC2インスタンスにSpot Instancesを使用し、開発およびテスト環境のEC2インスタンスにReserved Instancesを使用します。 B. Use Reserved Instances for the production EC2 instances. Use On-Demand Instances for the development and test EC2 instances.本番環境のEC2インスタンスにReserved Instancesを使用し、開発およびテスト環境のEC2インスタンスにOn-Demand Instancesを使用します。 C. Use Spot blocks for the production EC2 instances. Use Reserved Instances for the development and test EC2 instances.本番環境のEC2インスタンスにSpot blocksを使用し、開発およびテスト環境のEC2インスタンスにReserved Instancesを使用します。 D. Use On-Demand Instances for the production EC2 instances. Use Spot blocks for the development and test EC2 instances.本番環境のEC2インスタンスにOn-Demand Instancesを使用し、開発およびテスト環境のEC2インスタンスにSpot blocksを使用します。 正解はBです。本番環境のEC2インスタンスにはReserved Instancesを使用し、開発およびテスト環境のEC2インスタンスにはOn-Demand Instancesを使用することが最もコスト効率が良いです。 A. 本番環境にSpot Instancesを使用し、開発およびテスト環境にReserved Instancesを使用することは、本番環境の安定性を損なう可能性があるため、適切ではありません。C. 本番環境にSpot blocksを使用し、開発およびテスト環境にReserved Instancesを使用することは、Spot blocksが短期間の使用に適しているため、本番環境には不向きです。D. 本番環境にOn-Demand Instancesを使用し、開発およびテスト環境にSpot blocksを使用することは、開発およびテスト環境の安定性を損なう可能性があるため、適切ではありません。 85 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 85. A company has a production web application in which users upload documents through a web interface or a mobile app. According to a new regulatory requirement, new documents cannot be modified or deleted after they are stored.ある会社は、ユーザーがウェブインターフェースまたはモバイルアプリを通じてドキュメントをアップロードするプロダクションウェブアプリケーションを持っています。新しい規制要件によると、保存された新しいドキュメントは変更または削除できません。 A. Store the uploaded documents in an Amazon S3 bucket with S3 Versioning and S3 Object Lock enabled.アップロードされたドキュメントをS3バージョニングとS3オブジェクトロックを有効にしたAmazon S3バケットに保存する。 B. Store the uploaded documents in an Amazon S3 bucket. Configure an S3 Lifecycle policy to archive the documents periodically.アップロードされたドキュメントをAmazon S3バケットに保存する。ドキュメントを定期的にアーカイブするS3ライフサイクルポリシーを設定する。 C. Store the uploaded documents in an Amazon S3 bucket with S3 Versioning enabled. Configure an ACL to restrict all access to read-only.アップロードされたドキュメントをS3バージョニングを有効にしたAmazon S3バケットに保存する。すべてのアクセスを読み取り専用に制限するACLを設定する。 D. Store the uploaded documents on an Amazon Elastic File System (Amazon EFS) volume. Access the data by mounting the volume in read-only mode.アップロードされたドキュメントをAmazon Elastic File System (Amazon EFS)ボリュームに保存する。ボリュームを読み取り専用モードでマウントしてデータにアクセスする。 正解はAです。Amazon S3バケットにS3バージョニングとS3オブジェクトロックを有効にしてアップロードされたドキュメントを保存することで、ドキュメントが変更または削除されないようにすることができます。Bのオプションは、ドキュメントを定期的にアーカイブするS3ライフサイクルポリシーを設定することを提案していますが、これはドキュメントが変更または削除されないことを保証しません。Cのオプションは、S3バージョニングを有効にしてACLを設定してすべてのアクセスを読み取り専用に制限することを提案していますが、これだけではドキュメントが削除されないことを保証しません。Dのオプションは、Amazon Elastic File System (Amazon EFS)ボリュームにドキュメントを保存し、ボリュームを読み取り専用モードでマウントしてデータにアクセスすることを提案していますが、これはドキュメントが変更または削除されないことを保証しません。 86 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 86. A company has several web servers that need to frequently access a common Amazon RDS MySQL Multi-AZ DB instance. The company wants a secure method for the web servers to connect to the database while meeting a security requirement to rotate user credentials frequently.複数のウェブサーバーが共通のAmazon RDS MySQL Multi-AZ DBインスタンスに頻繁にアクセスする必要がある会社があります。会社は、ユーザー資格情報を頻繁にローテーションするセキュリティ要件を満たしながら、ウェブサーバーがデータベースに接続するための安全な方法を望んでいます。 A. Store the database user credentials in AWS Secrets Manager. Grant the necessary IAM permissions to allow the web servers to access AWS Secrets Manager.データベースのユーザー資格情報をAWS Secrets Managerに保存します。ウェブサーバーがAWS Secrets Managerにアクセスできるように必要なIAM権限を付与します。 B. Store the database user credentials in AWS Systems Manager OpsCenter. Grant the necessary IAM permissions to allow the web servers to access OpsCenter.データベースのユーザー資格情報をAWS Systems Manager OpsCenterに保存します。ウェブサーバーがOpsCenterにアクセスできるように必要なIAM権限を付与します。 C. Store the database user credentials in a secure Amazon S3 bucket. Grant the necessary IAM permissions to allow the web servers to retrieve credentials and access the database.データベースのユーザー資格情報を安全なAmazon S3バケットに保存します。ウェブサーバーが資格情報を取得し、データベースにアクセスできるように必要なIAM権限を付与します。 D. Store the database user credentials in files encrypted with AWS Key Management Service (AWS KMS) on the web server file system. The web server should be able to decrypt the files and access the database.データベースのユーザー資格情報をAWS Key Management Service (AWS KMS)で暗号化されたファイルとしてウェブサーバーのファイルシステムに保存します。ウェブサーバーはファイルを復号化し、データベースにアクセスできる必要があります。 正解はAです。AWS Secrets Managerは、データベースのユーザー資格情報を安全に保存し、頻繁にローテーションするための最適なソリューションです。ウェブサーバーに必要なIAM権限を付与することで、Secrets Managerにアクセスし、資格情報を取得できます。BのAWS Systems Manager OpsCenterは、主に運用データを管理するためのもので、資格情報の管理には適していません。CのAmazon S3は、資格情報を保存するための安全な方法ではありません。S3バケットは公開される可能性があり、資格情報が漏洩するリスクがあります。DのAWS KMSを使用してファイルを暗号化する方法は、資格情報のローテーションを自動化するのが難しく、セキュリティ要件を満たすことができません。 87 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 87. A company hosts an application on AWS Lambda functions that are invoked by an Amazon API Gateway API. The Lambda functions save customer data to an Amazon Aurora MySQL database. Whenever the company upgrades the database, the Lambda functions fail to establish database connections until the upgrade is complete. The result is that customer data is not recorded for some of the event. A solutions architect needs to design a solution that stores customer data that is created during database upgrades. Which solution will meet these requirements?AWS Lambda関数によって呼び出されるアプリケーションをホストしている会社があります。Lambda関数は顧客データをAmazon Aurora MySQLデータベースに保存します。データベースをアップグレードするたびに、Lambda関数はアップグレードが完了するまでデータベース接続を確立できません。その結果、一部のイベントの顧客データが記録されません。ソリューションアーキテクトは、データベースのアップグレード中に作成される顧客データを保存するソリューションを設計する必要があります。どのソリューションがこれらの要件を満たしますか? A. Provision an Amazon RDS proxy to sit between the Lambda functions and the database. Configure the Lambda functions to connect to the RDS proxy.Lambda関数とデータベースの間にAmazon RDSプロキシを配置します。Lambda関数をRDSプロキシに接続するように設定します。 B. Increase the run time of the Lambda functions to the maximum. Create a retry mechanism in the code that stores the customer data in the database.Lambda関数の実行時間を最大にします。データベースに顧客データを保存するためのリトライメカニズムをコードに作成します。 C. Persist the customer data to Lambda local storage. Configure new Lambda functions to scan the local storage to save the customer data to the database.Lambdaのローカルストレージに顧客データを保存します。ローカルストレージをスキャンしてデータベースに顧客データを保存する新しいLambda関数を設定します。 D. Store the customer data in an Amazon Simple Queue Service (Amazon SQS) FIFO queue. Create a new Lambda function that polls the queue and stores the customer data in the database.Amazon SQS FIFOキューに顧客データを保存します。キューをポーリングしてデータベースに顧客データを保存する新しいLambda関数を作成します。 正解はDです。Amazon SQS FIFOキューを使用して顧客データを保存し、新しいLambda関数を作成してキューをポーリングし、データベースに顧客データを保存します。これにより、データベースのアップグレード中でも顧客データを失うことなく保存できます。Aの選択肢は、RDSプロキシを使用してLambda関数とデータベースの間に配置することを提案していますが、これだけではデータベースのアップグレード中に接続が確立できない問題を解決できません。Bの選択肢は、Lambda関数の実行時間を最大にし、データベースに顧客データを保存するためのリトライメカニズムを作成することを提案していますが、これではデータベースのアップグレード中に接続が確立できない問題を解決できません。Cの選択肢は、Lambdaのローカルストレージに顧客データを保存し、新しいLambda関数を作成してローカルストレージをスキャンし、データベースに顧客データを保存することを提案していますが、これではデータベースのアップグレード中に接続が確立できない問題を解決できません。 88 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 88. A survey company has gathered data for several years from areas in the United States. The company hosts the data in an Amazon S3 bucket that is 3 TB in size and growing. The company has started to share the data with a European marketing firm that has S3 buckets. The company wants to ensure that its data transfer costs remain as low as possible.調査会社は、米国の地域から数年間にわたってデータを収集してきました。同社は、3TBのサイズで増加中のAmazon S3バケットにデータをホストしています。同社は、S3バケットを持つ欧州のマーケティング会社とデータを共有し始めました。同社は、データ転送コストをできるだけ低く抑えたいと考えています。 A. Configure the Requester Pays feature on the company’s S3 bucket.会社のS3バケットにRequester Pays機能を設定する。 B. Configure S3 Cross-Region Replication from the company’s S3 bucket to one of the marketing firm’s S3 buckets.会社のS3バケットからマーケティング会社のS3バケットの1つにS3クロスリージョンレプリケーションを設定する。 C. Configure cross-account access for the marketing firm so that the marketing firm has access to the company’s S3 bucket.マーケティング会社が会社のS3バケットにアクセスできるようにクロスアカウントアクセスを設定する。 D. Configure the company’s S3 bucket to use S3 Intelligent-Tiering. Sync the S3 bucket to one of the marketing firm’s S3 buckets.会社のS3バケットにS3 Intelligent-Tieringを使用するように設定する。S3バケットをマーケティング会社のS3バケットの1つに同期する。 正解はBです。S3クロスリージョンレプリケーションを設定することで、データ転送コストを最小限に抑えることができます。この方法では、データが自動的に指定されたリージョンに複製されるため、手動でのデータ転送やそのコストを削減できます。Aの「Requester Pays」機能は、リクエスト側がコストを負担するため、データ転送コストを削減する目的には適していません。Cの「クロスアカウントアクセス」は、データ転送コストを削減するための解決策ではありません。Dの「S3 Intelligent-Tiering」は、ストレージコストを最適化するための機能であり、データ転送コストを削減するための解決策ではありません。 89 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 89. A company uses Amazon S3 to store its confidential audit documents. The S3 bucket uses bucket policies to restrict access to audit team IAM user credentials according to the principle of least privilege. Company managers are worried about accidental deletion of documents in the S3 bucket and want a more secure solution.企業はAmazon S3を使用して機密監査文書を保存しています。S3バケットは、最小権限の原則に従って監査チームのIAMユーザー資格情報へのアクセスを制限するバケットポリシーを使用しています。会社の管理者は、S3バケット内の文書が誤って削除されることを心配しており、より安全なソリューションを求めています。 A. Enable the versioning and MFA Delete features on the S3 bucket.S3バケットでバージョニングとMFA Delete機能を有効にします。 B. Enable multi-factor authentication (MFA) on the IAM user credentials for each audit team IAM user account.各監査チームのIAMユーザーアカウントのIAMユーザー資格情報に多要素認証(MFA)を有効にします。 C. Add an S3 Lifecycle policy to the audit team’s IAM user accounts to deny the s3:DeleteObject action during audit dates.監査チームのIAMユーザーアカウントにS3ライフサイクルポリシーを追加して、監査日付中にs3:DeleteObjectアクションを拒否します。 D. Use AWS Key Management Service (AWS KMS) to encrypt the S3 bucket and restrict audit team IAM user accounts from accessing the KMS key.AWS Key Management Service(AWS KMS)を使用してS3バケットを暗号化し、監査チームのIAMユーザーアカウントがKMSキーにアクセスできないようにします。 正解はAです。S3バケットでバージョニングとMFA Delete機能を有効にすることで、誤って削除された場合でも以前のバージョンを復元できるため、より安全なソリューションとなります。Bは、IAMユーザー資格情報に多要素認証(MFA)を有効にすることですが、これだけでは誤削除を防ぐことはできません。Cは、監査日付中にs3:DeleteObjectアクションを拒否するS3ライフサイクルポリシーを追加することですが、これは誤削除を防ぐための直接的な解決策ではありません。Dは、AWS Key Management Service(AWS KMS)を使用してS3バケットを暗号化し、監査チームのIAMユーザーアカウントがKMSキーにアクセスできないようにすることですが、これも誤削除を防ぐための直接的な解決策ではありません。 90 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 90. A company is using a SQL database to store movie data that is publicly accessible. The database runs on an Amazon RDS Single-AZ DB instance. A script runs queries at random intervals each day to record the number of new movies that have been added to the database. The script must report a final total during business hours.会社は、公開されている映画データを保存するためにSQLデータベースを使用しています。データベースはAmazon RDS Single-AZ DBインスタンスで実行されています。スクリプトは毎日ランダムな間隔でクエリを実行し、データベースに追加された新しい映画の数を記録します。スクリプトは営業時間中に最終的な合計を報告する必要があります。 A. Modify the DB instance to be a Multi-AZ deployment.DBインスタンスをMulti-AZデプロイメントに変更する。 B. Create a read replica of the database. Configure the script to query only the read replica.データベースの読み取りレプリカを作成する。スクリプトが読み取りレプリカのみをクエリするように設定する。 C. Instruct the development team to manually export the entries in the database at the end of each day.開発チームに毎日データベースのエントリを手動でエクスポートするように指示する。 D. Use Amazon ElastiCache to cache the common queries that the script runs against the database.Amazon ElastiCacheを使用して、スクリプトがデータベースに対して実行する一般的なクエリをキャッシュする。 正解はBです。データベースの読み取りレプリカを作成し、スクリプトが読み取りレプリカのみをクエリするように設定することで、開発タスクのパフォーマンスを向上させることができます。 A. DBインスタンスをMulti-AZデプロイメントに変更することは、高可用性を提供しますが、開発タスクのパフォーマンス問題を直接解決しません。C. 開発チームに毎日データベースのエントリを手動でエクスポートするように指示することは、非効率的であり、自動化されたスクリプトの利点を失います。D. Amazon ElastiCacheを使用してスクリプトが実行する一般的なクエリをキャッシュすることは、特定のクエリのパフォーマンスを向上させることができますが、読み取りレプリカを使用するよりも多くの運用オーバーヘッドがかかります。 91 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 91. A company has applications that run on Amazon EC2 instances in a VPC. One of the applications needs to call the Amazon S3 API to store and read objects. According to the company’s security regulations, no traffic from the applications is allowed to travel across the internet. Which solution will meet these requirements?ある会社は、VPC内のAmazon EC2インスタンス上でアプリケーションを実行しています。そのアプリケーションの1つは、Amazon S3 APIを呼び出してオブジェクトを保存および読み取る必要があります。会社のセキュリティ規制により、アプリケーションからのトラフィックがインターネットを経由することは許可されていません。これらの要件を満たす解決策はどれですか? A. Configure an S3 gateway endpoint.S3ゲートウェイエンドポイントを設定する。 B. Create an S3 bucket in a private subnet.プライベートサブネットにS3バケットを作成する。 C. Create an S3 bucket in the same AWS Region as the EC2 instances.EC2インスタンスと同じAWSリージョンにS3バケットを作成する。 D. Configure a NAT gateway in the same subnet as the EC2 instances.EC2インスタンスと同じサブネットにNATゲートウェイを設定する。 正解はAです。S3ゲートウェイエンドポイントを設定することで、VPC内のEC2インスタンスからS3へのトラフィックがインターネットを経由せずに直接S3にアクセスできるようになります。これにより、セキュリティ規制を満たすことができます。Bの選択肢は、S3バケットをプライベートサブネットに作成しても、インターネットを経由せずにS3にアクセスするための解決策にはなりません。Cの選択肢は、S3バケットをEC2インスタンスと同じAWSリージョンに作成しても、インターネットを経由せずにS3にアクセスするための解決策にはなりません。Dの選択肢は、NATゲートウェイをEC2インスタンスと同じサブネットに設定しても、インターネットを経由せずにS3にアクセスするための解決策にはなりません。 92 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 92. A company is storing sensitive user information in an Amazon S3 bucket. The company wants to provide secure access to this bucket from the application tier running on Amazon EC2 instances inside a VPC.Which combination of steps should a solutions architect take to accomplish this? (Choose two.)ある会社がAmazon S3バケットに機密ユーザー情報を保存しています。この会社は、VPC内のAmazon EC2インスタンスで実行されているアプリケーション層からこのバケットへの安全なアクセスを提供したいと考えています。ソリューションアーキテクトはこれを達成するためにどの組み合わせのステップを取るべきですか?(2つ選択してください。) A. Configure a VPC gateway endpoint for Amazon S3 within the VPC.VPC内にAmazon S3用のVPCゲートウェイエンドポイントを設定します。 B. Create a bucket policy to make the objects in the S3 bucket public.S3バケット内のオブジェクトを公開するバケットポリシーを作成します。 C. Create a bucket policy that limits access to only the application tier running in the VPC.VPC内で実行されているアプリケーション層のみがアクセスできるようにS3バケットのバケットポリシーを作成します。 D. Create an IAM user with an S3 access policy and copy the IAM credentials to the EC2 instance.S3アクセスポリシーを持つIAMユーザーを作成し、IAM資格情報をEC2インスタンスにコピーします。 E. Create a NAT instance and have the EC2 instances use the NAT instance to access the S3 bucket.NATインスタンスを作成し、EC2インスタンスがS3バケットにアクセスするためにNATインスタンスを使用するようにします。 正解はAとCです。A. VPC内にAmazon S3用のVPCゲートウェイエンドポイントを設定します。これにより、VPC内のEC2インスタンスからS3へのプライベートアクセスが可能になります。C. VPC内で実行されているアプリケーション層のみがアクセスできるようにS3バケットのバケットポリシーを作成します。これにより、セキュリティが強化されます。 B. S3バケット内のオブジェクトを公開するバケットポリシーを作成します。これはセキュリティリスクを引き起こすため、適切ではありません。D. S3アクセスポリシーを持つIAMユーザーを作成し、IAM資格情報をEC2インスタンスにコピーします。これはセキュリティ上のベストプラクティスではなく、資格情報の漏洩リスクがあります。E. NATインスタンスを作成し、EC2インスタンスがS3バケットにアクセスするためにNATインスタンスを使用するようにします。これは不要な複雑さを追加し、VPCゲートウェイエンドポイントを使用する方が効率的です。 確認 93 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 93. A company runs an on-premises application that is powered by a MySQL database. The company is migrating the application to AWS to increase the application’s elasticity and availability.現在、MySQLデータベースを使用してオンプレミスでアプリケーションを実行している企業があります。この企業は、アプリケーションの弾力性と可用性を向上させるために、アプリケーションをAWSに移行しています。 A. Use Amazon Aurora MySQL with Multi-AZ Aurora Replicas for production. Populate the staging database by implementing a backup and restore process that uses the mysqldump utility.本番環境にAmazon Aurora MySQL with Multi-AZ Aurora Replicasを使用します。mysqldumpユーティリティを使用したバックアップと復元プロセスを実装して、ステージングデータベースを作成します。 B. Use Amazon Aurora MySQL with Multi-AZ Aurora Replicas for production. Use database cloning to create the staging database on demand.本番環境にAmazon Aurora MySQL with Multi-AZ Aurora Replicasを使用します。データベースのクローニングを使用して、オンデマンドでステージングデータベースを作成します。 C. Use Amazon RDS for MySQL with a Multi-AZ deployment and read replicas for production. Use the standby instance for the staging database.本番環境にAmazon RDS for MySQL with a Multi-AZ deployment and read replicasを使用します。スタンバイインスタンスを使用して、ステージングデータベースを作成します。 D. Use Amazon RDS for MySQL with a Multi-AZ deployment and read replicas for production. Populate the staging database by implementing a backup and restore process that uses the mysqldump utility.本番環境にAmazon RDS for MySQL with a Multi-AZ deployment and read replicasを使用します。mysqldumpユーティリティを使用したバックアップと復元プロセスを実装して、ステージングデータベースを作成します。 正解はBです。Amazon Aurora MySQL with Multi-AZ Aurora Replicasを使用することで、本番環境のデータベースの可用性と弾力性が向上します。さらに、データベースのクローニングを使用してステージングデータベースをオンデマンドで作成することで、ステージング環境の使用を遅らせることなく開発チームが利用できるようになります。他の選択肢について:A. mysqldumpユーティリティを使用したバックアップと復元プロセスでは、ステージングデータベースの作成に時間がかかり、開発チームの作業が遅れる可能性があります。C. スタンバイインスタンスを使用すると、ステージング環境のデータベースが本番環境のデータベースと同一の状態になるため、開発チームがステージング環境を自由に使用できなくなります。D. mysqldumpユーティリティを使用したバックアップと復元プロセスでは、ステージングデータベースの作成に時間がかかり、開発チームの作業が遅れる可能性があります。 94 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 94. A company is designing an application where users upload small files into Amazon S3. After a user uploads a file, the file requires one-time simple processing to transform the data and save the data in JSON format for later analysis. Each file must be processed as quickly as possible after it is uploaded. Demand will vary. On some days, users will upload a high number of files. On other days, users will upload a few files or no files. Which solution meets these requirements with the LEAST operational overhead?ある会社が、ユーザーが小さなファイルをAmazon S3にアップロードするアプリケーションを設計しています。ユーザーがファイルをアップロードした後、そのファイルは一度だけ簡単な処理を行い、データを変換してJSON形式で保存し、後で分析する必要があります。各ファイルはアップロード後できるだけ早く処理される必要があります。需要は変動します。ある日はユーザーが多くのファイルをアップロードし、他の日はユーザーが少数のファイルをアップロードするか、全くアップロードしないこともあります。これらの要件を最も少ない運用負荷で満たすソリューションはどれですか? A. Configure Amazon EMR to read text files from Amazon S3. Run processing scripts to transform the data. Store the resulting JSON file in an Amazon Aurora DB cluster.Amazon EMRを設定してAmazon S3からテキストファイルを読み取り、処理スクリプトを実行してデータを変換します。結果のJSONファイルをAmazon Aurora DBクラスターに保存します。 B. Configure Amazon S3 to send an event notification to an Amazon Simple Queue Service (Amazon SQS) queue. Use Amazon EC2 instances to read from the queue and process the data. Store the resulting JSON file in Amazon DynamoDB.Amazon S3を設定してイベント通知をAmazon SQSキューに送信します。Amazon EC2インスタンスを使用してキューからデータを読み取り、処理を行います。結果のJSONファイルをAmazon DynamoDBに保存します。 C. Configure Amazon S3 to send an event notification to an Amazon Simple Queue Service (Amazon SQS) queue. Use an AWS Lambda function to read from the queue and process the data. Store the resulting JSON file in Amazon DynamoDB.Amazon S3を設定してイベント通知をAmazon SQSキューに送信します。AWS Lambda関数を使用してキューからデータを読み取り、処理を行います。結果のJSONファイルをAmazon DynamoDBに保存します。 D. Configure Amazon EventBridge (Amazon CloudWatch Events) to send an event to Amazon Kinesis Data Streams when a new file is uploaded. Use an AWS Lambda function to consume the event from the stream and process the data. Store the resulting JSON file in an Amazon Aurora DB cluster.Amazon EventBridge (Amazon CloudWatch Events) を設定して、新しいファイルがアップロードされたときにイベントをAmazon Kinesis Data Streamsに送信します。AWS Lambda関数を使用してストリームからイベントを消費し、データを処理します。結果のJSONファイルをAmazon Aurora DBクラスターに保存します。 正解はCです。Amazon S3がイベント通知をAmazon SQSキューに送信し、AWS Lambda関数がキューからデータを読み取り、処理を行い、結果のJSONファイルをAmazon DynamoDBに保存するというソリューションが、最も少ない運用負荷で要件を満たします。 Aのオプションは、Amazon EMRを使用してテキストファイルを読み取り、処理スクリプトを実行してデータを変換し、結果のJSONファイルをAmazon Aurora DBクラスターに保存するというものです。これは、EMRクラスターの管理と運用負荷が高いため、最適ではありません。 Bのオプションは、Amazon S3がイベント通知をAmazon SQSキューに送信し、Amazon EC2インスタンスがキューからデータを読み取り、処理を行い、結果のJSONファイルをAmazon DynamoDBに保存するというものです。EC2インスタンスの管理と運用負荷が高いため、最適ではありません。 Dのオプションは、Amazon EventBridge (Amazon CloudWatch Events) が新しいファイルがアップロードされたときにイベントをAmazon Kinesis Data Streamsに送信し、AWS Lambda関数がストリームからイベントを消費してデータを処理し、結果のJSONファイルをAmazon Aurora DBクラスターに保存するというものです。Kinesis Data Streamsの管理と運用負荷が高いため、最適ではありません。 95 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 95. An application allows users at a company’s headquarters to access product data. The product data is stored in an Amazon RDS MySQL DB instance. The operations team has isolated an application performance slowdown and wants to separate read traffic from write traffic. A solutions architect needs to optimize the application’s performance quickly.あるアプリケーションでは、本社のユーザーが製品データにアクセスできます。製品データはAmazon RDS MySQL DBインスタンスに保存されています。運用チームはアプリケーションのパフォーマンス低下を特定し、読み取りトラフィックと書き込みトラフィックを分離したいと考えています。ソリューションアーキテクトは、アプリケーションのパフォーマンスを迅速に最適化する必要があります。 A. Change the existing database to a Multi-AZ deployment. Serve the read requests from the primary Availability Zone.既存のデータベースをマルチAZデプロイメントに変更します。読み取りリクエストをプライマリアベイラビリティゾーンから提供します。 B. Change the existing database to a Multi-AZ deployment. Serve the read requests from the secondary Availability Zone.既存のデータベースをマルチAZデプロイメントに変更します。読み取りリクエストをセカンダリアベイラビリティゾーンから提供します。 C. Create read replicas for the database. Configure the read replicas with half of the compute and storage resources as the source database.データベースの読み取りレプリカを作成します。読み取りレプリカをソースデータベースの半分の計算およびストレージリソースで構成します。 D. Create read replicas for the database. Configure the read replicas with the same compute and storage resources as the source database.データベースの読み取りレプリカを作成します。読み取りレプリカをソースデータベースと同じ計算およびストレージリソースで構成します。 正解はDです。読み取りレプリカを作成し、ソースデータベースと同じ計算およびストレージリソースで構成することで、読み取りトラフィックを分散させ、アプリケーションのパフォーマンスを最適化できます。他の選択肢の誤り:A: マルチAZデプロイメントに変更しても、読み取りリクエストはプライマリAZから提供されるため、読み取りトラフィックの分離にはなりません。B: マルチAZデプロイメントに変更し、セカンダリAZから読み取りリクエストを提供することは、読み取りトラフィックの分離にはなりますが、レプリカのリソースがソースデータベースと同じでないため、最適な解決策ではありません。C: 読み取りレプリカを作成し、ソースデータベースの半分の計算およびストレージリソースで構成することは、リソースが不十分で、パフォーマンスの最適化にはなりません。 96 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 96. A company has a large Microsoft SharePoint deployment running on-premises that requires Microsoft Windows shared file storage. The company wants to migrate this workload to the AWS Cloud and is considering various storage options. The storage solution must be highly available and integrated with Active Directory for access control.どのソリューションがこれらの要件を満たしますか? A. Configure Amazon EFS storage and set the Active Directory domain for authentication.Amazon EFSストレージを設定し、認証のためにActive Directoryドメインを設定します。 B. Create an SMB file share on an AWS Storage Gateway file gateway in two Availability Zones.2つのアベイラビリティーゾーンでAWS Storage GatewayファイルゲートウェイにSMBファイル共有を作成します。 C. Create an Amazon S3 bucket and Configure Microsoft Windows Server to mount it as a volume.Amazon S3バケットを作成し、Microsoft Windows Serverを設定してボリュームとしてマウントします。 D. Create an Amazon FSx for Windows File Server file system on AWS and set the Active Directory domain for authentication.AWS上にAmazon FSx for Windows File Serverファイルシステムを作成し、認証のためにActive Directoryドメインを設定します。 正解はDです。Amazon FSx for Windows File Serverは、Windowsファイルサーバーに最適化されたストレージソリューションで、Active Directoryとの統合が可能です。これにより、アクセス制御が容易になり、高可用性も提供されます。他のオプションは以下の理由で不適切です:A. Amazon EFSはLinuxベースのファイルシステムであり、Windows共有ファイルストレージには適していません。B. AWS Storage Gatewayのファイルゲートウェイは、オンプレミス環境との統合に適していますが、高可用性を提供するためには追加の設定が必要です。C. Amazon S3はオブジェクトストレージであり、Windowsファイルサーバーとして直接マウントするには適していません。 97 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 97. An image-processing company has a web application that users use to upload images. The application uploads the images into an Amazon S3 bucket. The company has set up S3 event notifications to publish the object creation events to an Amazon Simple Queue Service (Amazon SQS) standard queue. The SQS queue serves as the event source for an AWS Lambda function that processes the images and sends the results to users through email.ユーザーが画像をアップロードするために使用するWebアプリケーションを持つ画像処理会社があります。アプリケーションは画像をAmazon S3バケットにアップロードします。会社は、オブジェクト作成イベントをAmazon Simple Queue Service(Amazon SQS)標準キューに公開するためにS3イベント通知を設定しました。SQSキューは、画像を処理し、結果をユーザーにメールで送信するAWS Lambda関数のイベントソースとして機能します。 A. Set up long polling in the SQS queue by increasing the ReceiveMessage wait time to 30 seconds.SQSキューで長いポーリングを設定し、ReceiveMessageの待機時間を30秒に増やします。 B. Change the SQS standard queue to an SQS FIFO queue. Use the message deduplication ID to discard duplicate messages.SQS標準キューをSQS FIFOキューに変更します。メッセージの重複IDを使用して重複メッセージを破棄します。 C. Increase the visibility timeout in the SQS queue to a value that is greater than the total of the function timeout and the batch window timeout.SQSキューの可視性タイムアウトを、関数のタイムアウトとバッチウィンドウのタイムアウトの合計よりも大きい値に増やします。 D. Modify the Lambda function to delete each message from the SQS queue immediately after the message is read before processing.Lambda関数を変更して、メッセージが読み取られた直後にSQSキューからメッセージを削除します。 ユーザーがアップロードした画像に対して複数のメールメッセージを受け取っていると報告されています。ソリューションアーキテクトは、SQSメッセージがLambda関数を複数回呼び出し、その結果、複数のメールメッセージが送信されていることを確認しました。この問題を解決するために、ソリューションアーキテクトは、SQSキューの可視性タイムアウトを、関数のタイムアウトとバッチウィンドウのタイムアウトの合計よりも大きい値に増やす必要があります。これにより、Lambda関数がメッセージを処理している間に他のLambda関数が同じメッセージを処理しないようにすることができます。他のオプションは以下の理由で適切ではありません:A. SQSキューで長いポーリングを設定しても、メッセージの重複処理を防ぐことはできません。B. SQS標準キューをSQS FIFOキューに変更しても、メッセージの重複処理を防ぐことはできません。D. Lambda関数がメッセージを読み取った直後にSQSキューからメッセージを削除しても、メッセージの重複処理を防ぐことはできません。 98 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 98. A company is implementing a shared storage solution for a gaming application that is hosted in an on-premises data center. The company needs the ability to use Lustre clients to access data. The solution must be fully managed.会社は、オンプレミスのデータセンターでホストされているゲームアプリケーションのための共有ストレージソリューションを実装しています。会社は、Lustreクライアントを使用してデータにアクセスする機能が必要です。ソリューションは完全に管理されている必要があります。 A. Create an AWS Storage Gateway file gateway. Create a file share that uses the required client protocol. Connect the application server to the file share.AWS Storage Gatewayファイルゲートウェイを作成します。必要なクライアントプロトコルを使用するファイル共有を作成します。アプリケーションサーバーをファイル共有に接続します。 B. Create an Amazon EC2 Windows instance. Install and Configure a Windows file share role on the instance. Connect the application server to the file share.Amazon EC2 Windowsインスタンスを作成します。インスタンスにWindowsファイル共有ロールをインストールして設定します。アプリケーションサーバーをファイル共有に接続します。 C. Create an Amazon Elastic File System (Amazon EFS) file system, and Configure it to support Lustre. Attach the file system to the origin server. Connect the application server to the file system.Amazon Elastic File System (Amazon EFS) ファイルシステムを作成し、Lustreをサポートするように設定します。ファイルシステムをオリジンサーバーに接続します。アプリケーションサーバーをファイルシステムに接続します。 D. Create an Amazon FSx for Lustre file system. Attach the file system to the origin server. Connect the application server to the file system.Amazon FSx for Lustreファイルシステムを作成します。ファイルシステムをオリジンサーバーに接続します。アプリケーションサーバーをファイルシステムに接続します。 正解はDです。Amazon FSx for Lustreは、Lustreクライアントを使用してデータにアクセスするための完全に管理されたファイルシステムを提供します。 AのAWS Storage Gatewayファイルゲートウェイは、Lustreクライアントをサポートしていません。BのAmazon EC2 Windowsインスタンスは、Windowsファイル共有ロールをインストールして設定する必要があり、完全に管理されたソリューションではありません。CのAmazon Elastic File System (Amazon EFS) は、Lustreをサポートしていません。 99 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 99. A company’s containerized application runs on an Amazon EC2 instance. The application needs to download security certificates before it can communicate with other business applications. The company wants a highly secure solution to encrypt and decrypt the certificates in near real time. The solution also needs to store data in highly available storage after the data is encrypted.どのソリューションがこれらの要件を最小の運用オーバーヘッドで満たすでしょうか? A. Create AWS Secrets Manager secrets for encrypted certificates. Manually update the certificates as needed. Control access to the data by using fine-grained IAM access.暗号化された証明書のためのAWS Secrets Managerシークレットを作成します。必要に応じて手動で証明書を更新します。IAMアクセスを使用してデータへのアクセスを制御します。 B. Create an AWS Lambda function that uses the Python cryptography library to receive and perform encryption operations. Store the function in an Amazon S3 bucket.Python暗号化ライブラリを使用して暗号化操作を受信および実行するAWS Lambda関数を作成します。関数をAmazon S3バケットに保存します。 C. Create an AWS Key Management Service (AWS KMS) customer managed key. Allow the EC2 role to use the KMS key for encryption operations. Store the encrypted data on Amazon S3.AWS Key Management Service (AWS KMS) カスタマー管理キーを作成します。EC2ロールにKMSキーを使用して暗号化操作を許可します。暗号化されたデータをAmazon S3に保存します。 D. Create an AWS Key Management Service (AWS KMS) customer managed key. Allow the EC2 role to use the KMS key for encryption operations. Store the encrypted data on Amazon Elastic Block Store (Amazon EBS) volumes.AWS Key Management Service (AWS KMS) カスタマー管理キーを作成します。EC2ロールにKMSキーを使用して暗号化操作を許可します。暗号化されたデータをAmazon Elastic Block Store (Amazon EBS) ボリュームに保存します。 正解はCです。AWS Key Management Service (AWS KMS) カスタマー管理キーを作成し、EC2ロールにKMSキーを使用して暗号化操作を許可し、暗号化されたデータをAmazon S3に保存することが、高セキュリティで高可用性のストレージを提供し、運用オーバーヘッドを最小限に抑える最適なソリューションです。 他の選択肢の誤り:A: AWS Secrets Managerを使用して暗号化された証明書を作成し、必要に応じて手動で更新する方法は、運用オーバーヘッドが高くなります。B: AWS Lambda関数を使用して暗号化操作を行う方法は、S3バケットに保存するため、高可用性のストレージ要件を満たしません。D: Amazon EBSボリュームに暗号化されたデータを保存する方法は、高可用性のストレージ要件を満たしません。 100 / 100 カテゴリー: SAA-C03(AWS 認定ソリューションアーキテクト – アソシエイト) 100. A solutions architect is designing a VPC with public and private subnets. The VPC and subnets use IPv4 CIDR blocks. There is one public subnet and one private subnet in each of three Availability Zones (AZs) for high availability. An internet gateway is used to provide internet access for the public subnets. The private subnets require access to the internet to allow Amazon EC2 instances to download software updates.ソリューションアーキテクトは、パブリックサブネットとプライベートサブネットを持つVPCを設計しています。VPCとサブネットはIPv4 CIDRブロックを使用しています。高可用性のために、3つのアベイラビリティーゾーン(AZ)ごとに1つのパブリックサブネットと1つのプライベートサブネットがあります。インターネットゲートウェイは、パブリックサブネットにインターネットアクセスを提供するために使用されます。プライベートサブネットは、Amazon EC2インスタンスがソフトウェア更新をダウンロードできるようにインターネットアクセスを必要としています。 A. Create three NAT gateways, one for each public subnet in each AZ. Create a private route table for each AZ that forwards non-VPC traffic to the NAT gateway in its AZ.各AZのパブリックサブネットごとに1つずつ、合計3つのNATゲートウェイを作成します。各AZのプライベートルートテーブルを作成し、非VPCトラフィックをそのAZのNATゲートウェイに転送します。 B. Create three NAT instances, one for each private subnet in each AZ. Create a private route table for each AZ that forwards non-VPC traffic to the NAT instance in its AZ.各AZのプライベートサブネットごとに1つずつ、合計3つのNATインスタンスを作成します。各AZのプライベートルートテーブルを作成し、非VPCトラフィックをそのAZのNATインスタンスに転送します。 C. Create a second internet gateway on one of the private subnets. Update the route table for the private subnets that forward non-VPC traffic to the private internet gateway.プライベートサブネットの1つに2つ目のインターネットゲートウェイを作成します。プライベートサブネットのルートテーブルを更新して、非VPCトラフィックをプライベートインターネットゲートウェイに転送します。 D. Create an egress-only internet gateway on one of the public subnets. Update the route table for the private subnets that forward non-VPC traffic to the egress-only Internet gateway.パブリックサブネットの1つにegress-onlyインターネットゲートウェイを作成します。プライベートサブネットのルートテーブルを更新して、非VPCトラフィックをegress-onlyインターネットゲートウェイに転送します。 正解はAです。各AZに1つずつ、合計3つのNATゲートウェイを作成し、各AZのプライベートルートテーブルを更新して、非VPCトラフィックをそのAZのNATゲートウェイに転送する必要があります。Bの選択肢は、NATインスタンスを使用することを提案していますが、NATゲートウェイの方が管理が容易で、スケーラビリティが高いため、推奨されません。Cの選択肢は、プライベートサブネットに2つ目のインターネットゲートウェイを作成することを提案していますが、これはセキュリティ上のリスクがあり、推奨されません。Dの選択肢は、egress-onlyインターネットゲートウェイを使用することを提案していますが、これはIPv6トラフィックのみを対象としており、このシナリオでは適切ではありません。 あなたのスコアは平均スコアは 0% 0% クイズを再開する 評価フォーム 匿名フィードバック ご評価ありがとうございます。 フィードバックを送信する 作成者 WordPress Quiz plugin 本文のリンク:https://www.matsuhana.com/2025/03/saa-c03-%e5%95%8f%e9%a1%8c%e9%9b%86no-1-100-aws-%e8%aa%8d%e5%ae%9a%e3%82%bd%e3%83%aa%e3%83%a5%e3%83%bc%e3%82%b7%e3%83%a7%e3%83%b3%e3%82%a2%e3%83%bc%e3%82%ad%e3%83%86%e3%82%af%e3%83%88-%e3%82%a2/,転載禁止です。 0 0
コメント0