無料DBS 問題集No.1-100 (Amazon AWS Certified Database – Specialty)

日英二つ言語付き、各選択解析付き、最新問題追加中
0%
0 投票, 0 平均
0

Report a question

You cannot submit an empty report. Please add some details.

DBS

Amazon AWS Certified Database – Specialty

DBS 問題集No.1-100 (Amazon AWS Certified Database – Specialty)

日英二つ言語付き DBS 問題集No.1-100 (Amazon AWS Certified Database – Specialty)

1 / 100

カテゴリー: DBS

1. 1. A data engineer is about to perform a major upgrade to the DDL contained within an Amazon Redshift cluster to support a new data warehouse application. The upgrade scripts will include user permission updates, view and table structure changes as well as additional loading and data manipulation tasks. The data engineer must be able to restore the database to its existing state in the event of issues. Which action should be taken prior to performing this upgrade task?

1. データエンジニアは、新しいデータウェアハウスアプリケーションをサポートするために、Amazon Redshift クラスター内のDDLに対して大規模なアップグレードを実行しようとしています。アップグレードスクリプトには、ユーザー権限の更新、ビューおよびテーブル構造の変更、さらに追加のロードおよびデータ操作タスクが含まれます。データエンジニアは、問題が発生した場合にデータベースを既存の状態に復元できる必要があります。このアップグレードタスクを実行する前にどのような対策を取るべきですか?

2 / 100

カテゴリー: DBS

2. 2. The department of transportation for a major metropolitan area has placed sensors on roads at key locations around the city. The goal is to analyze the flow of traffic and notifications from emergency services to identify potential issues and to help planners correct trouble spots. A data engineer needs a scalable and fault-tolerant solution that allows planners to respond to issues within 30 seconds of their occurrence. Which solution should the data engineer choose?

2. 大都市圏の交通部門は、市内の重要な場所に道路センサーを設置しました。

目的は、交通の流れや緊急サービスからの通知を分析して、潜在的な問題を特定し、計画者が問題箇所を修正できるよう支援することです。

データエンジニアは、計画者が問題発生から30秒以内に対応できるような、スケーラブルで耐障害性のあるソリューションを必要としています。

データエンジニアは、どのソリューションを選ぶべきですか?

3 / 100

カテゴリー: DBS

3. 3. An Amazon Redshift Database is encrypted using KMS. A data engineer needs to use the AWS CLI to create a KMS encrypted snapshot of the database in another AWS region. Which three steps should the data engineer take to accomplish this task? (Choose three.)
3. Amazon RedshiftデータベースはKMSを使用して暗号化されています。データエンジニアは、AWS CLIを使用して、別のAWSリージョンにあるデータベースのKMSで暗号化されたスナップショットを作成する必要があります。このタスクを達成するために、データエンジニアが実行すべき3つの手順はどれですか?(3つ選んでください。)

4 / 100

カテゴリー: DBS

4. 4. You have two different groups using Redshift to analyze data of a petabyte-scale data warehouse. Each query issued by the first group takes approximately 1-2 hours to analyze the data while the second group’s queries only take between 5-10 minutes to analyze data. You don’t want the second group’s queries to wait until the first group’s queries are finished. You need to design a solution so that this does not happen. Which of the following would be the best and cheapest solution to deploy to solve this dilemma?
4. あなたは、ペタバイト規模のデータウェアハウスのデータを分析するためにRedshiftを使用している2つの異なるグループを持っています。最初のグループが発行する各クエリは、データを分析するのに約1〜2時間かかりますが、2番目のグループのクエリはデータの分析にわずか5〜10分しかかかりません。あなたは、2番目のグループのクエリが最初のグループのクエリが完了するまで待つことを望んでいません。これが起こらないように解決策を設計する必要があります。このジレンマを解決するために最適で最も安価な解決策はどれですか?

5 / 100

カテゴリー: DBS

5. 5. A telecommunications company needs to predict customer churn (i.e., customers who decide to switch to a competitor). The company has historic records of each customer, including monthly consumption patterns, calls to customer service, and whether the customer ultimately quit the service. All of this data is stored in Amazon S3. The company needs to know which customers are likely going to churn soon so that they can win back their loyalty. What is the optimal approach to meet these requirements?

5. 通信会社は顧客の解約(つまり、競合他社に乗り換えることを決定した顧客)を予測する必要があります。会社は各顧客の履歴記録を持っており、これには月々の消費パターン、カスタマーサービスへの電話、そして顧客が最終的にサービスを解約したかどうかが含まれています。これらすべてのデータはAmazon S3に保存されています。会社は、どの顧客が今後解約する可能性が高いかを知り、顧客の忠誠心を取り戻すための手段を講じたいと考えています。この要件を満たすための最適なアプローチは何ですか?

6 / 100

カテゴリー: DBS

6. 6. Your social media marketing application has a component written in Ruby running on AWS Elastic Beanstalk. This application component posts messages to social media sites in support of various marketing campaigns. Your management now requires you to record replies to these social media messages to analyze the effectiveness of the marketing campaign in comparison to past and future efforts. You’ve already developed a new application component to interface with the social media site APIs in order to read the replies. Which process should you use to record the social media replies in a durable data store that can be accessed at any time for analytics of historical data?
6. あなたのソーシャルメディアマーケティングアプリケーションには、AWS Elastic Beanstalkで動作するRubyで書かれたコンポーネントがあります。このアプリケーションコンポーネントは、さまざまなマーケティングキャンペーンのサポートとして、ソーシャルメディアサイトにメッセージを投稿します。経営陣は、これらのソーシャルメディアメッセージへの返信を記録し、過去および将来の取り組みに対するマーケティングキャンペーンの効果を分析することを求めています。あなたはすでに、返信を読み取るためにソーシャルメディアサイトAPIとインターフェースを取る新しいアプリケーションコンポーネントを開発しています。どのプロセスを使用して、ソーシャルメディアの返信を耐久性のあるデータストアに記録し、いつでも履歴データの分析のためにアクセスできるようにすべきですか?

7 / 100

カテゴリー: DBS

7. 7. An organization needs to design and deploy a large-scale data storage solution that will be highly durable and highly flexible with respect to the type and structure of data being stored. The data to be stored will be sent or generated from a variety of sources and must be persistently available for access and processing by multiple applications. What is the most cost-effective technique to meet these requirements?

7. 組織は、保存されるデータの種類と構造に関して非常に耐久性があり、非常に柔軟な大規模なデータストレージソリューションを設計し、展開する必要があります。保存されるデータはさまざまなソースから送信または生成され、複数のアプリケーションによってアクセスおよび処理されるため、永続的に利用可能でなければなりません。これらの要件を満たすための最もコスト効果の高い技術は何ですか?

8 / 100

カテゴリー: DBS

8. 8. You have been asked to handle a large data migration from multiple Amazon RDS MySQL instances to a DynamoDB table. You have been given a short amount of time to complete the data migration. What will allow you to complete this complex data processing workflow?

8. あなたは複数のAmazon RDS MySQLインスタンスからDynamoDBテーブルへの大規模なデータ移行を担当するように頼まれました。データ移行を完了するための時間は限られています。この複雑なデータ処理ワークフローを完了するために何が必要ですか?

9 / 100

カテゴリー: DBS

9. 9. A retailer exports data daily from its transactional databases into an S3 bucket in the Sydney region. The retailer’s Data Warehousing team wants to import this data into an existing Amazon Redshift cluster in their VPC at Sydney. Corporate security policy mandates that data can only be transported within a VPC. What combination of the following steps will satisfy the security policy? Choose 2 answers

9. 小売業者は、取引データベースから毎日データをエクスポートし、シドニーリージョンのS3バケットに保存しています。小売業者のデータウェアハウジングチームは、このデータをシドニーのVPC内にある既存のAmazon Redshiftクラスターにインポートしたいと考えています。企業のセキュリティポリシーにより、データはVPC内でのみ転送できることが義務付けられています。セキュリティポリシーを満たすためには、次の手順の組み合わせが必要ですか? 2つの回答を選んでください。

10 / 100

カテゴリー: DBS

10. 10. You have an application that is currently in the development stage but is expected to write 2,400 items per minute to a DynamoDB table, each 2Kb in size or less and then fluctuate to 4,800 writes of items (of the same size) per minute on weekends. There may be other fluctuations within that range in the future as the application develops. It is important to the success of the application that the vast majority of user requests are met in a cost-effective way. How should this table be created?
10. 現在開発段階にあるアプリケーションがあり、DynamoDBテーブルに対して、現在1分間に2,400件のアイテム(各2Kb以下)を書き込むことが予想され、その後、週末には1分間に4,800件のアイテム(同じサイズ)を書き込むように変動する予定です。アプリケーションの開発が進むにつれて、その範囲内でさらに変動があるかもしれません。アプリケーションの成功には、ユーザーの大多数のリクエストがコスト効率よく処理されることが重要です。このテーブルはどのように作成すべきでしょうか?

11 / 100

カテゴリー: DBS

11. 11. Your company recently purchased five different companies that run different backend databases that include Redshift, MySQL, Hive on EMR and PostgreSQL. You need a single tool that can run queries on all the different platform for your daily ad-hoc analysis. Which tool enables you to do that?
11. あなたの会社は最近、Redshift、MySQL、Hive on EMR、PostgreSQLなど、異なるバックエンドデータベースを運営する5つの異なる企業を買収しました。
あなたは、日常的なアドホック分析のために、すべての異なるプラットフォームでクエリを実行できる単一のツールが必要です。
どのツールがそれを可能にしますか?

12 / 100

カテゴリー: DBS

12. 12. A company has lot of web applications, databases and data warehouse built on Teradata, NoSQL databases, and other types of data stores. They have lot of data assets in terms of logs, documents; excel files, CSV files, PDF documents and others. Web Application has different user workloads at different parts of the day. They are running one of their web application Node.js supported by MongoDB Database. The schema designed is document based. The team wants to migrate the platform on to AWS. Which NoSQL Managed service provides the document management capability?

12. ある企業は、Teradata、NoSQLデータベース、およびその他のタイプのデータストアを基盤とする多くのWebアプリケーション、データベース、データウェアハウスを持っています。彼らは、ログ、ドキュメント、Excelファイル、CSVファイル、PDFドキュメントなど、多くのデータ資産を所有しています。Webアプリケーションは、1日の中で異なる時間帯に異なるユーザー負荷を抱えています。彼らは、MongoDBデータベースをサポートするNode.jsのWebアプリケーションの1つを運用しています。設計されたスキーマは、ドキュメントベースです。チームは、このプラットフォームをAWSに移行したいと考えています。どのNoSQLマネージドサービスがドキュメント管理機能を提供していますか?

13 / 100

カテゴリー: DBS

13. 13. An International company has deployed a multi-tier web application that relies on DynamoDB in a single region. For regulatory reasons they need disaster recovery capability in a separate region with a Recovery Time Objective of 2 hours and a Recovery Point Objective of 24 hours. They should synchronize their data on a regular basis and be able to provision the web application rapidly using CloudFormation. The objective is to minimize changes to the existing web application, control the throughput of DynamoDB used for the synchronization of data and synchronize only the modified elements. Which design would you choose to meet these requirements?

13. ある国際的な企業が、DynamoDBを単一のリージョンで使用するマルチティアのウェブアプリケーションを展開しています。規制上の理由から、別のリージョンに災害復旧機能を必要としており、回復時間目標(RTO)は2時間、回復時点目標(RPO)は24時間です。データを定期的に同期し、CloudFormationを使用して迅速にウェブアプリケーションをプロビジョニングできる必要があります。目的は、既存のウェブアプリケーションへの変更を最小限に抑え、データの同期に使用されるDynamoDBのスループットを制御し、変更された要素のみを同期することです。この要件を満たすためにどの設計を選択しますか?

14 / 100

カテゴリー: DBS

14. 14. You work for a start-up that tracks commercial delivery trucks via GPS. You receive coordinates that are transmitted from each delivery truck once every 6 seconds. You need to process these coordinates in real-time from multiple sources and load them into Elasticsearch without significant technical overhead to maintain. Which tool should you use to digest the data?
14. あなたはGPSを使用して商業用配達トラックを追跡するスタートアップで働いています。
あなたは、各配達トラックから6秒ごとに送信される座標を受け取ります。
これらの座標を複数のソースからリアルタイムで処理し、メンテナンスのために大きな技術的オーバーヘッドなしでElasticsearchにロードする必要があります。
データを処理するためにどのツールを使用すべきですか?

15 / 100

カテゴリー: DBS

15. 15. A solutions architect works for a company that has a data lake based on a central Amazon S3 bucket. The data contains sensitive information. The architect must be able to specify exactly which files each user can access. Users access the platform through a SAML federation Single Sign On platform. The architect needs to build a solution that allows fine grained access control, traceability of access to the objects, and usage of the standard tools (AWS Console, AWS CLI) to access the data. Which solution should the architect build?
15. ソリューションアーキテクトは、中央のAmazon S3バケットに基づいたデータレイクを持つ企業で働いています。データには機密情報が含まれています。アーキテクトは、各ユーザーがアクセスできるファイルを正確に指定できる必要があります。ユーザーは、SAMLフェデレーションシングルサインオンプラットフォームを通じてプラットフォームにアクセスします。アーキテクトは、細かいアクセス制御、オブジェクトへのアクセスのトレーサビリティ、標準ツール(AWSコンソール、AWS CLI)を使用してデータにアクセスするソリューションを構築する必要があります。アーキテクトはどのようなソリューションを構築すべきでしょうか?

16 / 100

カテゴリー: DBS

16. 16. A mobile application collects data that must be stored in multiple Availability Zones within five minutes of being captured in the app. What architecture securely meets these requirements?
16. モバイルアプリケーションは、アプリ内でキャプチャされてから5分以内に複数のアベイラビリティゾーンにデータを保存する必要があります。これらの要件を安全に満たすアーキテクチャは何ですか?

17 / 100

カテゴリー: DBS

17. 17. You are using QuickSight to identify demand trends over multiple months for your top five product lines. Which type of visualization do you choose?

17. あなたはQuickSightを使用して、トップ5の製品ラインの需要のトレンドを数ヶ月にわたって特定しています。どの種類の視覚化を選択しますか?

18 / 100

カテゴリー: DBS

18. 18. A company is storing data on Amazon Simple Storage Service (S3). The company’s security policy mandates that data be encrypted at rest. Which of the following methods can achieve this? Choose 3 answers
18. ある会社がAmazon Simple Storage Service(S3)にデータを保存しています。この会社のセキュリティポリシーでは、データは静止時に暗号化される必要があります。次のうち、どの方法がこれを達成できますか? 3つの回答を選んでください。

19 / 100

カテゴリー: DBS

19. 19. A company that provides economics data dashboards needs to be able to develop software to display rich, interactive, data-driven graphics that run in web browsers and leverages the full stack of web standards (HTML, SVG, and CSS). Which technology provides the most appropriate support for this requirements?
19. 経済データダッシュボードを提供する企業は、ウェブブラウザで実行され、ウェブ標準(HTML、SVG、CSS)のフルスタックを活用する、リッチでインタラクティブなデータ駆動型グラフィックスを表示するソフトウェアを開発できる必要があります。この要求に最も適切なサポートを提供する技術はどれですか?

20 / 100

カテゴリー: DBS

20. 20. An enterprise customer is migrating to Redshift and is considering using dense storage nodes in its Redshift cluster. The customer wants to migrate 50 TB of data. The customer’s query patterns involve performing many joins with thousands of rows. The customer needs to know how many nodes are needed in its target Redshift cluster. The customer has a limited budget and needs to avoid performing tests unless absolutely needed. Which approach should this customer use?
20. 企業顧客はRedshiftへの移行を行っており、Redshiftクラスタ内で密なストレージノードを使用することを検討しています。顧客は50TBのデータを移行したいと考えています。顧客のクエリパターンは、数千行の結合を多く行うことを含んでいます。顧客は、ターゲットRedshiftクラスタに必要なノードの数を知る必要があります。顧客には限られた予算があり、絶対に必要でない限りテストを避ける必要があります。この顧客はどのアプローチを使用すべきですか?

21 / 100

カテゴリー: DBS

21. 21. ABCD has developed a sensor intended to be placed inside of people’s shoes, monitoring the number of steps taken every day. ABCD is expecting thousands of sensors reporting in every minute and hopes to scale to millions by the end of the year. A requirement for the project is it needs to be able to accept the data, run it through ETL to store in warehouse and archive it on Amazon Glacier, with room for a real-time dashboard for the sensor data to be added at a later date. What is the best method for architecting this application given the requirements? Choose the correct answer:

21. ABCDは、人々の靴の中に設置されることを意図したセンサーを開発しました。このセンサーは、毎日歩いたステップ数を監視します。ABCDは、毎分何千ものセンサーからのデータ報告を期待しており、年末までに数百万のセンサーにスケールアップすることを目指しています。このプロジェクトの要件は、データを受け入れ、ETLを通してそれを処理してウェアハウスに保存し、Amazon Glacierにアーカイブし、後日センサーデータのためのリアルタイムダッシュボードを追加できるようにすることです。この要件を満たすためのアーキテクチャの最適な方法は何ですか? 正しい答えを選んでください。

22 / 100

カテゴリー: DBS

22. 22. You need to visualize data from Spark and Hive running on an EMR cluster. Which of the options is best for an interactive and collaborative notebook for data exploration?

22. あなたは、EMRクラスタ上で実行されているSparkとHiveからデータを可視化する必要があります。データ探索のためのインタラクティブで共同作業ができるノートブックに最適なオプションはどれですか?

23 / 100

カテゴリー: DBS

23. 23. Your company needs to design a data warehouse for a client in the retail industry. The data warehouse will store historic purchases in Amazon Redshift. To comply with PCI:DSS requirements and meet data protection standards, the data must be encrypted at rest and have keys managed by a corporate on-premises HSM. How can you meet these requirements in a cost-effective manner?
23. あなたの会社は、小売業界のクライアントのためにデータウェアハウスを設計する必要があります。
データウェアハウスは、Amazon Redshiftに履歴購入データを保存します。
PCI:DSSの要件を遵守し、データ保護基準を満たすためには、データは静止時に暗号化され、鍵は企業のオンプレミスHSMによって管理されなければなりません。
コスト効率の良い方法でこれらの要件を満たすにはどうすればよいですか?

24 / 100

カテゴリー: DBS

24. 24. A company wants to use Redshift cluster for petabyte-scale data warehousing. Data for processing would be stored on Amazon S3. As a security requirement, the company wants the data to be encrypted at rest. As a solution architect how would you implement the solution?

24. ある企業は、ペタバイト規模のデータウェアハウジングにRedshiftクラスターを使用したいと考えています。処理するデータはAmazon S3に保存されます。セキュリティ要件として、企業はデータが静止状態で暗号化されることを望んでいます。ソリューションアーキテクトとして、このソリューションをどのように実装しますか?

25 / 100

カテゴリー: DBS

25. 25. An organization needs a data store to handle the following data types and access patterns: Key-value access pattern Complex SQL queries and transactions Consistent reads Fixed schema Which data store should the organization choose?
25. 組織は次のデータタイプとアクセスパターンを処理するためのデータストアが必要です:
キーと値のアクセスパターン
複雑なSQLクエリとトランザクション
一貫性のある読み取り
固定スキーマ
組織はどのデータストアを選択すべきですか?

26 / 100

カテゴリー: DBS

26. 26. A video-sharing mobile application uploads files greater than 10 GB to an Amazon S3 bucket. However, when using the application in locations far away from the S3 bucket region, uploads take extended periods of time, and sometimes fail to complete. Which combination of methods would improve the performance of uploading to the application? (Select TWO.)
26. 動画共有モバイルアプリケーションは、10GBを超えるファイルをAmazon S3バケットにアップロードします。しかし、アプリケーションをS3バケットのリージョンから遠く離れた場所で使用すると、アップロードに長時間かかることがあり、時には完了しないこともあります。アプリケーションへのアップロードパフォーマンスを改善するために、どの組み合わせの方法が効果的でしょうか?(2つ選択してください。)

27 / 100

カテゴリー: DBS

27. 27. A company is collected real time senstive data using Amazon Kinesis. As a security requirement, the Amazon Kinesis stream needs to be encrypted. Which approach should be used to accomplish this task?

27. ある企業がAmazon Kinesisを使用してリアルタイムの敏感なデータを収集しています。セキュリティ要件として、Amazon Kinesisのストリームは暗号化する必要があります。このタスクを実行するためにどのアプローチを使用すべきですか?

28 / 100

カテゴリー: DBS

28. 28. A customer has a machine learning workflow that consists of multiple quick cycles of reads-writes-reads on Amazon S3. The customer needs to run the workflow on EMR but is concerned that the reads in subsequent cycles will miss new data critical to the machine learning from the prior cycles. How should the customer accomplish this?
28. 顧客は、複数の読み取り-書き込み-読み取りのクイックサイクルで構成される機械学習ワークフローをAmazon S3上で実行しています。顧客は、EMRでワークフローを実行する必要がありますが、次のサイクルの読み取りが前のサイクルの機械学習にとって重要な新しいデータを見逃すことを懸念しています。顧客はこれをどのように実現すべきですか?

29 / 100

カテゴリー: DBS

29. 29. Managers in a company need access to the human resources database that runs on Amazon Redshift, to run reports about their employees. Managers must only see information about their direct reports. Which technique should be used to address this requirement with Amazon Redshift?

29. 企業のマネージャーは、従業員に関するレポートを実行するために、Amazon Redshiftで実行されている人事データベースにアクセスする必要があります。マネージャーは、自分の直属の部下に関する情報のみを見ることができるようにしなければなりません。この要件をAmazon Redshiftで解決するために使用すべき技術はどれですか?

30 / 100

カテゴリー: DBS

30. 30. A company with a support organization needs support engineers to be able to search historic cases to provide fast responses on new issues raised. The company has forwarded all support messages into an Amazon Kinesis Stream. This meets a company objective of using only managed services to reduce operational overhead. The company needs an appropriate architecture that allows support engineers to search on historic cases and find similar issues and their associated responses. Which AWS Lambda action is most appropriate?

30. サポート組織を持つ企業は、サポートエンジニアが新たに発生した問題に対して迅速に対応するために、過去の事例を検索できる必要があります。この企業はすべてのサポートメッセージをAmazon Kinesis Streamに転送しました。これにより、運用オーバーヘッドを削減するために、管理されたサービスのみを使用するという企業の目的が達成されます。企業は、サポートエンジニアが過去の事例を検索し、類似の問題とその対応策を見つけることができる適切なアーキテクチャを必要としています。最も適切なAWS Lambdaアクションはどれですか?

31 / 100

カテゴリー: DBS

31. 31. An online retailer is using Amazon DynamoDB to store data related to customer transactions. The items in the table contains several string attributes describing the transaction as well as a JSON attribute containing the shopping cart and other details corresponding to the transaction. Average item size is – 250KB, most of which is associated with the JSON attribute. The average customer generates – 3GB of data per month. Customers access the table to display their transaction history and review transaction details as needed. Ninety percent of the queries against the table are executed when building the transaction history view, with the other 10% retrieving transaction details. The table is partitioned on CustomerID and sorted on transaction date. The client has very high read capacity provisioned for the table and experiences very even utilization, but complains about the cost of Amazon DynamoDB compared to other NoSQL solutions. Which strategy will reduce the cost associated with the client’s read queries while not degrading quality?

31. オンライン小売業者は、顧客の取引に関連するデータを保存するためにAmazon DynamoDBを使用しています。テーブル内のアイテムには、取引を説明するいくつかの文字列属性と、ショッピングカートおよび取引に関連するその他の詳細を含むJSON属性が含まれています。アイテムの平均サイズは約250KBで、そのほとんどはJSON属性に関連しています。平均的な顧客は毎月約3GBのデータを生成します。顧客はテーブルにアクセスして、取引履歴を表示し、必要に応じて取引の詳細を確認します。テーブルに対するクエリの90%は、取引履歴ビューを作成する際に実行され、残りの10%は取引の詳細を取得します。テーブルはCustomerIDでパーティション分割され、取引日で並べ替えられています。クライアントはテーブルに非常に高い読み取り容量を提供しており、非常に均等な利用が見られますが、他のNoSQLソリューションと比較してAmazon DynamoDBのコストに不満を抱いています。クライアントの読み取りクエリに関連するコストを削減し、品質を損なうことなく解決する戦略はどれですか?

32 / 100

カテゴリー: DBS

32. 32. Your client needs to load a 600 GB file into a Redshift cluster from S3, using the Redshift COPY command. The file has several known (and potentially some unknown) issues that will probably cause the load process to fail. How should the client most efficiently detect load errors without needing to perform cleanup if the load process fails?
32. あなたのクライアントは、Redshift COPYコマンドを使用して、S3からRedshiftクラスターに600GBのファイルをロードする必要があります。そのファイルには、いくつかの既知の(おそらくいくつかの未知の)問題があり、ロードプロセスが失敗する可能性があります。クライアントがロードプロセスが失敗した場合にクリーンアップを行わずに、最も効率的にロードエラーを検出する方法は何ですか?

33 / 100

カテゴリー: DBS

33. 33. A company that manufactures and sells smart air conditioning units also offers add-on services so that customers can see real-time dashboards in a mobile application or a web browser. Each unit sends its sensor information in JSON format every two seconds for processing and analysis. The company also needs to consume this data to predict possible equipment problems before they occur. A few thousand pre-purchased units will be delivered in the next couple of months. The company expects high market growth in the next year and needs to handle a massive amount of data and scale without interruption. Which ingestion solution should the company use?

33. スマートエアコンユニットを製造・販売する企業は、顧客がモバイルアプリケーションやウェブブラウザでリアルタイムのダッシュボードを見ることができるアドオンサービスも提供しています。各ユニットは、センサー情報をJSON形式で2秒ごとに送信し、処理と分析が行われます。この企業は、機器の問題が発生する前に予測するためにこのデータも利用する必要があります。数千台の事前購入されたユニットが今後数ヶ月以内に納品される予定です。この企業は来年の市場成長が高いと予想しており、大量のデータを処理し、途切れることなくスケールする必要があります。どのインジェストソリューションを使用すべきでしょうか?

34 / 100

カテゴリー: DBS

34. 34. A web application is using Amazon Kinesis Streams for clickstream data that may not be consumed for up to 12 hours. As a security requirement, how can the data be secured at rest within the Kinesis Streams?
34. ウェブアプリケーションは、クリックストリームデータのためにAmazon Kinesis Streamsを使用していますが、そのデータは最大12時間まで消費されない可能性があります。セキュリティ要件として、Kinesis Streams内でデータを静止状態でどのように保護できますか?

35 / 100

カテゴリー: DBS

35. 35. You’re launching a test Elasticsearch cluster with the Amazon Elasticsearch Service, and you’d like to restrict access to only your office desktop computer that you occasionally share with an intern to allow her to get more experience interacting with Elasticsearch. What’s the easiest way to do this?
35. あなたはAmazon Elasticsearch Serviceを使用してテストElasticsearchクラスターを立ち上げており、インターンと時々共有しているオフィスのデスクトップコンピュータのみへのアクセスを制限したいと考えています。インターンがElasticsearchとのやり取りをもっと経験できるようにするために、最も簡単な方法は何ですか?

36 / 100

カテゴリー: DBS

36. 36. Your application development team is building a solution with two applications. The security team wants each application’s logs to be captured in two different places because one of the applications produces logs with sensitive data. How can you meet the requirements with the least risk and effort?
36. あなたのアプリケーション開発チームは、2つのアプリケーションを使用してソリューションを構築しています。セキュリティチームは、1つのアプリケーションが機密データを含むログを生成するため、各アプリケーションのログを2つの異なる場所に記録することを求めています。最小限のリスクと労力で要件を満たすにはどうすればよいですか?

37 / 100

カテゴリー: DBS

37. 37. There are thousands of text files on Amazon S3. The total size of the files is 1 PB. The files contain retail order information for the past 2 years. A data engineer needs to run multiple interactive queries to manipulate the data. The Data Engineer has AWS access to spin up an Amazon EMR cluster. The data engineer needs to use an application on the cluster to process this data and return the results in interactive time frame. Which application on the cluster should the data engineer use?
37. Amazon S3には何千ものテキストファイルがあります。ファイルの総サイズは1PBです。これらのファイルには過去2年間の小売注文情報が含まれています。データエンジニアはデータを操作するために複数のインタラクティブクエリを実行する必要があります。データエンジニアはAWSアクセスを使用してAmazon EMRクラスターを立ち上げることができます。データエンジニアはこのクラスター上でアプリケーションを使用してデータを処理し、インタラクティブな時間枠内で結果を返す必要があります。このクラスター上でデータエンジニアはどのアプリケーションを使用すべきですか?

38 / 100

カテゴリー: DBS

38. 38. A company hosts a web application on AWS which uses RDS instance to store critical data. As a part of a security audit, it was recommended hardening of RDS instance. What actions would help achieve the same? (Select TWO)
38. ある企業が、重要なデータを保存するためにRDSインスタンスを使用するWebアプリケーションをAWS上でホストしています。セキュリティ監査の一環として、RDSインスタンスの強化が推奨されました。同じ目的を達成するために役立つアクションはどれですか?(2つ選択してください)

39 / 100

カテゴリー: DBS

39. 39. A data engineer chooses Amazon DynamoDB as a data store for a regulated application. This application must be submitted to regulators for review. The data engineer needs to provide a control framework that lists the security controls from the process to follow to add new users down to the physical controls of the data center, including items like security guards and cameras. How should this control mapping be achieved using AWS?

39. データエンジニアは、規制されたアプリケーションのデータストアとしてAmazon DynamoDBを選択します。このアプリケーションは、規制当局に提出して審査を受ける必要があります。データエンジニアは、新しいユーザーを追加するためのプロセスからデータセンターの物理的なコントロール(セキュリティガードやカメラなど)まで、セキュリティコントロールを一覧にしたコントロールフレームワークを提供する必要があります。このコントロールマッピングはAWSを使用してどのように達成すべきでしょうか?

40 / 100

カテゴリー: DBS

40. 40. You need to filter and transform incoming messages coming from a smart sensor you have connected with AWS. Once messages are received, you need to store them as time series data in DynamoDB. Which AWS service can you use?
40. あなたはAWSに接続したスマートセンサーから送られてくるメッセージをフィルタリングし、変換する必要があります。メッセージを受信した後、それらをDynamoDBに時系列データとして保存する必要があります。どのAWSサービスを使用できますか?

41 / 100

カテゴリー: DBS

41. 41. An administrator is processing events in near real-time using Kinesis streams and Lambda. Lambda intermittently fails to process batches from one of the shards due to a 15-minute time limit. What is a possible solution for this problem?

41. 管理者は、KinesisストリームとLambdaを使用してほぼリアルタイムでイベントを処理しています。Lambdaは、15分のタイムリミットのため、シャードの1つからバッチを処理できないことがあります。この問題の可能な解決策は何ですか?

42 / 100

カテゴリー: DBS

42. 42. A company is using Kinesis data streams to store the log data, which is processed by an application every 12 hours. As the data needs to reside in Kinesis data streams for 12 hours, the Security team wants the data to be encrypted at rest. How can it be secured in a most efficient way?
42. ある企業がKinesisデータストリームを使用してログデータを保存しており、そのデータは12時間ごとにアプリケーションによって処理されます。データは12時間Kinesisデータストリームに保持する必要があり、セキュリティチームはデータが静止時に暗号化されることを望んでいます。最も効率的な方法でどのようにデータを保護できますか?

43 / 100

カテゴリー: DBS

43. 43. A company needs a churn prevention model to predict which customers will NOT renew their yearly subscription to the company’s service. The company plans to provide these customers with a promotional offer. A binary classification model that uses Amazon Machine Learning is required. On which basis should this binary classification model be built?

43. ある企業は、どの顧客が毎年のサービス契約を更新しないかを予測するための解約防止モデルが必要です。企業はこれらの顧客にプロモーションオファーを提供する予定です。Amazon Machine Learningを使用するバイナリ分類モデルが必要です。このバイナリ分類モデルはどの基準に基づいて構築されるべきですか?

44 / 100

カテゴリー: DBS

44. 44. A company launched EMR cluster to support their big data analytics requirements. They have multiple data sources built out of S3, SQL databases, MongoDB, Redis, RDS, other file systems. They are looking for distributed processing framework and programming model that helps you do machine learning, stream processing, or graph analytics using Amazon EMR clusters Which EMR Hadoop ecosystem fulfils the requirements?
44. ある企業が、ビッグデータ分析の要件をサポートするためにEMRクラスターを立ち上げました。
彼らは、S3、SQLデータベース、MongoDB、Redis、RDS、その他のファイルシステムから構築された複数のデータソースを持っています。
彼らは、Amazon EMRクラスターを使用して機械学習、ストリーム処理、またはグラフ分析を行うための分散処理フレームワークとプログラミングモデルを探しています。
どのEMR Hadoopエコシステムがこの要件を満たしますか?

45 / 100

カテゴリー: DBS

45. 45. Your company produces customer commissioned one-of-a-kind skiing helmets combining high fashion with custom technical enhancements. Customers can show off their Individuality on the ski slopes and have access to head-up-displays. GPS rear-view cams and any other technical innovation they wish to embed in the helmet. The current manufacturing process is data rich and complex including assessments to ensure that the custom electronics and materials used to assemble the helmets are to the highest standards. Assessments are a mixture of human and automated assessments you need to add a new set of assessment to model the failure modes of the custom electronics using GPUs with CUDA across a cluster of servers with low latency networking. What architecture would allow you to automate the existing process using a hybrid approach and ensure that the architecture can support the evolution of processes over time?

45. あなたの会社は、高級ファッションとカスタム技術の強化を組み合わせた、顧客から依頼された一つだけのスキー用ヘルメットを製造しています。顧客は、スキー場で個性をアピールでき、ヘッドアップディスプレイ、GPSバックカメラ、その他の技術的な革新をヘルメットに組み込むことができます。現在の製造プロセスはデータに富み、複雑で、ヘルメットを組み立てるために使用されるカスタムエレクトロニクスと材料が最高の基準を満たしていることを確認するための評価が含まれています。評価は人間と自動化された評価の組み合わせであり、カスタムエレクトロニクスの故障モードをGPUとCUDAを使って、低遅延ネットワークでサーバークラスター上でモデリングする新しい評価セットを追加する必要があります。どのアーキテクチャを使用すれば、既存のプロセスをハイブリッドアプローチで自動化し、時間の経過とともにプロセスの進化をサポートすることができるでしょうか?

46 / 100

カテゴリー: DBS

46. 46. A company operates an international business served from a single AWS region. The company wants to expand into a new country. The regulator for that country requires the Data Architect to maintain a log of financial transactions in the country within 24 hours of the product transaction. The production application is latency insensitive. The new country contains another AWS region. What is the most cost-effective way to meet this requirement?
46. ある企業は、単一のAWSリージョンから提供される国際的なビジネスを運営しています。この企業は、新しい国に拡張したいと考えています。その国の規制当局は、データアーキテクトに対して、製品取引から24時間以内にその国での金融取引のログを保持することを要求しています。生産アプリケーションは遅延に敏感ではありません。新しい国には別のAWSリージョンがあります。この要件を最もコスト効果的に満たす方法は何ですか?

47 / 100

カテゴリー: DBS

47. 47. You have recently joined a startup company building sensors to measure street noise and air quality in urban areas. The company has been running a pilot deployment of around 100 sensors for 3 months. Each sensor uploads 1KB of sensor data every minute to a backend hosted on AWS. During the pilot, you measured a peak or 10 IOPS on the database, and you stored an average of 3GB of sensor data per month in the database. The current deployment consists of a load-balanced auto scaled Ingestion layer using EC2 instances and a PostgreSQL RDS database with 500GB standard storage. The pilot is considered a success and your CEO has managed to get the attention or some potential investors. The business plan requires a deployment of at least 100K sensors, which needs to be supported by the backend. You also need to store sensor data for at least two years to be able to compare year over year Improvements. To secure funding, you have to make sure that the platform meets these requirements and leaves room for further scaling. Which setup will meet the requirements?

47. あなたは最近、都市部の通りの騒音と空気質を測定するセンサーを開発しているスタートアップ企業に参加しました。この会社は、約100台のセンサーを使用したパイロット導入を3ヶ月間行っています。各センサーは、1分ごとに1KBのセンサーデータをAWSでホストされているバックエンドにアップロードします。パイロット中、データベースのピークは10IOPSでした。また、月平均で3GBのセンサーデータをデータベースに保存していました。現在の導入には、EC2インスタンスを使用したロードバランスと自動スケーリングのインジェスチョンレイヤー、および500GBの標準ストレージを持つPostgreSQL RDSデータベースが含まれています。このパイロットは成功と見なされ、CEOは潜在的な投資家の注目を集めることに成功しました。ビジネスプランでは、少なくとも100K台のセンサーを導入し、それをバックエンドでサポートする必要があります。また、年々の改善を比較できるように、少なくとも2年間のセンサーデータを保存する必要があります。資金調達を確保するためには、このプラットフォームがこれらの要件を満たし、さらにスケーリングの余地を残すことを確認しなければなりません。どのセットアップが要件を満たすでしょうか?

48 / 100

カテゴリー: DBS

48. 48. A company receives data sets coming from external providers on Amazon S3. Data sets from different providers are dependent on one another. Data sets will arrive at different times and in no particular order. A data architect needs to design a solution that enables the company to do the following: Rapidly perform cross data set analysis as soon as the data become available Manage dependencies between data sets that arrive at different times Which architecture strategy offers a scalable and cost-effective solution that meets these Requirements?
48. ある企業は、Amazon S3から外部プロバイダーからのデータセットを受け取ります。異なるプロバイダーからのデータセットは互いに依存しています。データセットは異なるタイミングで、かつ特に順番に関係なく到着します。データアーキテクトは、企業が以下のことを実行できるようにするソリューションを設計する必要があります:

データが利用可能になり次第、迅速にクロスデータセット分析を実行する。

異なるタイミングで到着するデータセット間の依存関係を管理する。

これらの要件を満たす、スケーラブルでコスト効率の良いソリューションを提供するアーキテクチャ戦略はどれですか?

49 / 100

カテゴリー: DBS

49. 49. A media advertising company handles a large number of real-time messages sourced from over 200 websites in real time. Processing latency must be kept low. Based on calculations, a 60-shard Amazon Kinesis stream is more than sufficient to handle the maximum data throughput, even with traffic spikes. The company also uses an Amazon Kinesis Client Library (KCL) application running on Amazon Elastic Compute Cloud (EC2) managed by an Auto Scaling group. Amazon CloudWatch indicates an average of 25% CPU and a modest level of network traffic across all running servers. The company reports a 150% to 200% increase in latency of processing messages from Amazon Kinesis during peak times. There are NO reports of delay from the sites publishing to Amazon Kinesis. What is the appropriate solution to address the latency?

49. メディア広告会社は、200以上のウェブサイトからリアルタイムで提供される大量のメッセージを処理しています。処理の遅延は低く保たれる必要があります。計算に基づくと、60シャードのAmazon Kinesisストリームは、トラフィックの急増があっても最大のデータスループットを処理するのに十分です。また、同社はAmazon Elastic Compute Cloud(EC2)上で実行されるAmazon Kinesis Client Library(KCL)アプリケーションを使用しており、そのインスタンスはAuto Scalingグループによって管理されています。Amazon CloudWatchは、すべての実行中のサーバーにおいてCPUの平均使用率が25%、ネットワークトラフィックのレベルが控えめであることを示しています。同社は、ピーク時にAmazon Kinesisからメッセージを処理する際、遅延が150%から200%増加したと報告しています。Amazon Kinesisに発信しているサイトからの遅延に関する報告はありません。この遅延に対処するための適切な解決策は何ですか?

50 / 100

カテゴリー: DBS

50. 50. An administrator needs to design a strategy for the schema in a Redshift cluster. The administrator needs to determine the optimal distribution style for the tables in the Redshift schema. In which two circumstances would choosing EVEN distribution be most appropriate? (Choose two.)

50. 管理者は、Redshiftクラスターのスキーマに対して戦略を設計する必要があります。管理者は、Redshiftスキーマ内のテーブルに最適な分散スタイルを決定する必要があります。どの2つの状況で、EVEN分散を選択することが最も適切ですか?(2つ選んでください。)

51 / 100

カテゴリー: DBS

51. 51. A solutions architect for a logistics organization ships packages from thousands of suppliers to end customers. The architect is building a platform where suppliers can view the status of one or more of their shipments. Each supplier can have multiple roles that will only allow access to specific fields in the resulting information. Which strategy allows the appropriate level of access control and requires the LEAST amount of management work?
51. ロジスティクス組織のソリューションアーキテクトは、数千の供給者から最終顧客にパッケージを発送しています。アーキテクトは、供給者が自分の出荷の一部またはすべてのステータスを確認できるプラットフォームを構築しています。各供給者は、結果として得られる情報の特定のフィールドにのみアクセスできる複数の役割を持つことができます。適切なアクセス制御レベルを許可し、最も少ない管理作業を必要とする戦略はどれですか?

52 / 100

カテゴリー: DBS

52. 52. A utility company is building an application that stores data coming from more than 10,000 sensors. Each sensor has a unique ID and will send a datapoint (approximately 1KB) every 10 minutes throughout the day. Each datapoint contains the information coming from the sensor as well as a timestamp. This company would like to query information coming from a particular sensor for the past week very rapidly and want to delete all the data that is older than 4 weeks. Using Amazon DynamoDB for its scalability and rapidity, how do you implement this in the most cost effective way?

52. 公共事業会社は、10,000台以上のセンサーから送信されるデータを保存するアプリケーションを構築しています。各センサーには一意のIDがあり、毎日10分ごとに約1KBのデータポイントを送信します。各データポイントにはセンサーからの情報とタイムスタンプが含まれています。この会社は、特定のセンサーから過去1週間分の情報を迅速に照会したいと考えており、4週間以上前のデータはすべて削除したいと考えています。スケーラビリティと迅速性を重視してAmazon DynamoDBを使用する場合、最もコスト効果の高い方法でこれを実装するにはどうすればよいでしょうか?

53 / 100

カテゴリー: DBS

53. 53. You need to provide customers with rich visualizations that allow you to easily connect multiple disparate data sources in S3, Redshift, and several CSV files. Which tool should you use that requires the least setup?

53. 顧客に対して、S3、Redshift、およびいくつかのCSVファイルにある複数の異なるデータソースを簡単に接続できる豊富なビジュアライゼーションを提供する必要があります。最小限のセットアップで使用できるツールはどれですか?

54 / 100

カテゴリー: DBS

54. 54. You need to create a recommendation engine for your e-commerce website that sells over 300 items. The items never change, and the new users need to be presented with the list of all 300 items in order of their interest. Which option do you use to accomplish this?

54. あなたは、300点以上の商品を販売するeコマースウェブサイトのために、推薦エンジンを作成する必要があります。商品は変更されることはなく、新しいユーザーにはその興味の順にすべての300点の商品リストを表示する必要があります。この目的を達成するために、どのオプションを使用しますか?

55 / 100

カテゴリー: DBS

55. 55. A web application emits multiple types of events to Amazon Kinesis Streams for operational reporting. Critical events must be captured immediately before processing can continue, but informational events do not need to delay processing. What is the most appropriate solution to record these different types of events?

55. ウェブアプリケーションは、運用報告のために複数のタイプのイベントをAmazon Kinesis Streamsに送信します。重要なイベントは、処理が続行する前に即座にキャプチャする必要がありますが、情報提供のイベントは処理を遅延させる必要はありません。これらの異なるタイプのイベントを記録するための最も適切なソリューションは何ですか?

56 / 100

カテゴリー: DBS

56. 56. You have to identify potential fraudulent credit card transactions using Amazon Machine Learning. You have been given historical labeled data that you can use to create your model. You will also need to the ability to tune the model you pick. Which model type should you use?
56. あなたは、Amazon Machine Learning を使用して潜在的な不正なクレジットカード取引を識別する必要があります。モデルを作成するために使用できる履歴のあるラベル付きデータが与えられています。また、選んだモデルを調整する能力も必要です。どのモデルタイプを使用すべきですか?

57 / 100

カテゴリー: DBS

57. 57. You’ve been asked by the VP of People to showcase the current breakdown of the headcount for each department within your organization. What chart do you select to do this to make it easy to compare each department?

57. あなたは人事担当副社長から、組織内の各部門の現在の人数の内訳を示すよう依頼されました。各部門を比較しやすくするために、どのチャートを選びますか?

58 / 100

カテゴリー: DBS

58. 58. An online gaming company uses DynamoDB to store user activity logs and is experiencing throttled writes on the company’s DynamoDB table. The company is NOT consuming close to the provisioned capacity. The table contains a large number of items and is partitioned on user and sorted by date. The table is 200GB and is currently provisioned at 10K WCU and 20K RCU. Which two additional pieces of information are required to determine the cause of the throttling? (Choose two.)
58. オンラインゲーム会社はDynamoDBを使用してユーザーのアクティビティログを保存しており、同社のDynamoDBテーブルで書き込み制限が発生しています。会社は提供された容量にほぼ達していません。このテーブルには大量のアイテムが含まれており、ユーザーを基にパーティション分割され、日付でソートされています。テーブルは200GBで、現在のプロビジョニングは10K WCUおよび20K RCPUです。スロットリングの原因を特定するために必要な追加情報はどの2つですか?(2つ選択してください。)

59 / 100

カテゴリー: DBS

59. 59. A Redshift data warehouse has different user teams that need to query the same table with very different query types. These user teams are experiencing poor performance. Which action improves performance for the user teams in this situation?

59. Redshiftデータウェアハウスには、非常に異なる種類のクエリを使用して同じテーブルをクエリする必要がある異なるユーザーチームがあります。これらのユーザーチームはパフォーマンスの低下を経験しています。この状況でユーザーチームのパフォーマンスを改善するためにどのようなアクションを取るべきですか?

60 / 100

カテゴリー: DBS

60. 60. A data engineer needs to collect data from multiple Amazon Redshift clusters within a business and consolidate the data into a single central data warehouse. Data must be encrypted at all times while at rest or in flight. What is the most scalable way to build this data collection process?

60. データエンジニアは、企業内の複数のAmazon Redshiftクラスタからデータを収集し、そのデータを単一の中央データウェアハウスに統合する必要があります。データは、静止中または転送中に常に暗号化されていなければなりません。このデータ収集プロセスを構築するための最もスケーラブルな方法は何ですか?

61 / 100

カテゴリー: DBS

61. 61. Your company releases new features with high frequency while demanding high application availability. As part of the application’s A/B testing, logs from each updated Amazon EC2 instance of the application need to be analyzed in near real-time, to ensure that the application is working flawlessly after each deployment. If the logs show any anomalous behavior, then the application version of the instance is changed to a more stable one. Which of the following methods should you use for shipping and analyzing the logs in a highly available manner?
61. あなたの会社は新しい機能を高頻度でリリースし、高いアプリケーションの可用性を要求しています。アプリケーションのA/Bテストの一環として、各更新されたAmazon EC2インスタンスのログは、アプリケーションが各デプロイ後に完璧に動作していることを確認するために、ほぼリアルタイムで分析する必要があります。ログに異常な動作が示されている場合、そのインスタンスのアプリケーションバージョンは、より安定したバージョンに変更されます。ログを高可用性で送信および分析するために、どの方法を使用するべきですか?

62 / 100

カテゴリー: DBS

62. 62. Your company is in the process of developing a next generation pet collar that collects biometric information to assist families with promoting healthy lifestyles for their pets. Each collar will push 30kb of biometric data In JSON format every 2 seconds to a collection platform that will process and analyze the data providing health trending information back to the pet owners and veterinarians via a web portal Management has tasked you to architect the collection platform ensuring the following requirements are met. Provide the ability for real-time analytics of the inbound biometric data to ensure processing of the biometric data is highly durable, Elastic and parallel. The results of the analytic processing should be persisted for data mining. Which architecture outlined below will meet the initial requirements for the collection platform?

62. あなたの会社は、ペットの健康的なライフスタイルを促進するために家族を支援する、生体情報を収集する次世代ペットカラーの開発を進めています。各カラーは、2秒ごとに30KBの生体データをJSON形式で収集プラットフォームに送信し、プラットフォームはそのデータを処理・分析して、ペットの飼い主や獣医師に健康トレンド情報をウェブポータルを通じて提供します。経営陣は、収集プラットフォームのアーキテクチャを設計するようにあなたに依頼し、以下の要件を満たすことを求めています。

1. インバウンドの生体データのリアルタイム分析を可能にし、生体データの処理が高耐久性、弾力性、並列性を持つことを保証する。

2. 分析処理の結果は、データマイニングのために永続化されるべきです。

以下に示すアーキテクチャのどれが収集プラットフォームの初期要件を満たしますか?

63 / 100

カテゴリー: DBS

63. 63. A social media customer has data from different data sources including RDS running MySQL, Redshift, and Hive on EMR. To support better analysis, the customer needs to be able to analyze data from different data sources and to combine the results. What is the most cost-effective solution to meet these requirements?

63. ソーシャルメディアの顧客は、MySQLを実行しているRDS、Redshift、EMR上のHiveなど、異なるデータソースからデータを取得しています。より良い分析をサポートするために、顧客は異なるデータソースからのデータを分析し、結果を統合できる必要があります。これらの要件を満たす最もコスト効果の高い解決策は何ですか?

64 / 100

カテゴリー: DBS

64. 64. Management has requested a comparison of total sales performance in the five North American regions in January. They’re hoping to determine how to allocate a budget to regions based on performance in that single period. What sort of visualization do you use in Amazon QuickSight?
64. 経営陣は、1月における北米5地域の総売上パフォーマンスの比較を求めています。彼らは、単一の期間におけるパフォーマンスに基づいて、各地域への予算配分方法を決定したいと考えています。Amazon QuickSightでは、どのようなビジュアライゼーションを使用しますか?

65 / 100

カテゴリー: DBS

65. 65. A new client is requesting a tool that will provide fast query performance for enterprise reporting and business intelligence workloads, particularly those involving extremely complex SQL with multiple joins and sub-queries. They also want the ability to give analysts access to a central system through tradition SQL clients that allow them to explore and familiarize themselves with the data. What solution do you initially recommend they investigate?

65. 新しいクライアントが、特に複雑なSQLクエリや複数のジョインおよびサブクエリを含む、企業レポートおよびビジネスインテリジェンスワークロードの高速なクエリパフォーマンスを提供するツールを要求しています。彼らはまた、アナリストがデータを調査し、データに慣れることができるよう、従来のSQLクライアントを通じて中央システムにアクセスできる機能を求めています。最初に調査を勧めるべき解決策は何ですか?

66 / 100

カテゴリー: DBS

66. 66. A company stores data in an S3 bucket. Some of the data contains sensitive information. They need to ensure that the bucket complies with PCI DSS (Payment Card Industry Data Security Standard) compliance standards. Which of the following should be implemented to fulfill this requirement? (Select TWO)
66. ある会社がS3バケットにデータを保存しています。その中には機密情報が含まれています。会社は、このバケットがPCI DSS(Payment Card Industry Data Security Standard)準拠の基準を満たしていることを確認する必要があります。この要件を満たすために実装すべきものはどれですか?(2つ選択してください)

67 / 100

カテゴリー: DBS

67. 67. Your company sells consumer devices and needs to record the first activation of all sold devices. Devices are not activated until the information is written on a persistent database. Activation data is very important for your company and must be analyzed daily with a MapReduce job. The execution time of the data analysis process must be less than three hours per day. Devices are usually sold evenly during the year, but when a new device model is out, there is a predictable peak in activation’s, that is, for a few days there are 10 times or even 100 times more activation’s than in average day. Which of the following databases and analysis framework would you implement to better optimize costs and performance for this workload?

67. あなたの会社は消費者向けデバイスを販売しており、販売されたすべてのデバイスの初回起動を記録する必要があります。デバイスは、情報が永続的なデータベースに書き込まれるまで起動しません。起動データはあなたの会社にとって非常に重要であり、毎日MapReduceジョブで分析する必要があります。データ分析プロセスの実行時間は、1日あたり3時間未満でなければなりません。デバイスは通常、年間を通じて均等に販売されますが、新しいデバイスモデルが発売されると、起動が予測可能なピークを迎えます。つまり、数日間、平均的な日に比べて10倍または100倍の起動が発生します。このワークロードのコストとパフォーマンスを最適化するために、どのデータベースと分析フレームワークを実装しますか?

68 / 100

カテゴリー: DBS

68. 68. Your company is storing millions of sensitive transactions across thousands of 100-GB files that must be encrypted in transit and at rest. Analysts concurrently depend on subsets of files, which can consume up to 5TB of space, to generate simulations that can be used to steer business decisions. You are required to design an AWS solution that can cost effectively accommodate the long-term storage and in-flight subsets of data.
68. あなたの会社は、移動中および保存中に暗号化する必要がある100GBのファイルが何千もある、数百万件の機密取引を保存しています。アナリストは同時にファイルのサブセットに依存しており、そのサブセットは最大で5TBのスペースを消費し、ビジネスの意思決定を導くために使用されるシミュレーションを生成します。あなたは、データの長期保存および移動中のサブセットをコスト効果的に収容できるAWSソリューションを設計する必要があります。

69 / 100

カテゴリー: DBS

69. 69. An administrator needs to design the event log storage architecture for events from mobile devices. The event data will be processed by an Amazon EMR cluster daily for aggregated reporting and analytics before being archived. How should the administrator recommend storing the log data?
69. 管理者は、モバイルデバイスからのイベントのイベントログストレージアーキテクチャを設計する必要があります。イベントデータは、集約されたレポートおよび分析のために毎日Amazon EMRクラスターによって処理され、その後アーカイブされます。管理者はログデータをどのように保存することを推奨すべきですか?

70 / 100

カテゴリー: DBS

70. 70. Your company uses DynamoDB to support their mobile application and S3 to host the images and other documents shared between users. DynamoDB has a table with 60 partitions and is being heavily accessed by users. The queries run by users do not fully use the per-partition’s throughput. However there are times when in less than 3 minutes, a heavy load of queries flow in and this happen occasionally. Sometimes there are many background tasks that are running in background. How can DynamoDB be configured to handle the workload?
70. あなたの会社はモバイルアプリケーションをサポートするためにDynamoDBを使用し、S3を使ってユーザー間で共有される画像やその他のドキュメントをホストしています。DynamoDBには60のパーティションを持つテーブルがあり、ユーザーによって頻繁にアクセスされています。ユーザーが実行するクエリは、各パーティションのスループットを完全には活用していません。ただし、時々3分以内に大量のクエリが流れ込み、これは偶発的に発生します。また、バックグラウンドで実行されているタスクが多数あることもあります。このワークロードを処理するためにDynamoDBはどのように設定すべきですか?

71 / 100

カテゴリー: DBS

71. 71. An online photo album app has a key design feature to support multiple screens (e.g, desktop, mobile phone, and tablet) with high-quality displays. Multiple versions of the image must be saved in different resolutions and layouts. The image-processing Java program takes an average of five seconds per upload, depending on the image size and format. Each image upload captures the following image metadata: user, album, photo label, upload timestamp.The app should support the following requirements: Hundreds of user image uploads per second Maximum image upload size of 10 MB Maximum image metadata size of 1 KB Image displayed in optimized resolution in all supported screens no later than one minute after image upload Which strategy should be used to meet these requirements?

71. オンラインフォトアルバムアプリには、複数のスクリーン(デスクトップ、携帯電話、タブレットなど)で高品質の表示をサポートする重要なデザイン機能があります。画像の複数のバージョンは、異なる解像度とレイアウトで保存する必要があります。画像処理のJavaプログラムは、画像のサイズとフォーマットによって、アップロードごとに平均5秒かかります。各画像のアップロードには、以下の画像メタデータがキャプチャされます:ユーザー、アルバム、写真ラベル、アップロードのタイムスタンプ。

アプリは以下の要件をサポートする必要があります:

  • 1秒あたり数百件のユーザー画像アップロード
  • 最大画像アップロードサイズ10MB
  • 最大画像メタデータサイズ1KB
  • すべてのサポートされているスクリーンで、画像アップロードから1分以内に最適化された解像度で画像を表示

これらの要件を満たすために使用すべき戦略は何ですか?

72 / 100

カテゴリー: DBS

72. 72. A company is using Amazon Machine Learning as part of a medical software application. The application will predict the most likely blood type for a patient based on a variety of other clinical tests that are available when blood type knowledge is unavailable. What is the appropriate model choice and target attribute combination for this problem?

72. ある会社がAmazon Machine Learningを医療ソフトウェアアプリケーションの一部として使用しています。アプリケーションは、血液型の知識が利用できない場合に利用可能な他の臨床検査結果に基づいて、患者に最も可能性の高い血液型を予測します。この問題に適切なモデルの選択とターゲット属性の組み合わせは何ですか?

73 / 100

カテゴリー: DBS

73. 73. A company is developing a video application that will emit a log stream. Each record in the stream may contain up to 400 KB of data. To improve the video-streaming experience, it is necessary to collect a subset of metrics from the stream to be analyzed for trends over time using complex SQL queries. A Solutions Architect will create a solution that allows the application to scale without customer interaction. Which solution should be implemented to meet these requirements?
73. ある企業が、ログストリームを発信するビデオアプリケーションを開発しています。ストリーム内の各レコードには最大400 KBのデータが含まれている可能性があります。ビデオストリーミング体験を改善するために、ストリームから一部のメトリクスを収集し、複雑なSQLクエリを使用して時間の経過に伴う傾向を分析する必要があります。ソリューションアーキテクトは、顧客の介入なしにアプリケーションをスケールさせるソリューションを作成します。これらの要件を満たすために、どのソリューションを実装すべきでしょうか?

74 / 100

カテゴリー: DBS

74. 74. A data engineer in a manufacturing company is designing a data processing platform that receives a large volume of unstructured data. The data engineer must populate a well-structured star schema in Amazon Redshift. What is the most efficient architecture strategy for this purpose?

74. 製造業のデータエンジニアは、大量の非構造化データを受け取るデータ処理プラットフォームを設計しています。データエンジニアは、Amazon Redshiftに適切に構造化されたスター・スキーマを入力しなければなりません。この目的のために最も効率的なアーキテクチャ戦略は何ですか?

75 / 100

カテゴリー: DBS

75. 75. You are deploying an application to track GPS coordinates of delivery trucks in the United States. Coordinates are transmitted from each delivery truck once every three seconds. You need to design an architecture that will enable real-time processing of these coordinates from multiple consumers. Which service should you use to implement data ingestion?

75. あなたは、アメリカ合衆国の配送トラックのGPS座標を追跡するアプリケーションを展開しています。座標は、各配送トラックから3秒ごとに送信されます。複数の消費者からのこれらの座標をリアルタイムで処理できるアーキテクチャを設計する必要があります。データ取り込みを実装するために、どのサービスを使用すべきですか?

76 / 100

カテゴリー: DBS

76. 76. You have a customer-facing application running on multiple M3 instances in two AZs. These instances are in an auto-scaling group configured to scale up when load increases. After taking a look at your CloudWatch metrics, you realize that during specific times every single day, the auto-scaling group has a lot more instances than it normally does. Despite this, one of your customers is complaining that the application is very slow to respond during those time periods every day. The application is reading and writing to a DynamoDB table which has 400 Write Capacity Units and 400 Read Capacity Units. The primary key is the company ID, and the table is storing roughly 20 TB of data. Which solution would solve the issue in a scalable and cost-effective manner?
76. あなたは、2つのアベイラビリティゾーン(AZ)で複数のM3インスタンスで実行されている顧客向けアプリケーションを持っています。これらのインスタンスは、負荷が増加するとスケールアップするように設定されたオートスケーリンググループに属しています。CloudWatchメトリクスを確認したところ、毎日特定の時間帯にオートスケーリンググループに通常よりも多くのインスタンスがあることに気付きました。それにもかかわらず、ある顧客がその時間帯にアプリケーションの応答が非常に遅いと不満を言っています。アプリケーションは、400の書き込みキャパシティユニット(WCU)と400の読み取りキャパシティユニット(RCU)を持つDynamoDBテーブルを読み書きしています。プライマリキーは会社IDで、テーブルには約20TBのデータが保存されています。スケーラブルでコスト効率の良い方法でこの問題を解決するソリューションはどれですか?

77 / 100

カテゴリー: DBS

77. 77. Your enterprise application requires key-value storage as the database. The data is expected to be about 10 GB the first month and grow to 2 PB over the next two years. There are no other query requirements at this time. What solution would you recommend?

77. あなたの企業アプリケーションには、データベースとしてキーと値のストレージが必要です。データは、最初の月で約10GBとなり、次の2年間で2PBに成長する予定です。現時点では他にクエリの要件はありません。どのソリューションをお勧めしますか?

78 / 100

カテゴリー: DBS

78. 78. A system needs to collect on-premises application spool files into a persistent storage layer in AWS. Each spool file is 2 KB. The application generates 1 M files per hour. Each source file is automatically deleted from the local server after an hour. What is the most cost-efficient option to meet these requirements?

78. システムは、オンプレミスのアプリケーションスプールファイルをAWSの永続的なストレージ層に収集する必要があります。各スプールファイルのサイズは2 KBです。アプリケーションは1時間に1Mファイルを生成します。各ソースファイルは1時間後にローカルサーバーから自動的に削除されます。これらの要件を満たす最もコスト効率の良いオプションは何ですか?

79 / 100

カテゴリー: DBS

79. 79. A data engineer needs to architect a data warehouse for an online retail company to store historic purchases. The data engineer needs to use Amazon Redshift. To comply with PCI:DSS and meet corporate data protection standards, the data engineer must ensure that data is encrypted at rest and that the keys are managed by a corporate on-premises HSM. Which approach meets these requirements in the most cost-effective manner?
79. データエンジニアは、オンライン小売企業のために履歴購入データを保存するデータウェアハウスを設計する必要があります。データエンジニアはAmazon Redshiftを使用する必要があります。PCI:DSSに準拠し、企業のデータ保護基準を満たすために、データエンジニアはデータが静止状態で暗号化され、鍵が企業のオンプレミスHSMによって管理されていることを確認しなければなりません。最もコスト効果の高い方法でこれらの要件を満たすアプローチはどれですか?

80 / 100

カテゴリー: DBS

80. 80. Your application generates a 1 KB JSON payload that needs to be queued and delivered to EC2 instances for applications. At the end of the day, the application needs to replay the data for the past 24 hours. In the near future, you also need the ability for other multiple EC2 applications to consume the same stream concurrently. What is the best solution for this?
80. あなたのアプリケーションは、EC2インスタンスにアプリケーション用の1KBのJSONペイロードをキューに入れて配信する必要があります。最終的には、アプリケーションは過去24時間分のデータを再生する必要があります。近い将来、他の複数のEC2アプリケーションが同じストリームを同時に消費できる機能も必要です。このための最適なソリューションは何ですか?

81 / 100

カテゴリー: DBS

81. 81. An organization is designing an application architecture. The application will have over 100 TB of data and will support transactions that arrive at rates from hundreds per second to tens of thousands per second, depending on the day of the week and time of the day. All transaction data must be durably and reliably stored. Certain read operations must be performed with strong consistency. Which solution meets these requirements?

81. ある組織がアプリケーションのアーキテクチャを設計しています。このアプリケーションは100TB以上のデータを持ち、1秒あたり数百から数万のトランザクションをサポートします。これらのトランザクションの到着率は曜日や時間帯によって異なります。すべてのトランザクションデータは、耐久性と信頼性のある方法で保存する必要があります。特定の読み取り操作は強い一貫性を持って実行する必要があります。これらの要件を満たすソリューションはどれですか?

82 / 100

カテゴリー: DBS

82. 82. A data engineer wants to use an Amazon Elastic Map Reduce for an application. The data engineer needs to make sure it complies with regulatory requirements. The auditor must be able to confirm at any point which servers are running and which network access controls are deployed. Which action should the data engineer take to meet this requirement?

82. データエンジニアは、アプリケーションのためにAmazon Elastic Map Reduceを使用したいと考えています。データエンジニアは、それが規制要件を遵守していることを確認する必要があります。監査人は、いつでも実行中のサーバーと展開されているネットワークアクセス制御を確認できる必要があります。データエンジニアは、この要件を満たすためにどのような行動を取るべきですか?

83 / 100

カテゴリー: DBS

83. 83. You are using IOT sensors to monitor the movement of a group of hikers on a three day trek and send the information into an Kinesis Stream. They each have a sensor in their shoe and you know for certain that there is no problem with mobile coverage so all the data is getting back to the stream. You have used default settings for the stream. At the end of the third day the data is sent to an S3 bucket. When you go to interpret the data in S3 there is only data for the last day and nothing for the first 2 days. Which of the following is the most probable cause of this?

83. あなたは、IOTセンサーを使用して、3日間のハイキングを行うグループの動きを監視し、その情報をKinesisストリームに送信しています。各ハイカーは靴にセンサーを持っており、モバイル通信の問題はないことが確実なので、すべてのデータがストリームに戻っていることがわかります。ストリームにはデフォルト設定が使用されています。3日目の終わりにデータがS3バケットに送信されます。S3でデータを解釈しようとすると、最初の2日間のデータはなく、最後の日のデータのみが存在します。次のうち、最も考えられる原因は何ですか?

84 / 100

カテゴリー: DBS

84. 84. A research scientist is planning for the one-time launch of an Elastic MapReduce cluster and is encouraged by her manager to minimize the costs. The cluster is designed to ingest 200TB of genomics data with a total of 100 Amazon EC2 instances and is expected to run for around four hours. The resulting data set must be stored temporarily until archived into an Amazon RDS Oracle instance. Which option will help save the most money while meeting requirements?
84. 研究科学者は、Elastic MapReduceクラスターの一度限りの起動を計画しており、マネージャーからコストを最小限に抑えるように奨励されています。このクラスターは、200TBのゲノミクスデータを100のAmazon EC2インスタンスで取り込むように設計されており、約4時間実行される予定です。結果として得られるデータセットは、Amazon RDS Oracleインスタンスにアーカイブされるまで一時的に保存する必要があります。どのオプションが最もお金を節約し、要件を満たすのに役立ちますか?

85 / 100

カテゴリー: DBS

85. 85. A company needs to deploy a data lake solution for their data scientists in which all company data is accessible and stored in a central S3 bucket. The company segregates the data by business unit, using specific prefixes. Scientists can only access the data from their own business unit. The company needs a single sign-on identity and management solution based on Microsoft Active Directory (AD) to manage access to the data in Amazon S3. Which method meets these requirements?
85. ある企業は、データサイエンティストが利用できるデータレイクソリューションを展開する必要があります。このソリューションでは、すべての企業データがアクセス可能で、中央のS3バケットに保存されます。企業はデータを事業部門ごとに分け、特定のプレフィックスを使用します。サイエンティストは自分の事業部門のデータにのみアクセスできます。この企業は、Amazon S3のデータアクセスを管理するために、Microsoft Active Directory(AD)を基盤としたシングルサインオン(SSO)アイデンティティと管理ソリューションを必要としています。これらの要件を満たす方法はどれですか?

86 / 100

カテゴリー: DBS

86. 86. A company has several teams of analysts. Each team of analysts has their own cluster. The teams need to run SQL queries using Hive, Spark-SQL, and Presto with Amazon EMR. The company needs to enable a centralized metadata layer to expose the Amazon S3 objects as tables to the analysts. Which approach meets the requirement for a centralized metadata layer?
86. ある会社には複数のアナリストチームがあります。それぞれのアナリストチームには独自のクラスターがあります。チームは、Hive、Spark-SQL、Prestoを使用してSQLクエリを実行する必要があります。会社は、アナリストにAmazon S3オブジェクトをテーブルとして公開するために、中央集中的なメタデータ層を有効にする必要があります。どのアプローチが中央集中的なメタデータ層の要件を満たしますか?

87 / 100

カテゴリー: DBS

87. 87. A Company has two batch processing applications that consume financial data about the day’s stock transactions. Each transaction needs to be stored durably and guarantee that a record of each application is delivered so the audit and billing batch processing applications can process the data. However, the two applications run separately and several hours apart and need access to the same transaction information. After reviewing the transaction information for the day, the information no longer needs to be stored. What is the best way to architect this application? Choose the correct answer from the options below
87. ある企業には、日々の株式取引に関する財務データを処理する2つのバッチ処理アプリケーションがあります。各取引は耐久性を持って保存され、監査および請求バッチ処理アプリケーションがデータを処理できるように、各アプリケーションの記録が確実に配信される必要があります。しかし、2つのアプリケーションは別々に実行され、数時間の差がありますが、同じ取引情報にアクセスする必要があります。その日の取引情報を確認した後、その情報はもはや保存する必要はありません。このアプリケーションを設計する最良の方法は何ですか?以下の選択肢から正しい答えを選んでください。

88 / 100

カテゴリー: DBS

88. 88. Your website is serving on-demand training videos to your workforce. Videos are uploaded monthly in high resolution MP4 format. Your workforce is distributed globally often on the move and using company-provided tablets that require the HTTP Live Streaming (HLS) protocol to watch a video. Your company has no video transcoding expertise and it required you might need to pay for a consultant. How do you implement the most cost-efficient architecture without compromising high availability and quality of video delivery?
88. あなたのウェブサイトは、従業員にオンデマンドのトレーニングビデオを提供しています。ビデオは毎月、高解像度のMP4フォーマットでアップロードされます。従業員は世界中に分散しており、しばしば移動中で、会社から提供されたタブレットを使用しており、ビデオを見るためにはHTTPライブストリーミング(HLS)プロトコルが必要です。あなたの会社はビデオのトランスコードに関する専門知識を持っておらず、コンサルタントに費用を支払う必要があるかもしれません。高い可用性とビデオ配信の品質を損なうことなく、最もコスト効率の良いアーキテクチャをどのように実装しますか?

89 / 100

カテゴリー: DBS

89. 89. You need to create an Amazon Machine Learning model to predict how many inches of rain will fall in an area based on the historical rainfall data. What type of modeling will you use?
89. 履歴的な降水量データに基づいて、特定の地域でどれくらいの降水量が予測されるかを予測するために、Amazon Machine Learningモデルを作成する必要があります。どの種類のモデリングを使用しますか?

90 / 100

カテゴリー: DBS

90. 90. A company has launched EMR cluster to support their big data analytics requirements. AFS has multiple data sources built out of S3, SQL databases, MongoDB, Redis, RDS, other file systems. They are looking for a web application to create and share documents that contain live code, equations, visualizations, and narrative text. Which EMR Hadoop ecosystem fulfils the requirements?

90. ある企業が、ビッグデータ分析の要件をサポートするためにEMRクラスターを立ち上げました。AFSは、S3、SQLデータベース、MongoDB、Redis、RDS、その他のファイルシステムから構成された複数のデータソースを持っています。彼らは、ライブコード、数式、視覚化、および物語のテキストを含むドキュメントを作成して共有できるWebアプリケーションを探しています。どのEMR Hadoopエコシステムがこの要件を満たしていますか?

91 / 100

カテゴリー: DBS

91. 91. A company is building a new application in AWS. The architect needs to design a system to collect application log events. The design should be a repeatable pattern that minimizes data loss if an application instance fails, and keeps a durable copy of a log data for at least 30 days. What is the simplest architecture that will allow the architect to analyze the logs?
91. ある企業がAWSで新しいアプリケーションを構築しています。アーキテクトは、アプリケーションログイベントを収集するシステムを設計する必要があります。設計は、アプリケーションインスタンスが失敗した場合のデータ損失を最小限に抑え、ログデータの耐久性のあるコピーを少なくとも30日間保持する繰り返し可能なパターンであるべきです。アーキテクトがログを分析できる最も簡単なアーキテクチャは何ですか?

92 / 100

カテゴリー: DBS

92. 92. A large oil and gas company needs to provide near real-time alerts when peak thresholds are exceeded in its pipeline system. The company has developed a system to capture pipeline metrics such as flow rate, pressure, and temperature using millions of sensors. The sensors deliver to AWS IoT. What is a cost-effective way to provide near real-time alerts on the pipeline metrics?

92. 大手の石油およびガス会社は、パイプラインシステムでピーク閾値を超えた場合に、ほぼリアルタイムでアラートを提供する必要があります。会社は、何百万ものセンサーを使用して流量、圧力、温度などのパイプラインのメトリックを取得するシステムを開発しました。センサーはAWS IoTにデータを送信します。パイプラインのメトリックに対してほぼリアルタイムのアラートを提供するためのコスト効果の高い方法は何ですか?

93 / 100

カテゴリー: DBS

93. 93. You need real-time reporting on logs generated from your applications. In addition, you need anomaly detection. The processing latency needs to be one second or less. Which option would you choose if your team has no experience with Machine learning libraries and doesn’t want to have to maintain any software installations yourself?

93. あなたは、アプリケーションから生成されたログのリアルタイムレポートが必要です。さらに、異常検出が必要です。処理遅延は1秒以内でなければなりません。チームに機械学習ライブラリの経験がなく、ソフトウェアのインストールを自分で維持したくない場合、どのオプションを選びますか?

94 / 100

カテゴリー: DBS

94. 94. A city has been collecting data on its public bicycle share program for the past three years. The 5PB dataset currently resides on Amazon S3. The data contains the following datapoints: Bicycle origination points Bicycle destination points Mileage between the points Number of bicycle slots available at the station (which is variable based on the station location) Number of slots available and taken at a given time The program has received additional funds to increase the number of bicycle stations available. All data is regularly archived to Amazon Glacier. The new bicycle stations must be located to provide the most riders access to bicycles. How should this task be performed?

94. ある都市は、過去3年間にわたり公共自転車シェアプログラムのデータを収集してきました。現在、5PBのデータセットはAmazon S3に保存されています。データには以下のデータポイントが含まれています:

  • 自転車の出発地点
  • 自転車の到着地点
  • 各地点間の走行距離
  • 駅にある自転車のスロット数(これは駅の位置に基づいて変動します)
  • 特定の時間における使用可能なスロット数および使用済みスロット数

このプログラムは、利用可能な自転車ステーションの数を増加させるための追加資金を受け取っています。すべてのデータは定期的にAmazon Glacierにアーカイブされています。新しい自転車ステーションは、できるだけ多くのライダーに自転車を提供できるように配置する必要があります。このタスクはどのように実行すべきですか?

95 / 100

カテゴリー: DBS

95. 95. A large grocery distributor receives daily depletion reports from the field in the form of gzip archives of CSV files uploaded to Amazon S3. The files range from 500MB to 5GB. These files are processed daily by an EMR job. Recently it has been observed that the file sizes vary, and the EMR jobs take too long. The distributor needs to tune and optimize the data processing workflow with this limited information to improve the performance of the EMR job. Which recommendation should an administrator provide?

95. 大手食品流通業者は、Amazon S3にアップロードされたCSVファイルのgzipアーカイブ形式で、現場からの毎日の消費レポートを受け取っています。

ファイルのサイズは500MBから5GBまでさまざまで、これらのファイルは毎日EMRジョブで処理されています。

最近、ファイルサイズにばらつきがあり、EMRジョブの処理に時間がかかることが観察されています。

流通業者は、この限られた情報をもとにデータ処理ワークフローを調整・最適化し、EMRジョブのパフォーマンスを向上させる必要があります。

管理者はどのような推奨を提供すべきですか?

96 / 100

カテゴリー: DBS

96. 96. An administrator is deploying Spark on Amazon EMR for two distinct use cases: machine learning algorithms and ad-hoc querying. All data will be stored in Amazon S3. Two separate clusters for each use case will be deployed. The data volumes on Amazon S3 are less than 10 GB. How should the administrator align instance types with the cluster’s purpose?
96. 管理者は、2つの異なるユースケースのためにAmazon EMR上にSparkを展開しています:機械学習アルゴリズムとアドホッククエリ。すべてのデータはAmazon S3に保存されます。各ユースケースのために2つの別々のクラスターが展開されます。Amazon S3上のデータ容量は10 GB未満です。管理者はインスタンスタイプをクラスターの目的にどのように合わせるべきでしょうか?

97 / 100

カテゴリー: DBS

97. 97. A customer’s nightly EMR job processes a single 2-TB data file stored on Amazon Simple Storage Service (S3). The Amazon Elastic Map Reduce (EMR) job runs on two On-Demand core nodes and three On-Demand task nodes. Which of the following may help reduce the EMbR job completion time? Choose 2 answers
97. 顧客の夜間EMRジョブは、Amazon Simple Storage Service(S3)に保存された単一の2TBのデータファイルを処理します。

Amazon Elastic Map Reduce(EMR)ジョブは、2つのオンデマンドコアノードと3つのオンデマンドタスクノードで実行されます。

次のうち、EMRジョブの完了時間を短縮するのに役立つものはどれですか? 2つの答えを選んでください。

98 / 100

カテゴリー: DBS

98. 98. A travel website needs to present a graphical quantitative summary of its daily bookings to website visitors for marketing purposes. The website has millions of visitors per day, but wants to control costs by implementing the least-expensive solution for this visualization. What is the most cost-effective solution?
98. 旅行ウェブサイトは、マーケティング目的でウェブサイト訪問者に日々の予約のグラフィカルな定量的要約を提示する必要があります。このウェブサイトは1日に数百万の訪問者を抱えていますが、この視覚化のために最も費用効果の高い解決策を実装することでコストを抑えたいと考えています。最もコスト効果の高い解決策は何ですか?

99 / 100

カテゴリー: DBS

99. 99. You need to perform ad-hoc business analytics queries on well-structured data. Data comes in constantly at a high velocity. Your business intelligence team can understand SQL. What AWS service(s) should you look to first?
99. あなたは、よく構造化されたデータに対してアドホックなビジネス分析クエリを実行する必要があります。データは高い速度で絶え間なく流入します。あなたのビジネスインテリジェンスチームはSQLを理解できます。最初に見るべきAWSサービスは何ですか?

100 / 100

カテゴリー: DBS

100. 100. A game company needs to properly scale its game application, which is backed by DynamoDB. Amazon Redshift has the past two years of historical data. Game traffic varies throughout the year based on various factors such as season, movie release, and holiday season. An administrator needs to calculate how much read and write throughput should be provisioned for DynamoDB table for each week in advance. How should the administrator accomplish this task?
100. ゲーム会社は、DynamoDBでバックアップされているゲームアプリケーションのスケーリングを適切に行う必要があります。Amazon Redshiftには過去2年間の履歴データがあります。ゲームのトラフィックは、季節、映画の公開、休日シーズンなどのさまざまな要因に基づいて、年間を通じて変動します。管理者は、DynamoDBテーブルに対して、毎週の読み取りおよび書き込みスループットを事前にどれだけ設定すべきかを計算する必要があります。管理者はどのようにこの作業を達成すべきでしょうか?

あなたのスコアは

平均スコアは 0%

0%

評価フォーム

ご評価ありがとうございます。

本文のリンク:https://www.matsuhana.com/2025/03/dbs-%e5%95%8f%e9%a1%8c%e9%9b%86no-1-100-aws-amazon-aws-certified-database-specialty/,転載禁止です。
0

コメント0

キャプチャを表示する
アカウントをお持ちでないですか?登録  パスワードをお忘れですか?