AWS認定資格試験 Part7
レス数が1000を超えています。これ以上書き込みはできません。
!extend:on:vvvvv:1000:512
!extend:on:vvvvv:1000:512
前スレ(´・∀・)つ
AWS認定資格試験 Part6
https://kizuna.5ch.net/test/read.cgi/lic/1644811729/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>899
>>888さん(´・ω・`)?この卑怯者がっヽ(`Д´#)ノ 俺はその小岩のソース知ってるよ(´・∀・)ノ
そっちやった方が安いよ(ノ∀`) 英語だけど >>904
知らねえからGCPスレから帰ってくんなo(`ω´ )o 今日からサップの勉強始めたんでみんなよろすくー(´・∀・)ノ AWSプラクティショナーのUdemy、4日目にして基本①②100%なんですが勝機ありますか?
応用はまだ手付かずです。 応用は本番より難しいけど、範囲カバーと高所トレのつもりでやればいいかな
それで正答率はともかく解説がおおよそ頭に入ったら余裕で受かるかと >>908
ありがとうございます。
応用③解いてみたんですが基本①と基本②から少ししか出てなかったので結構苦戦しました。
応用③④⑤も範囲カバーするつもりでやってみます。 知らねーよ(ノ∀`) CLSくらいとっとと受けろよ(ノ∀`) どっちマンうっぜーな
GCPスレで誰も相手にしてもらえないからってこっちくんなよ EC2 では、企業が商用の Apache Hadoop クラスターを運用しています。このクラスターは、S3 に保存されている巨大なファイルに対してクエリを実行するために定期的に使用されます。
S3 データは精査済みであり、追加の変更は必要ありません。この組織は、Hadoop クラスターに対してクエリを実行し、EC2 の商用ビジネス インテリジェンス (BI) アプリケーションを使用してデータを視覚化しています。
組織は、Hadoop クラスターとビジネス インテリジェンス アプリケーションの管理に関連する間接費を最小限に抑えるか、排除したいと考えています。
組織は、より費用対効果の高いオプションにシームレスに移行したいと考えています。視覚化は簡単で、単純な集計プロセスをいくつか実行するだけです。
会社のニーズに最適なソリューションはどれですか?
A. 一時的な Amazon EMR クラスターを毎日起動し、S3 上のファイルを分析するための Apache Hive スクリプトを開発します。ジョブが完了したら、EMR クラスターをシャットダウンします。次に、QuickSight を使用して EMR に接続し、視覚化を実行します。
C. Athena を使用して S3 上のファイルをクエリおよび分析するスクリプトを開発する。次に、QuickSight を使用して Athena に接続し、視覚化を実行します。
ど(´・ω・`)? GCPスレでも言われてたが、マジで最低限度は勉強してこいよ ある会社が、Application Load Balancer(ALB)の背後にあるAmazon EC2インスタンスでWebサイトをホストしています。Webサイトは静的コンテンツを提供しています。Webサイトのトラフィックは増加しており、会社はコストの潜在的な増加を懸念しています。
ソリューションアーキテクトは、Webサイトのコストを削減するために何をすべきですか?
A. Amazon CloudFrontディストリビューションを作成して、エッジロケーションに静的ファイルをキャッシュします。
B. Amazon ElastiCacheクラスターを作成するALBをElastiCacheクラスターに接続して、キャッシュされたファイルを提供します。
C. AWS WAF Web ACLを作成し、それをALBに関連付けます。静的ファイルをキャッシュするためのルールをWebACLに追加します。
D. 代替AWSリージョンに2つ目のALBを作成し、ユーザートラフィックを最も近いリージョンにルーティングして、データ転送コストを最小限に抑えます。
これってCで合ってるの( ;∀;)?? コストの問題でWAFなんてクソ高いもん使うわけないだろ >>918
するってぇとこりゃAになるのかな( ;∀;)? >>919
私が使ってるサイト誤答がありまくって不安なんだよぉ( ;∀;) 本番よSAA試験もこんな様な問題ばかりなんだろうか、、、(´·ω·`) 静的コンテンツだから保管先はec2ではなくS3だな
つまりこの質問に真の回答はない9m つまりcloudfrontでキャッシュしてコンテンツをS3に置くから答えはA SAPを取った俺様には朝飯にも満たない雑魚みたいな問題だ
もっと難しい問題を持ってこい
by 加藤 WAFのWebACLでキャッシュするルールがあるのか正直知らないんだけど、そもそもWeb Application Firewallなるものが「トラフィックとかコストの抑制を第一の目的としたサービスではない」ことはわかるやん
資格試験レベルならそういう「普通にこのサービスを考えたら?」っていう素直な感覚で解いたほうがいい ある会社には、さまざまなランタイムで1分あたり最大800回AWSLambda関数を呼び出すイベント駆動型アプリケーションがあります。Lambda関数は、Amazon AuroraMySQLOBクラスターに保存されているデータにアクセスします。ユーザーのアクティビティが増えると、会社は接続のタイムアウトに気づきます。データベースに過負荷の兆候は見られません。CPU。メモリ、およびディスクアクセスメトリックはすべて低いです。
運用上のオーバーヘッドが最も少ないこの問題を解決するソリューションはどれですか?
A. より多くの接続を処理するようにAuroraMySQLノードのサイズを調整します。データベースへの接続を試行するために、Lambda関数で再試行ロジックを構成します
B. データベースから一般的に読み取られるアイテムをキャッシュするようにAmazon ElastiCachetorRedlsを設定します。読み取りのためにElastiCacheに接続するようにLambda関数を設定します。
C. Auroraレプリカをリーダーノードとして追加します。ライターエンドポイントではなく、OBクラスターのリーダーエンドポイントに接続するようにLambda関数を設定します。
D. AmazonROSプロキシを使用してプロキシを作成します。DBクラスターをターゲットデータベースとして設定します。Lambda関数を構成して、DBクラスターではなくプロキシに接続します。
これとかもCが正解なんじゃないのけ( ;∀;)? Lambdaのセッション数だろ。こんなん基本問題だろ。 LambdaとRDSが出てきて性能について聞いてきたら脳死でRDSプロキシ >>934
ありがとおおおお( ;∀;)
他にも、コレと言ったらコレみたいなサービスあるかな(´·ω·`)?
例えばAPI GatewayとLambdaみたいなの教えてほしい( ;∀;) >>935
LambdaとAuroraServerlessが出てきて性能について聞いてきたら脳死でDataAPI クラウドの構築からセキュリティについて、実際にサービスを触りながらてっとり早く勉強したいんやけど
azureよりawsの方がとっつきやすい? AWSの場所で聞けばAWSのほうがわかりやすいって話にはなると思うけど
UI的にはAWSかな
azureは最初のハードル超えたら変わらんと思うけど >>936
ありがとう!!!
頭に叩き込んどく!!! 企業は毎日 1 回、さまざまなソースから構造化データと半構造化データを受け取ります ソリューション アーキテクトは、ビッグ データ処理フレームワークを活用するソリューションを設計する必要があります SQL クエリとビジネス インテリジェンス ツールを使用してデータにアクセスできる必要があります
最も高性能なソリューションを構築するために、ソリューション アーキテクトは何を推奨すべきですか**
A. AWS Glue を使用してデータを処理し、Amazon S3 を使用してデータを保存します。
B. Amazon EMR を使用してデータを処理し、Amazon Redshift を使用してデータを保存します
C. Amazon EC2 を使用してデータを処理し、Amazon Elastic Block Store (Amazon EBS) を使用してデータを保存します。
D. Amazon Kinesis Data Analytics を使用してデータを処理し、Amazon Elastic File System (Amazon EFS) を使用してデータを保存します。
Aが正解になるんだけど、これはBが正解じゃないのけ( ;∀;)?? Provisioned IOPSを使用して、MySQL RDSインスタンスを確立しました。ユーザーがPIOPSの利点を理解するのに役立つのは、次のうちどれですか?
A. ユーザーは、強化された RDS オプションを使用して、EBS I/O の専用容量を追加できます 。
C. 最適化された EBS ボリュームと最適化された構成スタックを使用する
Cが正解になるんだけど、これはAも正解じゃないのけ( ;∀;)?? >>941
CとDは論外
GlueはETL処理するもんだから反構造化データを構造化データに変換するためのもので混在しているものに使う意味がない
しかもS3に保管してどうやって取り出すのか書いてない
なら自ずと答えはわかるであろう
by 加藤 >>944
SQL クエリとビジネス インテリジェンス ツールを使用してデータにアクセスできる必要があります ってあるけど(´・ω・`)? >>945
redshiftにアクセスすれば良いじゃん >>944
Glueを使う場面ってデータを抽出したり変換したりの時だけだよね(´・ω・`) ?
未だにここが分かってない( ;∀;) データサイエンスチームは、夜間のログ処理のためにストレージを必要とします。ログのサイズと数は不明であり、24時間のみ保持されます。最も費用効果の高いソリューションは何ですか?
A. Amazon S3 Glacier
B. Amazon S3 Standard
C. Amazon S3 Intelligent-Tiering
D. Amazon S3 One Zone-Infrequent Access (S3 One Zone-IA)
これもさあBが正解とか言われるんだけどさ、ログを24時間保持なんだからDが正解なんじゃないのけ( ;∀;)? >>944
データレイクはいろんなフォーマットのデータが混在するし
ETLは構造化データも変換するけど >>949
1zone iaって余り覚えてないけど最短保存期間30日くらいなかったっけ?
低冗長化使うってのはありだと思う >>949
要件はログ処理
この時点で
> S3 1 ゾーン – IA はアクセス頻度が低いデータに適した
で除外される >>952
話がずれてる
ETLの説明が間違ってるって言ってる 会社のバウチャーチケットが利用できるのが8月中なので、3週間猛勉強してクラウドプラクティショナー受けようと思うんですが足りますか?
AWSさわった経験はありません
Udemyの模擬試験問題集が評判良いらしいのでそれを購入して勉強しようと思っています >>955
雑魚CLSくらいさっさと仕留めろよ(ノ∀`) >>957
まずはAWSくらい触れやm9(`Д´) >>957
AWS公式トレーニングやって、大筋で言ってることが分かるなら、その後にUdemy回して合格可能 >>954
よくわからないんだけど構造化データを構造化データに変換する意味って何? >>960
構造化から構造化だったら表記揺れの統一、
複数テーブルの結合、不正な値の除去とか
あとはCSVみたいな構造化データを列指向の
フォーマットに変換すると、クエリでテーブル全体を
読まなくてよくなるとか どっちマンのaws触ってるとは思えない質問にまさかaws触れと他人を諭すとはどこまでもおもろいやつよな
どっちマンのaws触ってるとは思えない質問にまさかaws触れと他人を諭すとはどこまでもおもろいやつよな
どっちマンのaws触ってるとは思えない質問にまさかaws触れと他人を諭すとはどこまでもおもろいやつよな
どっちマンのaws触ってるとは思えない質問にまさかaws触れと他人を諭すとはどこまでもおもろいやつよな
それより加藤も言ってるがとっととGCPスレにうせろや(´・ω・`)9m CloudFront を利用して、S3 に保存された動画ファイルを提供しています。問題を特定してサービスを監視するために、ログにアクセスする必要があります。
CloudFront ログ ファイルには、ユーザーに関する個人を特定できる情報が含まれる場合があります。
開発チームがログにアクセスできるようにする前に、企業はログ処理プロバイダーを利用して機密情報を削除します。未処理のログには次の基準が適用されます。
? 未処理のログ ファイルへのアクセスは、データ保護チームに制限されています。
?AWS CodeCommit を使用して、AWS CloudFormation テンプレートを保存する必要があります。
?CloudFormation テンプレートを更新するには、コミット時に AWS CodePipeline をトリガーする必要があります。
CloudFront は、ログ処理サービスがアクセスしている S3 バケットに未処理のログをすでにアップロードしています。
ビジネス要件を満たすために、ソリューション アーキテクトはどの一連のアクションを実行する必要がありますか?
A. AWS Logs Delivery アカウントが暗号化用のデータ キーを生成できるようにする AWS KMS キーを作成します。新しい KMS キーを使用して、ログ ストレージ バケットの KMS 管理キー (SSE-KMS) でサーバー側の暗号化を使用するように S3 デフォルト暗号化を設定します。KMS キー ポリシーを変更して、ログ処理サービスが復号化操作を実行できるようにします。
B. CloudFront サービス ロールに従って、暗号化用のデータ キーを生成する AWS KMS キーを作成する 新しい KMS キーを使用してログ ストレージ バケットで KMS 管理キー (SSE-KMS) を使用するように S3 デフォルト暗号化を設定する KMS キー ポリシーを変更して許可する復号化操作を実行するためのログ処理サービス。
どっ(´・ω・`)? GCPプロも取って卒業してサップの勉強してるんだからここにいるのが常考だろう(´・A・`)9m >>965
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ >>965
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ >>965
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ SAP問題文長いから結局何が聞きたいのかわからん
新入社員の質問みたい >>969
excelしか触らせてもらえない馬鹿乙
excelしか触らせてもらえない馬鹿乙
excelしか触らせてもらえない馬鹿乙
excelしか触らせてもらえない馬鹿乙
https://i.imgur.com/h7igLyP.jpg >>970
何が癪に触ったのかわからんけどETLとGlueについてきちんと勉強しような >>972
なるほど、お前のTwitterアカウントじゃねぇか
元凶のお前がご対応して差し上げろ >>971
>>972
何?アウアウ2匹いんの?
自作自演かよ てか上流工程でExcelしか触らせてもらえないってお前それ上流工程って言わねえぞ(笑)
きっとソリューションアーキテクトのアーキテクトの意味分かってねえんだろうな
これからエクセルどっちマンって呼んでやるよ9m ちなみにだがetlを行うとためのツールがglueだぞ
EMRをサーバレス化したものがGlueなんだけどちゃんと理解してるぅ?w どっちマン君みたいなアホにマッチしてる資格なんてawsにはありませんよ
ばーかばーか^_^ >>976
ETLについてわかってない発言載せとくわ
944 名無し検定1級さん (ワッチョイ 13eb-AY2q) 2022/08/09(火) 10:24:14.31 ID:XV0yWYi20
>>941
CとDは論外
GlueはETL処理するもんだから反構造化データを構造化データに変換するためのもので混在しているものに使う意味がない
しかもS3に保管してどうやって取り出すのか書いてない
なら自ずと答えはわかるであろう
by 加藤 >>978
え?それで俺を論破したつもりなの?w
非構造化データを構造化データに変換するのは間違ってないじゃん
君の貧相な頭じゃ理解できなかったのかな?^_^ どっちマンって2類か5類か連呼してるハンワクみたいなもんだろw >>979
何の目的でデータ変換するのか全然理解してないだろ 結局非構造化データみたいな汚いデータをETL処理である程度綺麗に整形してDWHに格納してathenaとかQuickSightみたいなツールで取り出しますってそれだけの話じゃないの
まじ解ってないから教えてちょうだい あとどっちマンみたいな低脳のレスはいらねえ
時間の無駄だからな 多くの AWS リージョンにわたって、サービスは耐障害性を備えている必要があります。これらの要件に確実に準拠するには、どのような手順を実行する必要がありますか?
C. オンデマンド容量モードを使用して、2 つのリージョンの DynamoDB グローバル テーブルにデータを保存します。両方のリージョンで、Web サービスを ALBの背後にある Auto Scaling ECS サービスで ECS Fargate タスクとして実行します。Route 53 で、会社のドメインにエイリアス レコードを設定し、ルート 53 レイテンシーベースのルーティング ポリシーをヘルスチェックで設定して、2 つの ALB 間でトラフィックを分散します。
D. データを Aurora グローバル データベースに保存します。Auto Scaling レプリカを両方のリージョンに追加します。各リージョンの ALBの背後にある Auto Scaling グループの EC2 インスタンスで Web サービスを実行します。ユーザー データ内の Web サービス コードをダウンロードするようにインスタンスを構成します。Route 53 で、会社のドメインのエイリアス レコードと複数値ルーティング ポリシーを設定します。
ど? 仕方ねーな、グルーのどっち?出してやるよ(ノ∀`)つ
15 分ごとに、約 5,000 のレコードがプレーンテキストで HTTPS 経由でサーバー側の暗号化を使用して S3 バケットに直接転送されます。
このフィードは、クレジット カードのプライマリ アカウント番号 (PAN) に関連付けられた個人を特定できる情報 (PII) を提供します。
追加の内部処理のためにデータを別の S3 バケットに送信する前に、組織は PAN を自動的にマスクする必要があります。
さらに、データを JSON 形式に変換する前に、特定の情報を削除して結合する必要があります。さらに、追加のストリームは将来的に可能性があります。
これらの基準を満たすソリューションはどれですか?
C. データフィード形式に基づいて AWS Glue クローラーとカスタム分類子を作成し、一致するテーブル定義を構築します。
ファイル配信時に Lambda 関数をトリガーして Glue ETL ジョブを開始し、処理と変換の要件に従ってレコード全体を変換します。
出力形式を JSON として定義します。完了したら、ETL ジョブで結果を別の S3 バケットに送信して内部処理を行います。
D. データフィード形式に基づいて AWS Glue クローラーとカスタム分類子を作成し、一致するテーブル定義を構築します。
ファイル配信で Athena クエリを実行して EMR ETL ジョブを開始し、処理と変換の要件に従ってレコード全体を変換します。
出力形式を JSON として定義します。完了したら、結果を別の S3 バケットに送信して内部処理を行い、EMR クラスターをスケールダウンします。 資格を取ることで、awsが使いこなせるようになりますか >>989
マジレスするとならない
awsも実務経験積むことが資格取得のベストプラクティスだって言ってる 本読むんじゃなくてちゃんとAWSに課金して実際に使えってことか >>991
1年の無料枠があるから普通かからないけどな 資格取ったら通用するなんて甘い考え捨てた方がいい
何度もSnowmobile使ったプロジェクトに携わった俺から言わせれば資格取得なんて入口にようやく立ったようなもんだよ でも、資格を取らないと
スタートラインに立てなかったりするしね。 レス数が1000を超えています。これ以上書き込みはできません。