AWS認定資格試験 Part7
レス数が1000を超えています。これ以上書き込みはできません。
!extend:on:vvvvv:1000:512
!extend:on:vvvvv:1000:512
前スレ(´・∀・)つ
AWS認定資格試験 Part6
https://kizuna.5ch.net/test/read.cgi/lic/1644811729/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 会社のバウチャーチケットが利用できるのが8月中なので、3週間猛勉強してクラウドプラクティショナー受けようと思うんですが足りますか?
AWSさわった経験はありません
Udemyの模擬試験問題集が評判良いらしいのでそれを購入して勉強しようと思っています >>955
雑魚CLSくらいさっさと仕留めろよ(ノ∀`) >>957
まずはAWSくらい触れやm9(`Д´) >>957
AWS公式トレーニングやって、大筋で言ってることが分かるなら、その後にUdemy回して合格可能 >>954
よくわからないんだけど構造化データを構造化データに変換する意味って何? >>960
構造化から構造化だったら表記揺れの統一、
複数テーブルの結合、不正な値の除去とか
あとはCSVみたいな構造化データを列指向の
フォーマットに変換すると、クエリでテーブル全体を
読まなくてよくなるとか どっちマンのaws触ってるとは思えない質問にまさかaws触れと他人を諭すとはどこまでもおもろいやつよな
どっちマンのaws触ってるとは思えない質問にまさかaws触れと他人を諭すとはどこまでもおもろいやつよな
どっちマンのaws触ってるとは思えない質問にまさかaws触れと他人を諭すとはどこまでもおもろいやつよな
どっちマンのaws触ってるとは思えない質問にまさかaws触れと他人を諭すとはどこまでもおもろいやつよな
それより加藤も言ってるがとっととGCPスレにうせろや(´・ω・`)9m CloudFront を利用して、S3 に保存された動画ファイルを提供しています。問題を特定してサービスを監視するために、ログにアクセスする必要があります。
CloudFront ログ ファイルには、ユーザーに関する個人を特定できる情報が含まれる場合があります。
開発チームがログにアクセスできるようにする前に、企業はログ処理プロバイダーを利用して機密情報を削除します。未処理のログには次の基準が適用されます。
? 未処理のログ ファイルへのアクセスは、データ保護チームに制限されています。
?AWS CodeCommit を使用して、AWS CloudFormation テンプレートを保存する必要があります。
?CloudFormation テンプレートを更新するには、コミット時に AWS CodePipeline をトリガーする必要があります。
CloudFront は、ログ処理サービスがアクセスしている S3 バケットに未処理のログをすでにアップロードしています。
ビジネス要件を満たすために、ソリューション アーキテクトはどの一連のアクションを実行する必要がありますか?
A. AWS Logs Delivery アカウントが暗号化用のデータ キーを生成できるようにする AWS KMS キーを作成します。新しい KMS キーを使用して、ログ ストレージ バケットの KMS 管理キー (SSE-KMS) でサーバー側の暗号化を使用するように S3 デフォルト暗号化を設定します。KMS キー ポリシーを変更して、ログ処理サービスが復号化操作を実行できるようにします。
B. CloudFront サービス ロールに従って、暗号化用のデータ キーを生成する AWS KMS キーを作成する 新しい KMS キーを使用してログ ストレージ バケットで KMS 管理キー (SSE-KMS) を使用するように S3 デフォルト暗号化を設定する KMS キー ポリシーを変更して許可する復号化操作を実行するためのログ処理サービス。
どっ(´・ω・`)? GCPプロも取って卒業してサップの勉強してるんだからここにいるのが常考だろう(´・A・`)9m >>965
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ >>965
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ >>965
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ
全然わからなかったのにどうやってGCPプロ取ったの?
証拠はよ SAP問題文長いから結局何が聞きたいのかわからん
新入社員の質問みたい >>969
excelしか触らせてもらえない馬鹿乙
excelしか触らせてもらえない馬鹿乙
excelしか触らせてもらえない馬鹿乙
excelしか触らせてもらえない馬鹿乙
https://i.imgur.com/h7igLyP.jpg >>970
何が癪に触ったのかわからんけどETLとGlueについてきちんと勉強しような >>972
なるほど、お前のTwitterアカウントじゃねぇか
元凶のお前がご対応して差し上げろ >>971
>>972
何?アウアウ2匹いんの?
自作自演かよ てか上流工程でExcelしか触らせてもらえないってお前それ上流工程って言わねえぞ(笑)
きっとソリューションアーキテクトのアーキテクトの意味分かってねえんだろうな
これからエクセルどっちマンって呼んでやるよ9m ちなみにだがetlを行うとためのツールがglueだぞ
EMRをサーバレス化したものがGlueなんだけどちゃんと理解してるぅ?w どっちマン君みたいなアホにマッチしてる資格なんてawsにはありませんよ
ばーかばーか^_^ >>976
ETLについてわかってない発言載せとくわ
944 名無し検定1級さん (ワッチョイ 13eb-AY2q) 2022/08/09(火) 10:24:14.31 ID:XV0yWYi20
>>941
CとDは論外
GlueはETL処理するもんだから反構造化データを構造化データに変換するためのもので混在しているものに使う意味がない
しかもS3に保管してどうやって取り出すのか書いてない
なら自ずと答えはわかるであろう
by 加藤 >>978
え?それで俺を論破したつもりなの?w
非構造化データを構造化データに変換するのは間違ってないじゃん
君の貧相な頭じゃ理解できなかったのかな?^_^ どっちマンって2類か5類か連呼してるハンワクみたいなもんだろw >>979
何の目的でデータ変換するのか全然理解してないだろ 結局非構造化データみたいな汚いデータをETL処理である程度綺麗に整形してDWHに格納してathenaとかQuickSightみたいなツールで取り出しますってそれだけの話じゃないの
まじ解ってないから教えてちょうだい あとどっちマンみたいな低脳のレスはいらねえ
時間の無駄だからな 多くの AWS リージョンにわたって、サービスは耐障害性を備えている必要があります。これらの要件に確実に準拠するには、どのような手順を実行する必要がありますか?
C. オンデマンド容量モードを使用して、2 つのリージョンの DynamoDB グローバル テーブルにデータを保存します。両方のリージョンで、Web サービスを ALBの背後にある Auto Scaling ECS サービスで ECS Fargate タスクとして実行します。Route 53 で、会社のドメインにエイリアス レコードを設定し、ルート 53 レイテンシーベースのルーティング ポリシーをヘルスチェックで設定して、2 つの ALB 間でトラフィックを分散します。
D. データを Aurora グローバル データベースに保存します。Auto Scaling レプリカを両方のリージョンに追加します。各リージョンの ALBの背後にある Auto Scaling グループの EC2 インスタンスで Web サービスを実行します。ユーザー データ内の Web サービス コードをダウンロードするようにインスタンスを構成します。Route 53 で、会社のドメインのエイリアス レコードと複数値ルーティング ポリシーを設定します。
ど? 仕方ねーな、グルーのどっち?出してやるよ(ノ∀`)つ
15 分ごとに、約 5,000 のレコードがプレーンテキストで HTTPS 経由でサーバー側の暗号化を使用して S3 バケットに直接転送されます。
このフィードは、クレジット カードのプライマリ アカウント番号 (PAN) に関連付けられた個人を特定できる情報 (PII) を提供します。
追加の内部処理のためにデータを別の S3 バケットに送信する前に、組織は PAN を自動的にマスクする必要があります。
さらに、データを JSON 形式に変換する前に、特定の情報を削除して結合する必要があります。さらに、追加のストリームは将来的に可能性があります。
これらの基準を満たすソリューションはどれですか?
C. データフィード形式に基づいて AWS Glue クローラーとカスタム分類子を作成し、一致するテーブル定義を構築します。
ファイル配信時に Lambda 関数をトリガーして Glue ETL ジョブを開始し、処理と変換の要件に従ってレコード全体を変換します。
出力形式を JSON として定義します。完了したら、ETL ジョブで結果を別の S3 バケットに送信して内部処理を行います。
D. データフィード形式に基づいて AWS Glue クローラーとカスタム分類子を作成し、一致するテーブル定義を構築します。
ファイル配信で Athena クエリを実行して EMR ETL ジョブを開始し、処理と変換の要件に従ってレコード全体を変換します。
出力形式を JSON として定義します。完了したら、結果を別の S3 バケットに送信して内部処理を行い、EMR クラスターをスケールダウンします。 資格を取ることで、awsが使いこなせるようになりますか >>989
マジレスするとならない
awsも実務経験積むことが資格取得のベストプラクティスだって言ってる 本読むんじゃなくてちゃんとAWSに課金して実際に使えってことか >>991
1年の無料枠があるから普通かからないけどな 資格取ったら通用するなんて甘い考え捨てた方がいい
何度もSnowmobile使ったプロジェクトに携わった俺から言わせれば資格取得なんて入口にようやく立ったようなもんだよ でも、資格を取らないと
スタートラインに立てなかったりするしね。 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 117日 5時間 42分 38秒 レス数が1000を超えています。これ以上書き込みはできません。