Google Associate Cloud Engineer 證照考古題大全 20240918

閱讀時間約 44 分鐘

谷歌雲工程理師助理證照題庫彙整 20240918

Google Cloud Platform(GCP 谷歌雲)全系列考古題,2024年最新題庫,持續更新,全網最完整。GCP 證照含金量高,自我進修、跨足雲端產業必備近期版本更新,隨時追蹤最新趨勢變化。

QUESTION 61

Your organization is a financial company that needs to store audit log files for 3 years. Your organization has hundreds of Google Cloud projects. You need to implement a cost-effective approach for log file retention. What should you do?

A.       Create an export to the sink that saves logs from Cloud Audit to BigQuery.

B.       Create an export to the sink that saves logs from Cloud Audit to a Coldline Storage bucket.

C.      Write a custom script that uses logging API to copy the logs from Stackdriver logs to BigQuery.

D.      Export these logs to Cloud Pub/Sub and write a Cloud Dataflow pipeline to store logs to Cloud SQL.

Correct Answer: B

Section: (none)

QUESTION 62

You want to run a single caching HTTP reverse proxy on GCP for a latency-sensitive website. This specific reverse proxy consumes almost no CPU. You want to have a 30-GB in-memory cache, and need an additional 2 GB of memory for the rest of the processes. You want to minimize cost. How should you run this reverse proxy?

A.       Create a Cloud Memorystore for Redis instance with 32-GB capacity.

B.       Run it on Compute Engine, and choose a custom instance type with 6 vCPUs and 32 GB of memory.

C.      Package it in a container image, and run it on Kubernetes Engine, using n1-standard-32 instances as nodes.

D.      Run it on Compute Engine, choose the instance type n1-standard-1, and add an SSD persistent disk of 32 GB.

Correct Answer: A

Section: (none)


小豬科技提供業界領先的雲端伺服器管理平台,支援多種雲端服務,讓您的業務無縫銜接,穩定運行。了解更多,請訪問 小豬科技


QUESTION 63

You are hosting an application on bare-metal servers in your own data center. The application needs access to Cloud Storage.However, security policies prevent the servers hosting the application from having public IP addresses or access to the internet.You want to follow Google-recommended practices to provide the application with access to Cloud Storage. What should youdo?

A.       1. Use nslookup to get the IP address for storage.googleapis.com. 2. Negotiate with the security team to be able to give a public IP address to the servers. 3. Only allow egress traffic from those servers to the IP addresses forstorage.googleapis.com.

B.       1. Using Cloud VPN, create a VPN tunnel to a Virtual Private Cloud (VPC) in Google Cloud. 2. In this VPC, create a Compute Engine instance and install the Squid proxy server on this instance. 3. Configure your servers to use thatinstance as a proxy to access Cloud Storage.

C.      1. Use Migrate for Compute Engine (formerly known as Velostrata) to migrate those servers to Compute Engine. 2. Create an internal load balancer (ILB) that uses storage.googleapis.com as backend. 3. Configure your new instances to use thisILB as proxy.

D.      1. Using Cloud VPN or Interconnect, create a tunnel to a VPC in Google Cloud. 2. Use Cloud Router to create a custom route advertisement for 199.36.153.4/30. Announce that network to your on-premises network through the VPN tunnel. 3. Inyour on-premises network, configure your DNS server to resolve

*.googleapis.com as a CNAME to restricted.googleapis.com.

Correct Answer: D

Section: (none)

QUESTION 64

You want to deploy an application on Cloud Run that processes messages from a Cloud Pub/Sub topic. You want to followGoogle-recommended practices. What should you do?

A.       1. Create a Cloud Function that uses a Cloud Pub/Sub trigger on that topic. 2. Call your application on Cloud Run from theCloud Function for every message.

B.       1. Grant the Pub/Sub Subscriber role to the service account used by Cloud Run. 2. Create a Cloud Pub/ Sub subscriptionfor that topic. 3. Make your application pull messages from that subscription.

C.      1. Create a service account. 2. Give the Cloud Run Invoker role to that service account for your Cloud Run application. 3.Create a Cloud Pub/Sub subscription that uses that service account and uses your Cloud Run application as the pushendpoint.

D.      1. Deploy your application on Cloud Run on GKE with the connectivity set to Internal. 2. Create a Cloud Pub/Sub subscription for that topic. 3. In the same Google Kubernetes Engine cluster as your application, deploy a container thattakes the messages and sends them to your application.

Correct Answer: C

Section: (none)

QUESTION 65

You need to deploy an application, which is packaged in a container image, in a new project. The application exposes anHTTP endpoint and receives very few requests per day. You want to minimize costs. What should you do?

A.       Deploy the container on Cloud Run.

B.       Deploy the container on Cloud Run on GKE.

C.      Deploy the container on App Engine Flexible.

D.      Deploy the container on GKE with cluster autoscaling and horizontal pod autoscaling enabled.

Correct Answer: A

Section: (none)

QUESTION 66

Your company has an existing GCP organization with hundreds of projects and a billing account. Your company recentlyacquired another company that also has hundreds of projects and its own billing account. You would like to consolidate all GCPcosts of both GCP organizations onto a single invoice. You would like to consolidate all costs as of tomorrow. What should youdo?

A.       Link the acquired company's projects to your company's billing account.

B.       Configure the acquired company's billing account and your company's billing account to export the billing data into thesame BigQuery dataset.

C.      Migrate the acquired company's projects into your company's GCP organization. Link the migrated projects to your company's billing account.

D.      Create a new GCP organization and a new billing account. Migrate the acquired company's projects and your company'sprojects into the new GCP organization and link the projects to the new billing account.

Correct Answer: A

Section: (none)

QUESTION 67

You built an application on Google Cloud that uses Cloud Spanner. Your support team needs to monitor the environment butshould not have access to table data.

You need a streamlined solution to grant the correct permissions to your support team, and you want to follow Google-recommended practices. What should you do?

A.       Add the support team group to the roles/monitoring.viewer role

B.       Add the support team group to the roles/spanner.databaseUser role.

C.      Add the support team group to the roles/spanner.databaseReader role.

D.      Add the support team group to the roles/stackdriver.accounts.viewer role.

Correct Answer: A

Section: (none)


立即加入小豬科技,享受全方位的雲端服務支援,輕鬆註冊,即刻開通雲端伺服器!點擊這裡註冊


QUESTION 68

For analysis purposes, you need to send all the logs from all of your Compute Engine instances to a BigQuery datasetcalled platform-logs. You have already installed the Cloud Logging agent on all the instances. You want to minimize cost.What should you do?

A.       1. Give the BigQuery Data Editor role on the platform-logs dataset to the service accounts used by your instances. 2. Update your instances' metadata to add the following value: logs-destination: bq://platform-logs.

B.       1. In Cloud Logging, create a logs export with a Cloud Pub/Sub topic called logs as a sink. 2.   Create a Cloud Function that is triggered by messages in the logs topic. 3.   Configure that Cloud Function to drop logs that are not from Compute Engine and to insert Compute Engine logs in theplatform-logs dataset.

C.      1. In Cloud Logging, create a filter to view only Compute Engine logs. 2.   Click Create Export. 3.   Choose BigQuery as Sink Service, and the platform-logs dataset as Sink Destination.

D.      1. Create a Cloud Function that has the BigQuery User role on the platform-logs dataset. 2.   Configure this Cloud Function to create a BigQuery Job that executes this query: INSERT INTO dataset.platform-logs (timestamp, log) SELECT timestamp, log FROM compute.logs WHERE timestamp >DATE_SUB(CURRENT_DATE(), INTERVAL 1 DAY) 3.   Use Cloud Scheduler to trigger this Cloud Function once a day.

Correct Answer: C

Section: (none)

QUESTION 69

You are using Deployment Manager to create a Google Kubernetes Engine cluster. Using the same DeploymentManager deployment, you also want to create a

DaemonSet in the kube-system namespace of the cluster. You want a solution that uses the fewest possible services.What should you do?

A.       Add the cluster's API as a new Type Provider in Deployment Manager, and use the new type to create the DaemonSet.

B.       Use the Deployment Manager Runtime Configurator to create a new Config resource that contains the DaemonSetdefinition.

C.      With Deployment Manager, create a Compute Engine instance with a startup script that uses kubectl to create theDaemonSet.

D.      In the cluster's definition in Deployment Manager, add a metadata that has kube-system as key and the DaemonSetmanifest as value.

Correct Answer: A

Section: (none)

QUESTION 70

You are building an application that will run in your data center. The application will use Google Cloud Platform (GCP) services like AutoML. You created a service account that has appropriate access to AutoML. You need to enable authentication to theAPIs from your on-premises environment. What should you do?

A.       Use service account credentials in your on-premises application.

B.       Use gcloud to create a key file for the service account that has appropriate permissions.

C.      Set up direct interconnect between your data center and Google Cloud Platform to enable authentication for your on-premises applications.

D.      Go to the IAM & admin console, grant a user account permissions similar to the service account permissions, anduse this user account for authentication from your data center.

Correct Answer: B

Section: (none)

QUESTION 71

You are using Container Registry to centrally store your company's container images in a separate project. In another project,you want to create a Google

Kubernetes Engine (GKE) cluster. You want to ensure that Kubernetes can download images from Container Registry. Whatshould you do?

A.       In the project where the images are stored, grant the Storage Object Viewer IAM role to the service account used bythe Kubernetes nodes.

B.       When you create the GKE cluster, choose the Allow full access to all Cloud APIs option under 'Access scopes'.

C.      Create a service account, and give it access to Cloud Storage. Create a P12 key for this service account and use itas an imagePullSecrets in Kubernetes.

D.      Configure the ACLs on each image in Cloud Storage to give read-only access to the default Compute Engine serviceaccount.

Correct Answer: A

Section: (none)

QUESTION 72

You deployed a new application inside your Google Kubernetes Engine cluster using the YAML file specified below.

You check the status of the deployed pods and notice that one of them is still in PENDING status: You want to find outwhy the pod is stuck in pending status. What should you do?

A.       Review details of the myapp-service Service object and check for error messages.

B.       Review details of the myapp-deployment Deployment object and check for error messages.

C.      Review details of myapp-deployment-58ddbbb995-lp86m Pod and check for warning messages.

D.      View logs of the container in myapp-deployment-58ddbbb995-lp86m pod and check for warning messages.

Correct Answer: C

Section: (none)


有任何疑問?聯絡小豬科技專員,獲取專屬雲端解決方案,助您無縫進軍雲端市場!立即聯絡我們


QUESTION 73

You are setting up a Windows VM on Compute Engine and want to make sure you can log in to the VM via RDP. What should youdo? 

A.       After the VM has been created, use your Google Account credentials to log in into the VM.

B.       After the VM has been created, use gcloud compute reset-windows-password to retrieve the login credentials for theVM.

C.      When creating the VM, add metadata to the instance using 'windows-password' as the key and a password as thevalue.

D.      After the VM has been created, download the JSON private key for the default Compute Engine service account. Use thecredentials in the JSON file to log in to the VM.

Correct Answer: B

Section: (none)

QUESTION 74

You want to configure an SSH connection to a single Compute Engine instance for users in the dev1 group. This instance is theonly resource in this particular

Google Cloud Platform project that the dev1 users should be able to connect to. What should you do?

A.       Set metadata to enable-oslogin=true for the instance. Grant the dev1 group the compute.osLogin role. Direct them to usethe Cloud Shell to ssh to that instance.

B.       Set metadata to enable-oslogin=true for the instance. Set the service account to no service account for that instance.Direct them to use the Cloud Shell to ssh to that instance.

C.      Enable block project wide keys for the instance. Generate an SSH key for each user in the dev1 group. Distribute the keysto dev1 users and direct them to use their third-party tools to connect.

D.      Enable block project wide keys for the instance. Generate an SSH key and associate the key with that instance. Distributethe key to dev1 users and direct them to use their third-party tools to connect.

Correct Answer: A

Section: (none)

QUESTION 75

You need to produce a list of the enabled Google Cloud Platform APIs for a GCP project using the gcloud command line in theCloud Shell. The project name is my-project. What should you do?

A.       Run gcloud projects list to get the project ID, and then run gcloud services list --project <project ID>.

B.       Run gcloud init to set the current project to my-project, and then run gcloud services list --available.

C.      Run gcloud info to view the account value, and then run gcloud services list --account <Account>.

D.      Run gcloud projects describe <project ID> to verify the project value, and then run gcloud services list -- available.

Correct Answer: A

Section: (none)

QUESTION 76

You are building a new version of an application hosted in an App Engine environment. You want to test the new version with 1% of users before you completely switch your application over to the new version. What should you do?

A.       Deploy a new version of your application in Google Kubernetes Engine instead of App Engine and then use GCP Consoleto split traffic.

B.       Deploy a new version of your application in a Compute Engine instance instead of App Engine and then use GCP Consoleto split traffic.

C.      Deploy a new version as a separate app in App Engine. Then configure App Engine using GCP Console to split trafficbetween the two apps.

D.      Deploy a new version of your application in App Engine. Then go to App Engine settings in GCP Console and splittraffic between the current version and newly deployed versions accordingly.

Correct Answer: D

Section: (none)

QUESTION 77

You need to provide a cost estimate for a Kubernetes cluster using the GCP pricing calculator for Kubernetes. Your workloadrequires high IOPs, and you will also be using disk snapshots. You start by entering the number of nodes, average hours, andaverage days. What should you do next?

A.       Fill in local SSD. Fill in persistent disk storage and snapshot storage.

B.       Fill in local SSD. Add estimated cost for cluster management.

C.      Select Add GPUs. Fill in persistent disk storage and snapshot storage.

D.      Select Add GPUs. Add estimated cost for cluster management.

Correct Answer: A

Section: (none)

QUESTION 78

You are using Google Kubernetes Engine with autoscaling enabled to host a new application. You want to expose this newapplication to the public, using HTTPS on a public IP address. What should you do?

A.       Create a Kubernetes Service of type NodePort for your application, and a Kubernetes Ingress to expose this Service via aCloud Load Balancer.

B.       Create a Kubernetes Service of type ClusterIP for your application. Configure the public DNS name of your applicationusing the IP of this Service.

C.      Create a Kubernetes Service of type NodePort to expose the application on port 443 of each node of the

Kubernetes cluster. Configure the public DNS name of your application with the IP of every node of the cluster to achieve load-balancing.

D.      Create a HAProxy pod in the cluster to load-balance the traffic to all the pods of the application. Forward the public traffic to HAProxy with an iptable rule. Configure the DNS name of your application using the public IP of the node HAProxy is running on.

Correct Answer: A

Section: (none)

QUESTION 79

You need to enable traffic between multiple groups of Compute Engine instances that are currently running two different GCPprojects. Each group of Compute

Engine instances is running in its own VPC. What should you do?

A.       Verify that both projects are in a GCP Organization. Create a new VPC and add all instances.

B.       Verify that both projects are in a GCP Organization. Share the VPC from one project and request that the ComputeEngine instances in the other project use this shared VPC.

C.      Verify that you are the Project Administrator of both projects. Create two new VPCs and add all instances.

D.      Verify that you are the Project Administrator of both projects. Create a new VPC and add all instances.

Correct Answer: B

Section: (none)


想要快速啟動雲端服務?現在就註冊小豬科技,輕鬆開通您的雲端伺服器!立即註冊


QUESTION 80

You want to add a new auditor to a Google Cloud Platform project. The auditor should be allowed to read, but not modify, allproject items.

How should you configure the auditor's permissions?

A.       Create a custom role with view-only project permissions. Add the user's account to the custom role.

B.       Create a custom role with view-only service permissions. Add the user's account to the custom role.

C.      Select the built-in IAM project Viewer role. Add the user's account to this role.

D.      Select the built-in IAM service Viewer role. Add the user's account to this role.

Correct Answer: C

Section: (none)

1會員
40內容數
小豬科技 - 您的雲端伺服器解決方案 我們是領先的雲端伺服器供應商,提供來自 AWS、GCP、阿里雲、騰訊雲等頂級供應商的解決方案。我們主要提供高效能 VPS(虛擬機),以滿足客戶的多樣化需求。
留言0
查看全部
發表第一個留言支持創作者!
小豬科技的沙龍 的其他內容
AWS 架構師證照考古題大全 20240923 QUESTION 67 A company has an application mat provides marketing services to stores.
谷歌雲工程理師助理證照題庫彙整 20240923 Google Cloud Platform(GCP 谷歌雲)全系列考古題,2024年最新題庫,持續更新,全網最完整。GCP 證照含金量高,自我進修、跨足雲端產業必備近期版本更新,隨時追蹤最新趨勢變化。 QUESTION 121 Your man
AWS 雲端從業人員證照考古題彙整 20240923 QUESTION 134 Which of the following services can be used to block network traffic to an instance?
AWS 架構師證照考古題大全 20240922 Amazon Web Service(AWS 亞馬遜)全系列考古題,2024年最新題庫,持續更新,全網最完整。AWS 證照含金量高,自我進修、跨足雲端產業必備近期版本更新,隨時追蹤最新趨勢變化。 QUESTION 21 A company's d
谷歌雲工程理師助理證照題庫彙整 20240918 Google Cloud Platform(GCP 谷歌雲)全系列考古題,2024年最新題庫,持續更新,全網最完整。GCP 證照含金量高,自我進修、跨足雲端產業必備近期版本更新,隨時追蹤最新趨勢變化。 QUESTION 101 You need
AWS CLF-C02 QUESTION 119 A company has 5 TB of data stored in Amazon S3. The company plans to occasionally run queries on the data for analysis.
AWS 架構師證照考古題大全 20240923 QUESTION 67 A company has an application mat provides marketing services to stores.
谷歌雲工程理師助理證照題庫彙整 20240923 Google Cloud Platform(GCP 谷歌雲)全系列考古題,2024年最新題庫,持續更新,全網最完整。GCP 證照含金量高,自我進修、跨足雲端產業必備近期版本更新,隨時追蹤最新趨勢變化。 QUESTION 121 Your man
AWS 雲端從業人員證照考古題彙整 20240923 QUESTION 134 Which of the following services can be used to block network traffic to an instance?
AWS 架構師證照考古題大全 20240922 Amazon Web Service(AWS 亞馬遜)全系列考古題,2024年最新題庫,持續更新,全網最完整。AWS 證照含金量高,自我進修、跨足雲端產業必備近期版本更新,隨時追蹤最新趨勢變化。 QUESTION 21 A company's d
谷歌雲工程理師助理證照題庫彙整 20240918 Google Cloud Platform(GCP 谷歌雲)全系列考古題,2024年最新題庫,持續更新,全網最完整。GCP 證照含金量高,自我進修、跨足雲端產業必備近期版本更新,隨時追蹤最新趨勢變化。 QUESTION 101 You need
AWS CLF-C02 QUESTION 119 A company has 5 TB of data stored in Amazon S3. The company plans to occasionally run queries on the data for analysis.
你可能也想看
Google News 追蹤
Thumbnail
近期的「貼文發佈流程 & 版型大更新」功能大家使用了嗎? 新版式整體視覺上「更加凸顯圖片」,為了搭配這次的更新,我們推出首次貼文策展 ❤️ 使用貼文功能並完成這次的指定任務,還有機會獲得富士即可拍,讓你的美好回憶都可以用即可拍珍藏!
你是否曾使用Python進行網上爬蟲、撈取資料、分析,並將結果存進雲端資料庫? 你知道這一切可以全部發生在Google Drive裡嗎?而且,全部都是免費的!
Thumbnail
呈上篇,若是在大型系統中使用,重複被調用時,在每次紀錄時都會創建一個新的 FileHandler,這會導致日誌處理器不斷累積,從而使日誌重複記錄。 [Python]使用logging創建兩個以上的日誌紀錄 使用__new__的方法來避免重複調用 改良後 setup_logger 方法中創建一
Thumbnail
透過充分利用 AWS Organizations 和 CloudFormation StackSets,您可以更好地實現企業級的雲端管理與控制,為業務的持續發展提供穩固的技術支撐。
AWS DataSync 是一種線上資料移動和探索服務,可簡化並加速向 AWS 的資料遷移,以及在內部部署儲存、邊緣節點、其他雲端和 AWS 儲存服務移入和移出資料[1]。 在某些架構上會,使用該服務會需要安裝 DataSync Agent 來傳輸檔案 您需要 DataSync Agen
今天學習Git 的第一步: 取得與建立項目 Getting and Creating Projects [1]。 之前提到「儲存庫 Repository」就是儲存所有「檔案 File」的地方。 在Git 的邏輯裡,儲存庫是要儲存所有的「快照 Snapshots」。 什麼是快照
Thumbnail
需求情境: 在設計畫面時,資料來源是後台的 api,每一次畫面細節的修修改改,都會觸發 Xcode Preview 程序,導致不斷呼叫後台。此時若資料結構和大小都具有一定規模,就會導致效率低落,不斷等待,且消耗伺服器資源甚鉅。 解決方案: 將後台傳回的資料以檔案形式暫存在本地端,每次 pr
Thumbnail
本文章將說明如果您想要從頭建置一組具有Loadbalancer HA架構的Kubernetes Cluster時,你可能會需要做的事前準備工作。
Thumbnail
gRPC是一款跨平台、高性能的RPC框架,他可以在任何環境下執行,主要用於後端為服務開發。在用戶端應用程式中,可以像本地物件那樣呼叫遠端伺服器的方法,因此可以創建出分散式應用。 使用 到https://github.com/protocolbuffers/protobuf/releases下
Thumbnail
Request內容 package main import ( "fmt" "log" "net/http" "strings" ) func request(w http.ResponseWriter, r *http.Request) { //這些資訊是輸出到伺服器端的列印訊息
Thumbnail
近期的「貼文發佈流程 & 版型大更新」功能大家使用了嗎? 新版式整體視覺上「更加凸顯圖片」,為了搭配這次的更新,我們推出首次貼文策展 ❤️ 使用貼文功能並完成這次的指定任務,還有機會獲得富士即可拍,讓你的美好回憶都可以用即可拍珍藏!
你是否曾使用Python進行網上爬蟲、撈取資料、分析,並將結果存進雲端資料庫? 你知道這一切可以全部發生在Google Drive裡嗎?而且,全部都是免費的!
Thumbnail
呈上篇,若是在大型系統中使用,重複被調用時,在每次紀錄時都會創建一個新的 FileHandler,這會導致日誌處理器不斷累積,從而使日誌重複記錄。 [Python]使用logging創建兩個以上的日誌紀錄 使用__new__的方法來避免重複調用 改良後 setup_logger 方法中創建一
Thumbnail
透過充分利用 AWS Organizations 和 CloudFormation StackSets,您可以更好地實現企業級的雲端管理與控制,為業務的持續發展提供穩固的技術支撐。
AWS DataSync 是一種線上資料移動和探索服務,可簡化並加速向 AWS 的資料遷移,以及在內部部署儲存、邊緣節點、其他雲端和 AWS 儲存服務移入和移出資料[1]。 在某些架構上會,使用該服務會需要安裝 DataSync Agent 來傳輸檔案 您需要 DataSync Agen
今天學習Git 的第一步: 取得與建立項目 Getting and Creating Projects [1]。 之前提到「儲存庫 Repository」就是儲存所有「檔案 File」的地方。 在Git 的邏輯裡,儲存庫是要儲存所有的「快照 Snapshots」。 什麼是快照
Thumbnail
需求情境: 在設計畫面時,資料來源是後台的 api,每一次畫面細節的修修改改,都會觸發 Xcode Preview 程序,導致不斷呼叫後台。此時若資料結構和大小都具有一定規模,就會導致效率低落,不斷等待,且消耗伺服器資源甚鉅。 解決方案: 將後台傳回的資料以檔案形式暫存在本地端,每次 pr
Thumbnail
本文章將說明如果您想要從頭建置一組具有Loadbalancer HA架構的Kubernetes Cluster時,你可能會需要做的事前準備工作。
Thumbnail
gRPC是一款跨平台、高性能的RPC框架,他可以在任何環境下執行,主要用於後端為服務開發。在用戶端應用程式中,可以像本地物件那樣呼叫遠端伺服器的方法,因此可以創建出分散式應用。 使用 到https://github.com/protocolbuffers/protobuf/releases下
Thumbnail
Request內容 package main import ( "fmt" "log" "net/http" "strings" ) func request(w http.ResponseWriter, r *http.Request) { //這些資訊是輸出到伺服器端的列印訊息