Langsung ke konten utama
Dokumentasi
Area teknologi
close
AI dan ML
Pengembangan aplikasi
Hosting aplikasi
Compute
Analisis data dan pipeline
Database
Terdistribusi, hybrid, dan multi-cloud
AI Generatif
Solusi industri
Jaringan
Kemampuan observasi dan pemantauan
Keamanan
Storage
Alat lintas produk
close
Pengelolaan akses dan resource
Pengelolaan biaya dan penggunaan
Google Cloud SDK, bahasa, framework, dan alat
Infrastruktur sebagai kode
Migrasi
Situs terkait
close
Beranda Google Cloud
Uji Coba Gratis dan Paket Gratis
Architecture Center
Blog
Hubungi Bagian Penjualan
Pusat Developer Google Cloud
Pusat Developer Google
Google Cloud Marketplace
Dokumentasi Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Dukungan Google Cloud
Channel YouTube Google Cloud Tech
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Konsol
Masuk
Google Kubernetes Engine (GKE)
Ringkasan
Panduan
Referensi
Contoh
Referensi
Hubungi Kami
Mulai gratis
Dokumentasi
Ringkasan
Panduan
Referensi
Contoh
Referensi
Area teknologi
Lainnya
Alat lintas produk
Lainnya
Situs terkait
Lainnya
Konsol
Hubungi Kami
Mulai gratis
Discover
Memperkenalkan GKE
Menjelajahi dokumentasi GKE
Menggunakan GKE atau Cloud Run?
Coba
Membuat cluster di konsol
Membuat cluster dengan Terraform
Menjelajahi cluster
Menyesuaikan layanan GKE dengan bantuan Gemini
Mempelajari dasar-dasarnya
Mulai mempelajari GKE
Mempelajari dasar-dasar Kubernetes
Mulai mempelajari Kubernetes
Memperkenalkan penampung
Komik Kubernetes
Kubernetes.io
Playlist video: Belajar Kubernetes dengan Google
Mempelajari dasar-dasar GKE
Mode operasi GKE
Edisi GKE
Playlist video: GKE Essentials
Mulai
Siklus proses cluster
Ringkasan administrasi cluster
Konfigurasi cluster
Men-deploy workload
Arsitektur cluster GKE
Alur kerja dan alat
Ringkasan gcloud CLI
GKE di konsol Google Cloud
Menyediakan resource GKE dengan Terraform
Menginstal kubectl dan mengonfigurasi akses cluster
Menyederhanakan deployment menggunakan IDE
Jalur pembelajaran: Memasukkan aplikasi ke dalam container
Ringkasan
Memahami monolith
Membuat monolit menjadi modular
Menyiapkan containerization
Menyimpan aplikasi modular dalam container
Men-deploy aplikasi ke cluster
Jalur pembelajaran: Aplikasi skalabel
Ringkasan
Membuat cluster
Memantau dengan Prometheus
Menskalakan workload
Menyimulasikan kegagalan
Pertimbangan produksi
Desain dan rencana
Contoh kode
Solusi praktis
Aplikasi web dinamis dengan Java
Aplikasi web e-commerce
Arsitektur dan praktik terbaik
Mengembangkan dan mengirimkan aplikasi dengan Cloud Code, Cloud Build, dan Google Cloud Deploy
Mengatasi tantangan continuous delivery
Menyiapkan cluster GKE
Merencanakan cluster untuk menjalankan workload Anda
Membandingkan fitur di Autopilot GKE dan Standard
Tentang cluster regional
Tentang feature gate
Tentang cluster alfa
Menyiapkan cluster Autopilot
Tentang GKE Autopilot
Membuat cluster Autopilot
Memperpanjang runtime Pod Autopilot
Menyiapkan cluster Standard
Membuat cluster zona
Membuat cluster regional
Membuat cluster alfa
Membuat cluster menggunakan node pool Windows
Bersiap untuk menggunakan cluster
Menggunakan label untuk mengatur cluster
Mengelola resource GKE menggunakan Tag
Mengonfigurasi node pool
Tentang node pool
Menambahkan dan mengelola node pool
Tentang image node
Tentang image Containerd
Menentukan image node
Tentang workload Arm di GKE
Membuat cluster dan node pool Standar dengan node Arm
Merencanakan ukuran node GKE Standard
Tentang Spot VM
Menggunakan sole-tenant node
Tentang container Windows Server
Otomatis memperbaiki node
Melakukan bootstrap node GKE secara otomatis dengan DaemonSets
Menyiapkan cluster untuk multi-tenancy
Tentang multi-tenancy cluster
Merencanakan lingkungan multi-tenant
Menyiapkan cluster GKE untuk tenant pihak ketiga
Menyiapkan logging multi-tenant
Menggunakan fleet untuk menyederhanakan pengelolaan multi-cluster
Tentang fleet
Membuat fleet
Menyiapkan mesh layanan
Menyediakan Cloud Service Mesh di cluster Autopilot
Meningkatkan skalabilitas cluster
Tentang skalabilitas GKE
Membuat rencana untuk skalabilitas
Membuat rencana untuk cluster GKE yang besar
Membuat rencana untuk workload yang besar
Menyediakan kapasitas komputasi tambahan untuk penskalaan Pod yang cepat
Menggunakan resource zona yang dicadangkan
Mengurangi dan mengoptimalkan biaya
Membuat rencana pengoptimalan biaya
Melihat biaya GKE
Melihat perincian biaya cluster
Melihat metrik pengoptimalan terkait biaya
Mengoptimalkan biaya GKE
Menyesuaikan ukuran workload GKE Anda dalam skala besar
Mengurangi biaya dengan memperkecil cluster GKE di luar jam sibuk
Mengidentifikasi cluster GKE yang kurang dan berlebih
Mengidentifikasi cluster GKE yang nonaktif
Mengonfigurasi penskalaan otomatis infrastruktur
Tentang penskalaan otomatis cluster
Mengonfigurasi penskalaan otomatis cluster
Tentang penyediaan otomatis node
Mengonfigurasi penyediaan otomatis node
Melihat peristiwa penskalaan otomatis cluster
Mengonfigurasi penskalaan otomatis untuk workload
Menskalakan aplikasi yang di-deploy
Tentang penskalaan otomatis workload berdasarkan metrik
Mengoptimalkan penskalaan otomatis Pod berdasarkan metrik
Tentang penskalaan otomatis Pod horizontal
Menskalakan deployment secara otomatis menggunakan penskalaan otomatis Pod Horizontal
Mengonfigurasi penskalaan otomatis untuk workload LLM di GPU
Mengonfigurasi penskalaan otomatis untuk workload LLM di TPU
Melihat peristiwa Horizontal Pod Autoscaler
Tentang penskalaan otomatis Pod vertikal
Mengonfigurasi penskalaan otomatis Pod multidimensi
Menskalakan permintaan dan batas resource container
Menskalakan hingga nol menggunakan KEDA
Menyediakan penyimpanan
Tentang penyimpanan untuk cluster GKE
Menggunakan fitur, primitif, dan abstraksi Kubernetes untuk penyimpanan
Menggunakan volume persisten dan penyediaan dinamis
Menggunakan StatefulSet
Tentang snapshot volume
Menggunakan ekspansi volume
Mentransfer data dari Cloud Storage menggunakan GKE Volume Populator
Block storage
Menyediakan dan menggunakan Persistent Disk
Menggunakan driver CSI Persistent Disk Compute Engine
Batas pemasangan volume persisten
Menggunakan persistent disk yang sudah ada
Menginstal driver CSI secara manual
Menggunakan persistent disk dengan banyak pembaca (ReadOnlyMany)
Persistent disk yang didukung oleh SSD
Persistent disk menurut region
Meningkatkan ketersediaan aplikasi stateful dengan Operator HA Stateful
Menyediakan dan menggunakan Hyperdisk
Tentang Hyperdisk
Meningkatkan performa penyimpanan Anda menggunakan Hyperdisk
Mengoptimalkan performa dan biaya penyimpanan dengan Penyimpanan Gabungan Hyperdisk
Mempercepat pemuatan data AI/ML menggunakan Hyperdisk ML
Menyediakan dan menggunakan Cache Data GKE
Mempercepat performa baca workload stateful dengan GKE Data Cache
Mengelola penyimpanan persisten
Mengonfigurasi boot disk untuk sistem file node
Meng-clone persistent disk
Mencadangkan dan memulihkan penyimpanan Persistent Disk menggunakan snapshot volume
Mengoptimalkan performa disk
Tentang mengoptimalkan performa disk
Memantau performa disk
SSD lokal dan penyimpanan efemeral
Tentang penyimpanan SSD Lokal untuk GKE
Menyediakan penyimpanan efemeral yang didukung SSD Lokal
Menyediakan block storage mentah yang didukung SSD Lokal
Membuat Deployment menggunakan Volume EmptyDir
Menggunakan Persistent Disk khusus sebagai volume sementara
Penyimpanan file
Menyediakan dan menggunakan Filestore
Tentang dukungan Filestore untuk GKE
Mengakses instance Filestore
Men-deploy workload stateful dengan Filestore
Tentang multishare Filestore untuk GKE
Mengoptimalkan multishare untuk GKE
Mencadangkan dan memulihkan penyimpanan Filestore menggunakan snapshot volume
Menyediakan dan menggunakan volume Parallelstore
Tentang Parallelstore untuk GKE
Membuat dan menggunakan volume yang didukung oleh Parallelstore
Mengakses instance Parallelstore yang ada
Menyediakan dan menggunakan volume Lustre
Tentang Lustre untuk GKE
Membuat dan menggunakan volume yang didukung oleh Lustre
Mengakses instance Lustre yang ada
Penyimpanan objek
Panduan memulai: Driver CSI Cloud Storage FUSE untuk GKE
Tentang driver CSI Cloud Storage FUSE untuk GKE
Menyiapkan driver CSI Cloud Storage FUSE
Memasang bucket Cloud Storage sebagai volume efemeral
Memasang bucket Cloud Storage sebagai volume persisten
Mengonfigurasi penampung sidecar driver CSI Cloud Storage FUSE
Mengoptimalkan performa driver CSI Cloud Storage FUSE
Mengonfigurasi keamanan cluster
Mempelajari keamanan GKE
Tentang keamanan di GKE
Tentang keamanan bidang kontrol
Tentang enkripsi yang divalidasi FIPS di GKE
Langkah-langkah keamanan di Autopilot GKE
Tentang kepercayaan cluster
Merencanakan keamanan cluster
Melakukan hardening pada cluster
Patching keamanan
Audit logging untuk Kubernetes
Logging audit untuk Kubernetes Engine
Logging audit untuk Container Security API
Tentang kebijakan audit
Tanggung jawab keamanan bersama
Memitigasi insiden keamanan
vTPM dalam workload GKE Rahasia
Mengautentikasi dan memberi otorisasi
Mengautentikasi ke GKE API
Mengautentikasi ke Google Cloud API dari GKE
Tentang RBAC dan IAM
Praktik terbaik untuk RBAC
Tentang akun layanan di GKE
Mengautentikasi ke server Kubernetes API
Menggunakan penyedia identitas eksternal untuk melakukan autentikasi ke cluster GKE
Mengizinkan tindakan dalam cluster menggunakan GKE RBAC
Mengelola izin grup menggunakan Google Grup dengan RBAC
Mengizinkan akses ke resource Google Cloud menggunakan kebijakan IAM
Mengelola akses SSH node tanpa menggunakan kunci SSH
Mengaktifkan akses dan melihat resource cluster berdasarkan namespace
Membatasi tindakan pada resource GKE menggunakan kebijakan organisasi khusus
Tentang seccomp di GKE
Cakupan akses di GKE
Mengakses registry pribadi dengan sertifikat CA pribadi
Mengisolasi cluster dan workload Anda
Tentang GKE Sandbox
Mengisolasi workload Anda menggunakan GKE Sandbox
Mengisolasi workload Anda di node pool khusus
Menerapkan aturan dan kebijakan firewall
Menerapkan kebijakan firewall di GKE secara selektif
Menggunakan tag jaringan untuk menerapkan aturan firewall ke node
Melakukan hardening pada workload dan node
Menerapkan kebijakan keamanan level Pod yang telah ditentukan sebelumnya menggunakan PodSecurity
Menerapkan kebijakan keamanan tingkat Pod kustom menggunakan Gatekeeper
Tentang Workload Identity Federation for GKE
Mengautentikasi ke Google Cloud API dari GKE
Mengakses secret yang disimpan di luar cluster GKE menggunakan library klien
Menonaktifkan port hanya baca kubelet yang tidak aman
Menjalankan agen VM di setiap node GKE
Mengenkripsi data sensitif
Mengenkripsi data aktif dengan Confidential GKE Node
Mengenkripsi data Anda saat dalam pengiriman di GKE dengan kunci enkripsi yang dikelola pengguna
Mengenkripsi Secret pada lapisan aplikasi
Mengelola keamanan bidang kontrol
Tentang keamanan bidang kontrol
Memverifikasi integritas VM bidang kontrol GKE
Tentang kepercayaan cluster
Tentang otoritas bidang kontrol
Menjalankan kunci dan certificate authority Anda sendiri di GKE
Mengenkripsi disk booting etcd dan bidang kontrol
Memverifikasi koneksi oleh personel Google di bidang kontrol GKE
Memverifikasi penerbitan dan penggunaan identitas
Mengelola kredensial
Merotasi kredensial cluster Anda
Merotasi alamat IP bidang kontrol
Memantau keamanan cluster
Tentang dasbor postur keamanan
Tentang pemindaian postur keamanan Kubernetes
Memindai workload untuk menemukan masalah konfigurasi
Tentang pemindaian kerentanan workload
Memindai container untuk mendeteksi kerentanan yang diketahui
Mengonfigurasi fitur postur keamanan GKE untuk fleet
Mengaktifkan logging auditd Linux di cluster Standard
Men-deploy dan mengelola workload
Merencanakan deployment workload
Merencanakan permintaan resource untuk workload Autopilot
Memigrasikan workload
Mengidentifikasi cluster Standard untuk dimigrasikan ke Autopilot
Bersiap untuk bermigrasi ke cluster Autopilot dari cluster Standard
Men-deploy workload dengan persyaratan komputasi khusus
Tentang class komputasi kustom di GKE
Mengontrol atribut node yang diskalakan otomatis dengan class komputasi kustom
Tentang class komputasi bawaan di cluster Autopilot
Memilih class komputasi standar untuk Pod Autopilot
Platform CPU minimum untuk workload komputasi intensif
Mengonfigurasi bursting Pod di GKE
Menganalisis performa CPU menggunakan PMU
Men-deploy workload yang memiliki persyaratan keamanan khusus
Partner Autopilot GKE
Menjalankan workload dengan hak istimewa dari partner Autopilot GKE
Menjalankan workload open source dengan hak istimewa di Autopilot GKE
Men-deploy workload yang memerlukan perangkat khusus
Tentang alokasi resource dinamis (DRA) di GKE
Menyiapkan infrastruktur GKE untuk DRA
Men-deploy workload DRA
Mengelola workload
Mengonfigurasi pemisahan workload di GKE
Menempatkan Pod GKE di zona tertentu
Menyimulasikan kegagalan zona
Meningkatkan efisiensi workload menggunakan NCCL Fast Socket
Tentang ringkasan image container
Menggunakan ringkasan image container dalam manifes Kubernetes
Meningkatkan kecepatan inisialisasi workload
Menggunakan image container streaming
Menggunakan boot disk sekunder untuk melakukan pramuat data atau image container
Continuous integration dan produksi berkelanjutan
Merencanakan continuous integration dan continuous delivery
Membuat pipeline CI/CD dengan Azure Pipelines
Continuous delivery bergaya GitOps dengan Cloud Build
CI/CD modern dengan GKE
Framework pengiriman software
Membangun sistem CI/CD
Menerapkan alur kerja developer
Men-deploy database, cache, dan workload streaming data
Data di GKE
Merencanakan deployment database Anda di GKE
Database terkelola
Men-deploy aplikasi menggunakan Autopilot GKE dan Spanner
Men-deploy WordPress di GKE dengan Persistent Disk dan Cloud SQL
Menganalisis data di GKE menggunakan BigQuery, Cloud Run, dan Gemma
Kafka
Men-deploy Apache Kafka ke GKE menggunakan Strimzi
Men-deploy Apache Kafka ke GKE menggunakan Confluent
Men-deploy cluster Kafka yang sangat tersedia di GKE
Redis
Membuat aplikasi web multi-tingkat dengan Redis dan PHP
Men-deploy cluster Redis di GKE
Men-deploy Redis ke GKE menggunakan Spotahome
Men-deploy Redis ke GKE menggunakan Redis Enterprise
MySQL
Men-deploy cluster MySQL stateful
PostgreSQL
Men-deploy database PostgreSQL yang sangat tersedia
Men-deploy PostgreSQL ke GKE menggunakan Zalando
Men-deploy PostgreSQL ke GKE menggunakan CloudNativePG
SQL Server
Men-deploy SQL Server 2017 instance tunggal di GKE
Memcached
Men-deploy Memcached di GKE
Database vektor
Membuat chatbot RAG menggunakan GKE dan Cloud Storage
Men-deploy database Qdrant di GKE
Men-deploy database Elasticsearch di GKE
Men-deploy database vektor PostgreSQL di GKE
Men-deploy database vektor Weaviate di GKE
Men-deploy workload AI/ML
Orkestrasi AI/ML di GKE
Menjalankan workload ML dan AI
GPU
Tentang GPU di GKE
Men-deploy workload GPU di Autopilot GKE
Men-deploy workload GPU di GKE Standard
Mengenkripsi data workload GPU yang sedang digunakan
Mengelola Stack GPU dengan Operator GPU NVIDIA
Berbagi GPU
Tentang strategi berbagi GPU di GKE
Menggunakan GPU multi-instance
Menggunakan berbagi waktu GPU
Menggunakan NVIDIA MPS
Praktik terbaik untuk penskalaan otomatis beban kerja inferensi LLM di GPU
Praktik terbaik untuk mengoptimalkan performa inferensi LLM di GPU
TPU di GKE
Tentang TPU di GKE
Merencanakan TPU di GKE
Meminta TPU
Meminta TPU dengan pemesanan untuk masa mendatang dalam mode kalender
Menjalankan workload batch kecil dengan mode penyediaan flex-start untuk TPU
Men-deploy workload TPU di Autopilot GKE
Men-deploy workload TPU di GKE Standard
Men-deploy TPU Multislice di GKE
Mengorkestrasikan workload TPU Multislice menggunakan JobSet dan Kueue
Praktik terbaik untuk melakukan penskalaan otomatis pada workload inferensi LLM di TPU
Mengelola gangguan node GKE untuk GPU dan TPU
Workload berbasis CPU
Mengoptimalkan performa Pod Autopilot dengan memilih seri mesin
Mengoptimalkan penyediaan GPU dan TPU
Tentang penyediaan GPU dan TPU dengan flex-start
Menjalankan workload berskala besar dengan flex-start dengan penyediaan dalam antrean
Menjalankan workload batch kecil dengan mode penyediaan fleksibel
Pelatihan
Melatih model dengan GPU pada mode GKE Standar
Melatih model dengan GPU pada mode Autopilot GKE
Melatih Llama2 dengan Megatron-LM di VM A3 Mega
Melatih model ML skala besar dengan Checkpointing Multi-Tier
Inferensi
Tentang inferensi model AI/ML di GKE
Menjalankan inferensi praktik terbaik dengan resep Panduan Memulai Inferensi
Mencoba contoh inferensi di GPU
Menyajikan model dengan satu GPU
Menyajikan LLM dengan beberapa GPU
Menayangkan LLM seperti Deepseek-R1 671B atau Llama 3.1 405B
Menyajikan LLM di GPU L4 dengan Ray
Menyajikan LLM yang skalabel dengan TorchServe
Menyajikan Gemma di GPU dengan Hugging Face TGI
Menyajikan Gemma di GPU dengan vLLM
Menyajikan model Llama menggunakan GPU di GKE dengan vLLM
Menyajikan Gemma di GPU dengan TensorRT-LLM
Menyajikan LLM dengan GKE Inference Gateway
Menyesuaikan model terbuka Gemma menggunakan beberapa GPU
Menayangkan LLM dengan strategi penyediaan GPU yang dioptimalkan biaya dan ketersediaan tinggi
Mencoba contoh inferensi di TPU
Menyajikan model open source menggunakan TPU dengan TPU Optimum
Menyajikan Gemma di TPU dengan JetStream
Menyajikan LLM di TPU dengan JetStream dan PyTorch
Menyajikan LLM di TPU multi-host dengan JetStream dan Pathways
Menyajikan LLM di TPU dengan vLLM
Menyajikan LLM menggunakan TPU dengan KubeRay
Menyajikan SDXL menggunakan TPU di GKE dengan MaxDiffusion
Melakukan inferensi multi-host menggunakan Pathways
Batch
Praktik terbaik untuk menjalankan workload batch di GKE
Men-deploy sistem batch menggunakan Kueue
Mendapatkan GPU dengan Dynamic Workload Scheduler
Tentang ketersediaan GPU dengan flex-start
Menjalankan workload berskala besar dengan flex-start dengan penyediaan dalam antrean
Menjalankan workload batch kecil dengan mode penyediaan fleksibel
Mengimplementasikan sistem antrean Tugas dengan pembagian kuota antar-namespace
Mengoptimalkan penggunaan resource untuk workload pelatihan dan inferensi campuran menggunakan Kueue
Menggunakan Ray di GKE
Men-deploy workload menurut jenis aplikasi
Server dan aplikasi web
Merencanakan penayangan situs
Men-deploy aplikasi stateful
Memastikan workload siap menghadapi gangguan
Men-deploy aplikasi stateless
Mengizinkan koneksi langsung ke Pod Autopilot menggunakan hostPort
Jalankan Django
Men-deploy aplikasi dari Cloud Marketplace
Menjalankan workload full stack dalam skala besar di GKE
Men-deploy aplikasi server web dalam container
Game
Mendapatkan dukungan untuk masalah Agones
Mengisolasi pengontrol Agones di cluster GKE
Men-deploy workload Arm
Menyiapkan workload Arm untuk deployment ke cluster Standard
Membangun image multi-arch untuk workload Arm
Men-deploy workload Autopilot pada arsitektur Arm
Memigrasikan aplikasi x86 di GKE ke multi-arch dengan Arm
Microsoft Windows
Men-deploy aplikasi Windows Server
Membangun image multi-arch Windows Server
Men-deploy aplikasi ASP.NET dengan Autentikasi Windows di container Windows GKE
Menjalankan workload fault-tolerant dengan biaya lebih rendah
Menggunakan Pod Spot di cluster Autopilot
Menggunakan Spot VM untuk menjalankan workload di cluster GKE Standard
Menggunakan preemptible VM untuk menjalankan workload
Mengelola dan mengoptimalkan cluster
Mengelola perubahan siklus proses cluster untuk meminimalkan gangguan
Mengoptimalkan penggunaan GKE dengan insight dan rekomendasi
Mengelola cluster GKE
Mengupgrade ke GKE Enterprise
Mengonfigurasi cluster dan workload untuk staging
Mengupgrade cluster dan node pool
Tentang upgrade cluster GKE
Merencanakan upgrade cluster
Tentang saluran rilis
Menggunakan saluran rilis
Tentang upgrade cluster Autopilot
Tentang upgrade cluster Standard
Mengupgrade node secara otomatis
Mengupgrade cluster atau node pool secara manual
Tentang strategi upgrade node
Mengonfigurasi strategi upgrade node
Tentang masa pemeliharaan dan pengecualian
Mengonfigurasi masa pemeliharaan dan pengecualian
Tentang upgrade cluster dengan urutan peluncuran
Mengurutkan peluncuran upgrade cluster
Mendapatkan notifikasi untuk peristiwa cluster
Tentang notifikasi cluster
Menerima notifikasi cluster melalui Pub/Sub
Mengonfigurasi cluster untuk menerima notifikasi email
Mengonfigurasi notifikasi cluster untuk layanan pihak ketiga
Mendapatkan visibilitas ke upgrade cluster
Mengelola node
Memastikan resource untuk upgrade node
Ubah ukuran cluster dengan menambahkan atau menghapus node
Menentukan penempatan yang ringkas untuk node
Memigrasikan node ke jenis mesin yang berbeda
Bermigrasi dari Docker ke image node containerd
Memigrasikan node ke cgroupv2 Linux
Menyesuaikan konfigurasi containerd
Menyesuaikan konfigurasi sistem node
Mengonfigurasi node Windows Server untuk bergabung dengan domain
Multi-threading simultan (SMT) untuk komputasi berperforma tinggi
Hapus cluster
Menggunakan API beta Kubernetes dengan cluster GKE
Memastikan stabilitas bidang kontrol saat menggunakan webhook
Menggunakan Pencadangan untuk GKE
Memecahkan masalah Secret lapisan aplikasi