Passa ai contenuti principali
Documentazione
Aree tecnologiche
close
AI e ML
Sviluppo di applicazioni
Hosting di applicazioni
Computing
Analisi dei dati e pipeline
Database
Distribuito, ibrido e multi-cloud
AI generativa
Soluzioni di settore
Networking
Osservabilità e monitoraggio
Sicurezza
Storage
Strumenti per più prodotti
close
Gestione di accessi e risorse
Gestione di costi e utilizzo
Google Cloud SDK, linguaggi, framework e strumenti
Infrastructure as Code (IaC)
Migrazione
Siti correlati
close
Home page di Google Cloud
Prova gratuita e livello gratuito
Architecture Center
Blog
Contatta il team di vendita
Developer Center di Google Cloud
Google Developer Center
Google Cloud Marketplace
Documentazione di Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Assistenza Google Cloud
Canale YouTube di Google Cloud Tech
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Accedi
Google Kubernetes Engine (GKE)
Panoramica
Guide
Riferimento
Esempi
Risorse
Contattaci
Inizia gratuitamente
Documentazione
Panoramica
Guide
Riferimento
Esempi
Risorse
Aree tecnologiche
Altro
Strumenti per più prodotti
Altro
Siti correlati
Altro
Console
Contattaci
Inizia gratuitamente
Scopri
Introduzione a GKE
Esplora la documentazione di GKE
Utilizzi GKE o Cloud Run?
Prova
Creare un cluster nella console
Creare un cluster con Terraform
Esplora il cluster
Ottimizzare i servizi GKE con l'assistenza di Gemini
Nozioni di base
Inizia a scoprire GKE
Apprendi le nozioni di base di Kubernetes
Inizia a scoprire Kubernetes
Introduzione ai container
Fumetto di Kubernetes
Kubernetes.io
Playlist di video: Come utilizzare Kubernetes con Google
Scopri i concetti di base di GKE
Modalità di funzionamento di GKE
Versioni di GKE
Playlist video: Concetti di base di GKE
Per iniziare
Ciclo di vita del cluster
Panoramica dell'amministrazione del cluster
Configurazione cluster
Deployment di carichi di lavoro
Architettura del cluster GKE
Workflows e strumenti
Panoramica dell'interfaccia a riga di comando gcloud
GKE nella console Google Cloud
Esegui il provisioning delle risorse GKE con Terraform
Installa kubectl e configura l'accesso al cluster
Semplifica il deployment utilizzando l'IDE
Percorso di apprendimento: containerizza l'app
Panoramica
Informazioni sul monolite
Modulare il monolite
Prepararsi alla containerizzazione
Containerizza l'app modulare
Esegui il deployment dell'app in un cluster
Percorso di apprendimento: app scalabili
Panoramica
Crea un cluster
Monitoraggio con Prometheus
Scala i carichi di lavoro
Simula un errore
Considerazioni sulla produzione
Progettazione e pianificazione
Esempi di codice
Soluzioni già pronte
Applicazione web dinamica con Java
Applicazione web di e-commerce
Architetture e best practice
Sviluppare e pubblicare app con Cloud Code, Cloud Build e Google Cloud Deploy
Risolvere i problemi di distribuzione continua
Configura i cluster GKE
Pianifica i cluster per l'esecuzione dei carichi di lavoro
Confrontare le funzionalità di GKE Autopilot e Standard
Informazioni sui cluster a livello di regione
Informazioni sui gate di funzionalità
Informazioni sui cluster alpha
Configurare i cluster Autopilot
Informazioni su GKE Autopilot
Creare cluster Autopilot
Estendere il tempo di esecuzione dei pod Autopilot
Configurare i cluster standard
Creazione di un cluster di zona
Creare un cluster a livello di area geografica
Crea un cluster alpha
Creare un cluster utilizzando i pool di nodi Windows
Prepararsi a utilizzare i cluster
Utilizzare le etichette per organizzare i cluster
Gestire le risorse GKE utilizzando i tag
Configura i pool di nodi
Informazioni sui node pool
Aggiunta e gestione dei node pool
Informazioni sulle immagini dei nodi
Informazioni sulle immagini containerd
Specifica un'immagine del nodo
Informazioni sui workload ARM su GKE
Creare cluster e pool di nodi standard con nodi Arm
Pianificare le dimensioni dei nodi GKE Standard
Informazioni sulle VM spot
Utilizzare i nodi single-tenant
Informazioni sui container Windows Server
Nodi a riparazione automatica
Esegui il bootstrap automatico dei nodi GKE con i DaemonSet
Configurare i cluster per il multitenancy
Informazioni sull'architettura di cluster multi-tenancy
Pianificare un ambiente multi-tenant
Preparare i cluster GKE per gli utenti di terze parti
Configurare il logging multi-tenant
Utilizzare i parchi risorse per semplificare la gestione multi-cluster
Informazioni sui parchi risorse
Creare parchi risorse
Configurare mesh di servizi
Esegui il provisioning di Cloud Service Mesh in un cluster Autopilot
Migliora la scalabilità per i cluster
Informazioni sulla scalabilità di GKE
Pianifica la scalabilità
Pianifica i cluster GKE di grandi dimensioni
Pianificare i carichi di lavoro di grandi dimensioni
Provisiona una capacità di calcolo aggiuntiva per la scalabilità rapida dei pod
Consumare risorse di zona prenotate
Ridurre e ottimizzare i costi
Pianifica l'ottimizzazione dei costi
Visualizza i costi di GKE
Visualizza la suddivisione dei costi del cluster
Visualizzazione delle metriche di ottimizzazione relative ai costi
Ottimizzare i costi di GKE
Scegli la dimensione giusta per i tuoi carichi di lavoro GKE su larga scala
Riduci i costi riducendo i cluster GKE durante le ore di punta
Identificare i cluster GKE sottodimensionati e sovradimensionati
Identificare i cluster GKE inattivi
Configura la scalabilità automatica per l'infrastruttura
Informazioni sulla scalabilità automatica dei cluster
Configura la scalabilità automatica del cluster
Informazioni sul provisioning automatico dei nodi
Configurare il provisioning automatico dei nodi
Visualizzare gli eventi di scalabilità automatica del cluster
Configurare la scalabilità automatica per i workload
Scalabilità delle applicazioni di cui è stato eseguito il deployment
Informazioni sulla scalabilità automatica dei carichi di lavoro in base alle metriche
Ottimizza la scalabilità automatica dei pod in base alle metriche
Informazioni sulla scalabilità automatica orizzontale dei pod
Scalabilità automatica dei deployment utilizzando la scalabilità automatica dei pod orizzontali
Configurare la scalabilità automatica per i carichi di lavoro LLM su GPU
Configurare la scalabilità automatica per i carichi di lavoro LLM sulle TPU
Visualizzare gli eventi di Horizontal Pod Autoscaler
Informazioni sulla scalabilità automatica dei pod verticali
Configura la scalabilità automatica del pod multidimensionale
Scala le richieste e i limiti delle risorse dei contenitori
Scalabilità fino a zero utilizzando KEDA
Provision dello spazio di archiviazione
Informazioni sullo spazio di archiviazione per i cluster GKE
Utilizzare funzionalità, primitive e astrazioni di Kubernetes per lo spazio di archiviazione
Utilizzare volumi permanenti e provisioning dinamico
Utilizzare gli StatefulSet
Informazioni sugli snapshot dei volumi
Utilizzare l'espansione del volume
Trasferisci i dati da Cloud Storage utilizzando GKE Volume Populator
Archiviazione a blocchi
Esegui il provisioning e utilizza i dischi permanenti
Utilizzo del driver CSI per il disco permanente di Compute Engine
Limiti di collegamento dei volumi permanenti
Utilizzo di dischi permanenti preesistenti
Installare manualmente un driver CSI
Utilizzo di dischi permanenti con più lettori (ReadOnlyMany)
Dischi permanenti basati su SSD
Dischi permanenti a livello di regione
Aumenta la disponibilità delle app stateful con l'operatore HA stateful
Esegui il provisioning e utilizza Hyperdisk
Informazioni su Hyperdisk
Scala le prestazioni dello spazio di archiviazione utilizzando Hyperdisk
Ottimizza le prestazioni e i costi di archiviazione con i pool di archiviazione Hyperdisk
Accelera il caricamento dei dati AI/ML utilizzando Hyperdisk ML
Esegui il provisioning e utilizza la cache di dati GKE
Accelera le prestazioni di lettura dei carichi di lavoro stateful con la cache di dati GKE
Gestire lo spazio di archiviazione permanente
Configura un disco di avvio per i file system dei nodi
Clonare i dischi permanenti
Esegui il backup e il ripristino dello spazio di archiviazione dei Persistent Disk utilizzando gli snapshot dei volumi
Ottimizzare le prestazioni del disco
Informazioni sull'ottimizzazione delle prestazioni del disco
Monitorare le prestazioni del disco
SSD locale e archiviazione temporanea
Informazioni sullo spazio di archiviazione SSD locale per GKE
Esegui il provisioning dell'archiviazione temporanea basata su SSD locale
Esegui il provisioning dell'archiviazione a blocchi non elaborati basata su SSD locale
Creare un deployment utilizzando un volume EmptyDir
Utilizzare dischi permanenti dedicati come volumi effimeri
Archiviazione di file
Esegui il provisioning e utilizza Filestore
Informazioni sul supporto di Filestore per GKE
Accedere alle istanze Filestore
Esegui il deployment di un workload stateful con Filestore
Informazioni sulle istanze a condivisione multipla di Filestore per GKE
Ottimizzare i multishare per GKE
Esegui il backup e il ripristino dello spazio di archiviazione Filestore utilizzando gli snapshot dei volumi
Provisioning e utilizzo dei volumi Parallelstore
Informazioni su Parallelstore per GKE
Creare e utilizzare un volume basato su Parallelstore
Accedere alle istanze Parallelstore esistenti
Esegui il provisioning e utilizza i volumi Lustre
Informazioni su Lustre per GKE
Crea e utilizza un volume supportato da Lustre
Accedere alle istanze Lustre esistenti
Archiviazione di oggetti
Guida rapida: driver CSI di Cloud Storage FUSE per GKE
Informazioni sul driver CSI di Cloud Storage FUSE per GKE
Configurare il driver CSI di Cloud Storage FUSE
Monta i bucket Cloud Storage come volumi effimeri
Montare i bucket Cloud Storage come volumi permanenti
Configura il contenitore sidecar del driver CSI di Cloud Storage FUSE
Ottimizzare le prestazioni del driver CSI di Cloud Storage FUSE
Configura la sicurezza del cluster
Scopri la sicurezza di GKE
Informazioni sulla sicurezza in GKE
Informazioni sulla sicurezza del piano di controllo
Informazioni sulla crittografia convalidata secondo FIPS in GKE
Misure di sicurezza in GKE Autopilot
Informazioni sull'attendibilità del cluster
Pianifica la sicurezza del cluster
Rafforzamento dei cluster
Applicazione delle patch di sicurezza
Log di controllo per Kubernetes
Log di controllo per Kubernetes Engine
Audit logging per l'API Container Security
Informazioni sui criteri di audit
Responsabilità di sicurezza condivise
Mitigare gli incidenti di sicurezza
vTPM nei workload GKE riservati
Autenticare e autorizzare
Esegui l'autenticazione nell'API GKE
Eseguire l'autenticazione nelle API Google Cloud da GKE
Informazioni su RBAC e IAM
Best practice per RBAC
Informazioni sugli account di servizio in GKE
Autenticazione nel server dell'API Kubernetes
Utilizzare provider di identità esterni per l'autenticazione ai cluster GKE
Autorizzare le azioni nei cluster utilizzando il RBAC di GKE
Gestire le autorizzazioni per i gruppi che utilizzano Google Gruppi con RBAC
Autorizzare l'accesso alle risorse Google Cloud utilizzando i criteri IAM
Gestire l'accesso SSH ai nodi senza utilizzare le chiavi SSH
Abilita l'accesso e visualizza le risorse del cluster per spazio dei nomi
Limitare le azioni sulle risorse GKE utilizzando criteri dell'organizzazione personalizzati
Informazioni su seccomp in GKE
Ambiti di accesso in GKE
Accedere ai registry privati con certificati CA privati
Isola i cluster e i carichi di lavoro
Informazioni su GKE Sandbox
Isolare i carichi di lavoro con GKE Sandbox
Isolare i carichi di lavoro in pool di nodi dedicati
Applicare regole e criteri firewall
Applicare in modo selettivo i criteri firewall in GKE
Utilizzare i tag di rete per applicare regole firewall ai nodi
Rafforzamento di carichi di lavoro e nodi
Applica criteri di sicurezza predefiniti a livello di pod utilizzando PodSecurity
Applicare criteri di sicurezza personalizzati a livello di pod utilizzando Gatekeeper
Informazioni su Workload Identity Federation for GKE
Eseguire l'autenticazione nelle API Google Cloud da GKE
Accedere agli oggetti Secret memorizzati al di fuori dei cluster GKE utilizzando le librerie client
Disattiva la porta di sola lettura non sicura di Kubelet
Esegui gli agenti VM su ogni nodo GKE
Criptare i dati sensibili
Crittografia dei dati in uso con i nodi GKE Confidential
Cripta i dati in transito in GKE con chiavi di crittografia gestite dall'utente
Crittografia dei secret a livello di applicazione
Gestire la sicurezza del control plane
Informazioni sulla sicurezza del piano di controllo
Verifica l'integrità della VM del control plane GKE
Informazioni sull'attendibilità del cluster
Informazioni sull'autorità del piano di controllo
Esegui le tue autorità di certificazione e le tue chiavi in GKE
Crittografa i dischi di avvio etcd e del control plane
Verificare le connessioni del personale di Google nel control plane GKE
Verificare l'emissione e l'utilizzo delle identità
Gestisci credenziali
Ruota le credenziali del cluster
Ruotare gli indirizzi IP del piano di controllo
Monitorare la sicurezza del cluster
Informazioni sulla dashboard della postura di sicurezza
Informazioni sull'analisi della strategia di sicurezza di Kubernetes
Eseguire la scansione dei workload per individuare problemi di configurazione
Informazioni sull'analisi delle vulnerabilità dei workload
Eseguire la scansione dei container per rilevare le vulnerabilità note
Configura le funzionalità della strategia di sicurezza di GKE per i parchi risorse
Attivare la registrazione di auditd Linux nei cluster standard
Esegui il deployment e gestisci i carichi di lavoro
Pianifica il deployment dei carichi di lavoro
Pianificare le richieste di risorse per i workload Autopilot
Migrazione dei carichi di lavoro
Identificare i cluster standard di cui eseguire la migrazione ad Autopilot
Preparare la migrazione ai cluster Autopilot dai cluster Standard
Esegui il deployment di carichi di lavoro con requisiti di calcolo specializzati
Informazioni sulle classi di calcolo personalizzate in GKE
Controllare gli attributi dei nodi sottoposti a scalabilità automatica con classi di calcolo personalizzate
Informazioni sulle classi di calcolo integrate nei cluster Autopilot
Scegliere classi di calcolo predefinite per i pod Autopilot
Piattaforme CPU minime per carichi di lavoro che richiedono calcoli complessi
Configurare il bursting dei pod in GKE
Analizza le prestazioni della CPU utilizzando la PMU
Esegui il deployment di carichi di lavoro con requisiti di sicurezza speciali
Partner di GKE Autopilot
Esegui carichi di lavoro con privilegi dei partner di GKE Autopilot
Esegui carichi di lavoro open source privilegiati su GKE Autopilot
Esegui il deployment di carichi di lavoro che richiedono dispositivi specializzati
Informazioni sull'allocazione dinamica delle risorse (DRA) in GKE
Prepara l'infrastruttura GKE per il DRA
Esegui il deployment dei carichi di lavoro DRA
Gestire i carichi di lavoro
Configurare la separazione dei carichi di lavoro in GKE
Posiziona i pod GKE in zone specifiche
Simula un errore nella zona
Migliora l'efficienza del carico di lavoro utilizzando NCCL Fast Socket
Informazioni sui digest delle immagini container
Utilizzo dei digest delle immagini container nei manifest di Kubernetes
Migliorare la velocità di inizializzazione del carico di lavoro
Utilizzare le immagini container in streaming
Utilizzare i dischi di avvio secondari per precaricare i dati o le immagini dei container
Integrazione e distribuzione continue
Pianifica l'integrazione e la distribuzione continue
Creare una pipeline CI/CD con Azure Pipelines
Distribuzione continua stile GitOps con Cloud Build
Approccio CI/CD moderno con GKE
Un framework di distribuzione del software
Crea un sistema CI/CD
Applica il flusso di lavoro degli sviluppatori
Esegui il deployment di database, cache e carichi di lavoro di streaming di dati
Dati su GKE
Pianifica i deployment di database su GKE
Database gestiti
Esegui il deployment di un'app utilizzando GKE Autopilot e Spanner
Esegui il deployment di WordPress su GKE con Persistent Disk e Cloud SQL
Analizza i dati su GKE utilizzando BigQuery, Cloud Run e Gemma
Kafka
Esegui il deployment di Apache Kafka in GKE utilizzando Strimzi
Esegui il deployment di Apache Kafka in GKE utilizzando Confluent
Esegui il deployment di un cluster Kafka ad alta disponibilità su GKE
Redis
Creare un'applicazione web multilivello con Redis e PHP
Esegui il deployment di un cluster Redis su GKE
Esegui il deployment di Redis in GKE utilizzando Spotahome
Esegui il deployment di Redis in GKE utilizzando Redis Enterprise
MySQL
Esegui il deployment di un cluster MySQL stateful
PostgreSQL
Esegui il deployment di un database PostgreSQL ad alta disponibilità
Esegui il deployment di PostgreSQL in GKE utilizzando Zalando
Esegui il deployment di PostgreSQL in GKE utilizzando CloudNativePG
SQL Server
Esegui il deployment di SQL Server 2017 a istanza singola su GKE
Memcached
Esegui il deployment di Memcached su GKE
Database vettoriali
Creare un chatbot RAG utilizzando GKE e Cloud Storage
Esegui il deployment di un database Qdrant su GKE
Esegui il deployment di un database Elasticsearch su GKE
Esegui il deployment di un database vettoriale PostgreSQL su GKE
Esegui il deployment di un database di vettori Weaviate su GKE
Esegui il deployment di workload AI/ML
Orchestrazione di AI/ML su GKE
Esegui carichi di lavoro di ML e AI
GPU
Informazioni sulle GPU in GKE
Esegui il deployment dei carichi di lavoro GPU in GKE Autopilot
Esegui il deployment dei carichi di lavoro GPU in GKE Standard
Crittografa i dati in uso del carico di lavoro GPU
Gestire lo stack GPU con l'operatore GPU NVIDIA
Condivisione GPU
Informazioni sulle strategie di condivisione GPU in GKE
Utilizza una GPU a più istanze
Utilizzare il time-sharing della GPU
Utilizzare NVIDIA MPS
Best practice per la scalabilità automatica dei carichi di lavoro di inferenza LLM su GPU
Best practice per ottimizzare le prestazioni di inferenza LLM sulle GPU
TPU in GKE
Informazioni sulle TPU in GKE
Pianificare le TPU in GKE
Richiedere TPU
Richiedere TPU con prenotazioni future in modalità calendario
Esegui un piccolo workload batch con la modalità di provisioning con avvio flessibile per le TPU
Esegui il deployment dei carichi di lavoro TPU in GKE Autopilot
Esegui il deployment dei carichi di lavoro TPU in GKE Standard
Esegui il deployment di TPU Multislice in GKE
Orchestra i carichi di lavoro TPU Multislice utilizzando JobSet e Kueue
Best practice per la scalabilità automatica dei carichi di lavoro di inferenza LLM su TPU
Gestire l'interruzione dei nodi GKE per GPU e TPU
Carichi di lavoro basati su CPU
Ottimizza il rendimento del pod Autopilot scegliendo una serie di macchine
Ottimizza il provisioning di GPU e TPU
Informazioni sul provisioning di GPU e TPU con avvio flessibile
Esegui un carico di lavoro su larga scala con avvio flessibile con il provisioning in coda
Esegui un piccolo carico di lavoro batch con la modalità di provisioning con avvio flessibile
Formazione
Addestra un modello con GPU in modalità GKE Standard
Addestra un modello con GPU in modalità GKE Autopilot
Addestramento di Llama2 con Megatron-LM su VM A3 Mega
Addestra modelli ML su larga scala con il checkpointing multilivello
Inferenza
Informazioni sull'inferenza dei modelli di AI/ML su GKE
Esegui l'inferenza secondo le best practice con le ricette della guida rapida all'inferenza
Prova gli esempi di inferenza sulle GPU
Gestire un modello con una singola GPU
Gestire un LLM con più GPU
Pubblica LLM come Deepseek-R1 671B o Llama 3.1 405B
Gestire un LLM su GPU L4 con Ray
Pubblicare LLM scalabili utilizzando TorchServe
Gestisci Gemma su GPU con TGI di Hugging Face
Gestisci Gemma su GPU con vLLM
Gestisci modelli Llama utilizzando GPU su GKE con vLLM
Gestisci Gemma su GPU con TensorRT-LLM
Gestire un LLM con GKE Inference Gateway
Ottimizzare i modelli aperti Gemma utilizzando più GPU
Pubblica LLM con una strategia di provisioning GPU ottimizzata in termini di costi e ad alta disponibilità
Prova esempi di inferenza sulle TPU
Pubblica modelli open source utilizzando TPU con Optimum TPU
Gestire Gemma su TPU con JetStream
Gestire un LLM su TPU con JetStream e PyTorch
Gestisci un LLM su TPU multi-host con JetStream e Pathways
Gestisci un LLM su TPU con vLLM
Gestisci un LLM utilizzando TPU con KubeRay
Gestisci SDXL utilizzando TPU su GKE con MaxDiffusion
Esegui l'inferenza multihost utilizzando Pathways
Batch
Best practice per l'esecuzione di carichi di lavoro batch su GKE
Esegui il deployment di un sistema batch utilizzando Kueue
Ottenere GPU con Dynamic Workload Scheduler
Informazioni sulla disponibilità delle GPU con flex-start
Esegui un carico di lavoro su larga scala con avvio flessibile con il provisioning in coda
Esegui un piccolo carico di lavoro batch con la modalità di provisioning con avvio flessibile
Implementare un sistema di coda dei job con condivisione delle quote tra gli spazi dei nomi
Ottimizza l'utilizzo delle risorse per i carichi di lavoro misti di addestramento e inferenza utilizzando Kueue
Utilizzare Ray su GKE
Esegui il deployment dei carichi di lavoro in base al tipo di applicazione
Server web e applicazioni
Pianifica la pubblicazione di siti web
Esegui il deployment di un'app stateful
Assicurati che i carichi di lavoro siano pronti per le interruzioni
Esegui il deployment di un'app stateless
Consenti connessioni dirette ai pod Autopilot utilizzando hostPort
Esegui Django
Deployment di un'applicazione da Cloud Marketplace
Esegui carichi di lavoro full-stack su larga scala su GKE
Esegui il deployment di un'app server web containerizzata
Giochi
Ricevere assistenza per problemi relativi ad Agones
Isola il controller Agones nel cluster GKE
Esegui il deployment dei workload ARM
Prepara un carico di lavoro Arm per il deployment nei cluster standard
Crea immagini multi-arch per i workload Arm
Esegui il deployment dei carichi di lavoro Autopilot sull'architettura ARM
Esegui la migrazione di un'applicazione x86 su GKE a multi-arch con Arm
Microsoft Windows
Esegui il deployment di un'applicazione Windows Server
Creare immagini multi-arch Windows Server
Esegui il deployment di app ASP.NET con autenticazione di Windows nei container Windows GKE
Esecuzione di carichi di lavoro a tolleranza di errore a costi inferiori
Utilizzare i pod Spot nei cluster Autopilot
Utilizzare le VM spot per eseguire carichi di lavoro sui cluster GKE Standard
Utilizzare le VM prerilasciabili per eseguire carichi di lavoro
Gestire e ottimizzare i cluster
Gestisci le modifiche del ciclo di vita del cluster per ridurre al minimo le interruzioni
Ottimizza l'utilizzo di GKE con approfondimenti e suggerimenti
Gestire un cluster GKE
Esegui l'upgrade a GKE Enterprise
Configura un cluster e un workload per la gestione temporanea
Eseguire l'upgrade di cluster e pool di nodi
Informazioni sugli upgrade dei cluster GKE
Pianifica gli upgrade dei cluster
Informazioni sui canali di rilascio
Utilizzare i canali di rilascio
Informazioni sugli upgrade dei cluster Autopilot
Informazioni sugli upgrade dei cluster standard
Nodi ad aggiornamento automatico
Eseguire l'upgrade manuale di un cluster o di un pool di nodi
Informazioni sulle strategie di upgrade dei nodi
Configura strategie di upgrade dei nodi
Informazioni su periodi di manutenzione ed esclusioni
Configura periodi di manutenzione ed esclusioni
Informazioni sugli upgrade dei cluster con sequenza di implementazione
Sequenzare l'implementazione degli upgrade dei cluster
Ricevere notifiche per gli eventi del cluster
Informazioni sulle notifiche dei cluster
Ricevere notifiche relative ai cluster tramite Pub/Sub
Configurare il cluster per ricevere notifiche via email
Configurare le notifiche del cluster per i servizi di terze parti
Visualizza gli upgrade dei cluster
Gestione dei nodi
Assicurati le risorse per gli upgrade dei nodi
Ridimensiona i cluster aggiungendo o rimuovendo nodi
Definisci il posizionamento compatto per i nodi
Eseguire la migrazione dei nodi a un altro tipo di macchina
Esegui la migrazione da Docker alle immagini dei nodi containerd
Esegui la migrazione dei nodi a cgroupv2 di Linux
Personalizza la configurazione di containerd
Personalizzare la configurazione del sistema di nodi
Configurare i nodi Windows Server per l'unione a un dominio
Multi-threading simultaneo (SMT) per il calcolo ad alte prestazioni
Elimina cluster
Utilizzare le API Kubernetes beta con i cluster GKE
Garantire la stabilità del control plane quando si utilizzano gli webhook
Utilizzare Backup per GKE
Risolvere i problemi relativi ai secret a livello di applicazione
Risolvi i problemi relativi alle CRD con un bundle CA non valido
Monitoraggio
Osservabilità per GKE
Configurare Google Cloud Managed Service per Prometheus
Monitorare i cluster e i workload
Configurazione della raccolta di metriche
Configurare il monitoraggio automatico delle applicazioni per i carichi di lavoro
Visualizzare le metriche di osservabilità
Raccogliere e visualizzare le metriche di osservabilità
Raccogliere e visualizzare le metriche del piano di controllo
Raccogliere e visualizzare le metriche dello stato del kube
Raccogliere e visualizzare le metriche cAdvisor/Kubelet
Raccogliere e visualizzare le metriche DCGM
Utilizzare le metriche sul rendimento delle applicazioni
Monitorare le metriche sulla latenza di avvio
Comprendere i profili di utilizzo dei cluster con la misurazione dell'utilizzo di GKE
Osservabilità delle applicazioni con Prometheus su GKE
Configurare Elastic Stack su GKE
Visualizza ed elabora i log
Informazioni sui log di GKE
Visualizza i log di GKE
Controllare l'importazione dei log
Regolare il throughput dei log
Configurare il logging multi-tenant
Risoluzione dei problemi
Panoramica
Introduzione alla risoluzione dei problemi
Configurazione del cluster
Creazione del cluster
Cluster Autopilot
Strumento a riga di comando kubectl
Node pool standard
Registrazione dei nodi