Passa ai contenuti principali
Google Cloud
Documentazione Aree tecnologiche
  • AI e ML
  • Sviluppo di applicazioni
  • Hosting di applicazioni
  • Computing
  • Analisi dei dati e pipeline
  • Database
  • Distribuito, ibrido e multi-cloud
  • AI generativa
  • Soluzioni di settore
  • Networking
  • Osservabilità e monitoraggio
  • Sicurezza
  • Storage
Strumenti per più prodotti
  • Gestione di accessi e risorse
  • Gestione di costi e utilizzo
  • Google Cloud SDK, linguaggi, framework e strumenti
  • Infrastructure as Code (IaC)
  • Migrazione
Siti correlati
  • Home page di Google Cloud
  • Prova gratuita e livello gratuito
  • Architecture Center
  • Blog
  • Contatta il team di vendita
  • Developer Center di Google Cloud
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentazione di Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistenza Google Cloud
  • Canale YouTube di Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Accedi
  • Google Kubernetes Engine (GKE)
Panoramica Guide Riferimento Esempi Risorse
Contattaci Inizia gratuitamente
Google Cloud
  • Documentazione
    • Panoramica
    • Guide
    • Riferimento
    • Esempi
    • Risorse
  • Aree tecnologiche
    • Altro
  • Strumenti per più prodotti
    • Altro
  • Siti correlati
    • Altro
  • Console
  • Contattaci
  • Inizia gratuitamente
  • Scopri
  • Introduzione a GKE
  • Esplora la documentazione di GKE
  • Utilizzi GKE o Cloud Run?
  • Prova
    • Creare un cluster nella console
    • Creare un cluster con Terraform
    • Esplora il cluster
  • Ottimizzare i servizi GKE con l'assistenza di Gemini
  • Nozioni di base
  • Inizia a scoprire GKE
  • Apprendi le nozioni di base di Kubernetes
    • Inizia a scoprire Kubernetes
    • Introduzione ai container
    • Fumetto di Kubernetes
    • Kubernetes.io
    • Playlist di video: Come utilizzare Kubernetes con Google
  • Scopri i concetti di base di GKE
    • Modalità di funzionamento di GKE
    • Versioni di GKE
    • Playlist video: Concetti di base di GKE
  • Per iniziare
  • Ciclo di vita del cluster
  • Panoramica dell'amministrazione del cluster
  • Configurazione cluster
  • Deployment di carichi di lavoro
  • Architettura del cluster GKE
  • Workflows e strumenti
    • Panoramica dell'interfaccia a riga di comando gcloud
    • GKE nella console Google Cloud
    • Esegui il provisioning delle risorse GKE con Terraform
    • Installa kubectl e configura l'accesso al cluster
    • Semplifica il deployment utilizzando l'IDE
  • Percorso di apprendimento: containerizza l'app
    • Panoramica
    • Informazioni sul monolite
    • Modulare il monolite
    • Prepararsi alla containerizzazione
    • Containerizza l'app modulare
    • Esegui il deployment dell'app in un cluster
  • Percorso di apprendimento: app scalabili
    • Panoramica
    • Crea un cluster
    • Monitoraggio con Prometheus
    • Scala i carichi di lavoro
    • Simula un errore
    • Considerazioni sulla produzione
  • Progettazione e pianificazione
  • Esempi di codice
  • Soluzioni già pronte
    • Applicazione web dinamica con Java
    • Applicazione web di e-commerce
  • Architetture e best practice
    • Sviluppare e pubblicare app con Cloud Code, Cloud Build e Google Cloud Deploy
    • Risolvere i problemi di distribuzione continua
  • Configura i cluster GKE
  • Pianifica i cluster per l'esecuzione dei carichi di lavoro
    • Confrontare le funzionalità di GKE Autopilot e Standard
    • Informazioni sui cluster a livello di regione
    • Informazioni sui gate di funzionalità
    • Informazioni sui cluster alpha
  • Configurare i cluster Autopilot
    • Informazioni su GKE Autopilot
    • Creare cluster Autopilot
    • Estendere il tempo di esecuzione dei pod Autopilot
  • Configurare i cluster standard
    • Creazione di un cluster di zona
    • Creare un cluster a livello di area geografica
    • Crea un cluster alpha
    • Creare un cluster utilizzando i pool di nodi Windows
  • Prepararsi a utilizzare i cluster
    • Utilizzare le etichette per organizzare i cluster
    • Gestire le risorse GKE utilizzando i tag
  • Configura i pool di nodi
    • Informazioni sui node pool
    • Aggiunta e gestione dei node pool
    • Informazioni sulle immagini dei nodi
    • Informazioni sulle immagini containerd
    • Specifica un'immagine del nodo
    • Informazioni sui workload ARM su GKE
    • Creare cluster e pool di nodi standard con nodi Arm
    • Pianificare le dimensioni dei nodi GKE Standard
    • Informazioni sulle VM spot
    • Utilizzare i nodi single-tenant
    • Informazioni sui container Windows Server
    • Nodi a riparazione automatica
    • Esegui il bootstrap automatico dei nodi GKE con i DaemonSet
  • Configurare i cluster per il multitenancy
    • Informazioni sull'architettura di cluster multi-tenancy
    • Pianificare un ambiente multi-tenant
    • Preparare i cluster GKE per gli utenti di terze parti
    • Configurare il logging multi-tenant
  • Utilizzare i parchi risorse per semplificare la gestione multi-cluster
    • Informazioni sui parchi risorse
    • Creare parchi risorse
  • Configurare mesh di servizi
    • Esegui il provisioning di Cloud Service Mesh in un cluster Autopilot
  • Migliora la scalabilità per i cluster
    • Informazioni sulla scalabilità di GKE
    • Pianifica la scalabilità
    • Pianifica i cluster GKE di grandi dimensioni
    • Pianificare i carichi di lavoro di grandi dimensioni
    • Provisiona una capacità di calcolo aggiuntiva per la scalabilità rapida dei pod
    • Consumare risorse di zona prenotate
  • Ridurre e ottimizzare i costi
  • Pianifica l'ottimizzazione dei costi
  • Visualizza i costi di GKE
    • Visualizza la suddivisione dei costi del cluster
    • Visualizzazione delle metriche di ottimizzazione relative ai costi
  • Ottimizzare i costi di GKE
    • Scegli la dimensione giusta per i tuoi carichi di lavoro GKE su larga scala
    • Riduci i costi riducendo i cluster GKE durante le ore di punta
    • Identificare i cluster GKE sottodimensionati e sovradimensionati
    • Identificare i cluster GKE inattivi
  • Configura la scalabilità automatica per l'infrastruttura
    • Informazioni sulla scalabilità automatica dei cluster
    • Configura la scalabilità automatica del cluster
    • Informazioni sul provisioning automatico dei nodi
    • Configurare il provisioning automatico dei nodi
    • Visualizzare gli eventi di scalabilità automatica del cluster
  • Configurare la scalabilità automatica per i workload
    • Scalabilità delle applicazioni di cui è stato eseguito il deployment
    • Informazioni sulla scalabilità automatica dei carichi di lavoro in base alle metriche
    • Ottimizza la scalabilità automatica dei pod in base alle metriche
    • Informazioni sulla scalabilità automatica orizzontale dei pod
    • Scalabilità automatica dei deployment utilizzando la scalabilità automatica dei pod orizzontali
    • Configurare la scalabilità automatica per i carichi di lavoro LLM su GPU
    • Configurare la scalabilità automatica per i carichi di lavoro LLM sulle TPU
    • Visualizzare gli eventi di Horizontal Pod Autoscaler
    • Informazioni sulla scalabilità automatica dei pod verticali
    • Configura la scalabilità automatica del pod multidimensionale
    • Scala le richieste e i limiti delle risorse dei contenitori
    • Scalabilità fino a zero utilizzando KEDA
  • Provision dello spazio di archiviazione
  • Informazioni sullo spazio di archiviazione per i cluster GKE
  • Utilizzare funzionalità, primitive e astrazioni di Kubernetes per lo spazio di archiviazione
    • Utilizzare volumi permanenti e provisioning dinamico
    • Utilizzare gli StatefulSet
    • Informazioni sugli snapshot dei volumi
    • Utilizzare l'espansione del volume
    • Trasferisci i dati da Cloud Storage utilizzando GKE Volume Populator
  • Archiviazione a blocchi
    • Esegui il provisioning e utilizza i dischi permanenti
      • Utilizzo del driver CSI per il disco permanente di Compute Engine
      • Limiti di collegamento dei volumi permanenti
      • Utilizzo di dischi permanenti preesistenti
      • Installare manualmente un driver CSI
      • Utilizzo di dischi permanenti con più lettori (ReadOnlyMany)
      • Dischi permanenti basati su SSD
      • Dischi permanenti a livello di regione
      • Aumenta la disponibilità delle app stateful con l'operatore HA stateful
    • Esegui il provisioning e utilizza Hyperdisk
      • Informazioni su Hyperdisk
      • Scala le prestazioni dello spazio di archiviazione utilizzando Hyperdisk
      • Ottimizza le prestazioni e i costi di archiviazione con i pool di archiviazione Hyperdisk
      • Accelera il caricamento dei dati AI/ML utilizzando Hyperdisk ML
    • Esegui il provisioning e utilizza la cache di dati GKE
      • Accelera le prestazioni di lettura dei carichi di lavoro stateful con la cache di dati GKE
    • Gestire lo spazio di archiviazione permanente
      • Configura un disco di avvio per i file system dei nodi
      • Clonare i dischi permanenti
      • Esegui il backup e il ripristino dello spazio di archiviazione dei Persistent Disk utilizzando gli snapshot dei volumi
    • Ottimizzare le prestazioni del disco
      • Informazioni sull'ottimizzazione delle prestazioni del disco
      • Monitorare le prestazioni del disco
  • SSD locale e archiviazione temporanea
    • Informazioni sullo spazio di archiviazione SSD locale per GKE
    • Esegui il provisioning dell'archiviazione temporanea basata su SSD locale
    • Esegui il provisioning dell'archiviazione a blocchi non elaborati basata su SSD locale
    • Creare un deployment utilizzando un volume EmptyDir
    • Utilizzare dischi permanenti dedicati come volumi effimeri
  • Archiviazione di file
    • Esegui il provisioning e utilizza Filestore
      • Informazioni sul supporto di Filestore per GKE
      • Accedere alle istanze Filestore
      • Esegui il deployment di un workload stateful con Filestore
      • Informazioni sulle istanze a condivisione multipla di Filestore per GKE
      • Ottimizzare i multishare per GKE
      • Esegui il backup e il ripristino dello spazio di archiviazione Filestore utilizzando gli snapshot dei volumi
    • Provisioning e utilizzo dei volumi Parallelstore
      • Informazioni su Parallelstore per GKE
      • Creare e utilizzare un volume basato su Parallelstore
      • Accedere alle istanze Parallelstore esistenti
    • Esegui il provisioning e utilizza i volumi Lustre
      • Informazioni su Lustre per GKE
      • Crea e utilizza un volume supportato da Lustre
      • Accedere alle istanze Lustre esistenti
  • Archiviazione di oggetti
    • Guida rapida: driver CSI di Cloud Storage FUSE per GKE
    • Informazioni sul driver CSI di Cloud Storage FUSE per GKE
    • Configurare il driver CSI di Cloud Storage FUSE
    • Monta i bucket Cloud Storage come volumi effimeri
    • Montare i bucket Cloud Storage come volumi permanenti
    • Configura il contenitore sidecar del driver CSI di Cloud Storage FUSE
    • Ottimizzare le prestazioni del driver CSI di Cloud Storage FUSE
  • Configura la sicurezza del cluster
  • Scopri la sicurezza di GKE
    • Informazioni sulla sicurezza in GKE
    • Informazioni sulla sicurezza del piano di controllo
    • Informazioni sulla crittografia convalidata secondo FIPS in GKE
    • Misure di sicurezza in GKE Autopilot
    • Informazioni sull'attendibilità del cluster
  • Pianifica la sicurezza del cluster
    • Rafforzamento dei cluster
    • Applicazione delle patch di sicurezza
    • Log di controllo per Kubernetes
    • Log di controllo per Kubernetes Engine
    • Audit logging per l'API Container Security
    • Informazioni sui criteri di audit
    • Responsabilità di sicurezza condivise
    • Mitigare gli incidenti di sicurezza
    • vTPM nei workload GKE riservati
  • Autenticare e autorizzare
    • Esegui l'autenticazione nell'API GKE
    • Eseguire l'autenticazione nelle API Google Cloud da GKE
    • Informazioni su RBAC e IAM
    • Best practice per RBAC
    • Informazioni sugli account di servizio in GKE
    • Autenticazione nel server dell'API Kubernetes
    • Utilizzare provider di identità esterni per l'autenticazione ai cluster GKE
    • Autorizzare le azioni nei cluster utilizzando il RBAC di GKE
    • Gestire le autorizzazioni per i gruppi che utilizzano Google Gruppi con RBAC
    • Autorizzare l'accesso alle risorse Google Cloud utilizzando i criteri IAM
    • Gestire l'accesso SSH ai nodi senza utilizzare le chiavi SSH
    • Abilita l'accesso e visualizza le risorse del cluster per spazio dei nomi
    • Limitare le azioni sulle risorse GKE utilizzando criteri dell'organizzazione personalizzati
    • Informazioni su seccomp in GKE
    • Ambiti di accesso in GKE
    • Accedere ai registry privati con certificati CA privati
  • Isola i cluster e i carichi di lavoro
    • Informazioni su GKE Sandbox
    • Isolare i carichi di lavoro con GKE Sandbox
    • Isolare i carichi di lavoro in pool di nodi dedicati
    • Applicare regole e criteri firewall
      • Applicare in modo selettivo i criteri firewall in GKE
      • Utilizzare i tag di rete per applicare regole firewall ai nodi
  • Rafforzamento di carichi di lavoro e nodi
    • Applica criteri di sicurezza predefiniti a livello di pod utilizzando PodSecurity
    • Applicare criteri di sicurezza personalizzati a livello di pod utilizzando Gatekeeper
    • Informazioni su Workload Identity Federation for GKE
    • Eseguire l'autenticazione nelle API Google Cloud da GKE
    • Accedere agli oggetti Secret memorizzati al di fuori dei cluster GKE utilizzando le librerie client
    • Disattiva la porta di sola lettura non sicura di Kubelet
    • Esegui gli agenti VM su ogni nodo GKE
  • Criptare i dati sensibili
    • Crittografia dei dati in uso con i nodi GKE Confidential
    • Cripta i dati in transito in GKE con chiavi di crittografia gestite dall'utente
    • Crittografia dei secret a livello di applicazione
  • Gestire la sicurezza del control plane
    • Informazioni sulla sicurezza del piano di controllo
    • Verifica l'integrità della VM del control plane GKE
    • Informazioni sull'attendibilità del cluster
    • Informazioni sull'autorità del piano di controllo
    • Esegui le tue autorità di certificazione e le tue chiavi in GKE
    • Crittografa i dischi di avvio etcd e del control plane
    • Verificare le connessioni del personale di Google nel control plane GKE
    • Verificare l'emissione e l'utilizzo delle identità
  • Gestisci credenziali
    • Ruota le credenziali del cluster
    • Ruotare gli indirizzi IP del piano di controllo
  • Monitorare la sicurezza del cluster
    • Informazioni sulla dashboard della postura di sicurezza
    • Informazioni sull'analisi della strategia di sicurezza di Kubernetes
    • Eseguire la scansione dei workload per individuare problemi di configurazione
    • Informazioni sull'analisi delle vulnerabilità dei workload
    • Eseguire la scansione dei container per rilevare le vulnerabilità note
    • Configura le funzionalità della strategia di sicurezza di GKE per i parchi risorse
    • Attivare la registrazione di auditd Linux nei cluster standard
  • Esegui il deployment e gestisci i carichi di lavoro
  • Pianifica il deployment dei carichi di lavoro
    • Pianificare le richieste di risorse per i workload Autopilot
  • Migrazione dei carichi di lavoro
    • Identificare i cluster standard di cui eseguire la migrazione ad Autopilot
    • Preparare la migrazione ai cluster Autopilot dai cluster Standard
  • Esegui il deployment di carichi di lavoro con requisiti di calcolo specializzati
    • Informazioni sulle classi di calcolo personalizzate in GKE
    • Controllare gli attributi dei nodi sottoposti a scalabilità automatica con classi di calcolo personalizzate
    • Informazioni sulle classi di calcolo integrate nei cluster Autopilot
    • Scegliere classi di calcolo predefinite per i pod Autopilot
    • Piattaforme CPU minime per carichi di lavoro che richiedono calcoli complessi
    • Configurare il bursting dei pod in GKE
    • Analizza le prestazioni della CPU utilizzando la PMU
  • Esegui il deployment di carichi di lavoro con requisiti di sicurezza speciali
    • Partner di GKE Autopilot
    • Esegui carichi di lavoro con privilegi dei partner di GKE Autopilot
    • Esegui carichi di lavoro open source privilegiati su GKE Autopilot
  • Esegui il deployment di carichi di lavoro che richiedono dispositivi specializzati
    • Informazioni sull'allocazione dinamica delle risorse (DRA) in GKE
    • Prepara l'infrastruttura GKE per il DRA
    • Esegui il deployment dei carichi di lavoro DRA
  • Gestire i carichi di lavoro
    • Configurare la separazione dei carichi di lavoro in GKE
    • Posiziona i pod GKE in zone specifiche
    • Simula un errore nella zona
    • Migliora l'efficienza del carico di lavoro utilizzando NCCL Fast Socket
    • Informazioni sui digest delle immagini container
    • Utilizzo dei digest delle immagini container nei manifest di Kubernetes
    • Migliorare la velocità di inizializzazione del carico di lavoro
      • Utilizzare le immagini container in streaming
      • Utilizzare i dischi di avvio secondari per precaricare i dati o le immagini dei container
  • Integrazione e distribuzione continue
    • Pianifica l'integrazione e la distribuzione continue
    • Creare una pipeline CI/CD con Azure Pipelines
    • Distribuzione continua stile GitOps con Cloud Build
    • Approccio CI/CD moderno con GKE
      • Un framework di distribuzione del software
      • Crea un sistema CI/CD
      • Applica il flusso di lavoro degli sviluppatori
  • Esegui il deployment di database, cache e carichi di lavoro di streaming di dati
  • Dati su GKE
  • Pianifica i deployment di database su GKE
  • Database gestiti
    • Esegui il deployment di un'app utilizzando GKE Autopilot e Spanner
    • Esegui il deployment di WordPress su GKE con Persistent Disk e Cloud SQL
    • Analizza i dati su GKE utilizzando BigQuery, Cloud Run e Gemma
  • Kafka
    • Esegui il deployment di Apache Kafka in GKE utilizzando Strimzi
    • Esegui il deployment di Apache Kafka in GKE utilizzando Confluent
    • Esegui il deployment di un cluster Kafka ad alta disponibilità su GKE
  • Redis
    • Creare un'applicazione web multilivello con Redis e PHP
    • Esegui il deployment di un cluster Redis su GKE
    • Esegui il deployment di Redis in GKE utilizzando Spotahome
    • Esegui il deployment di Redis in GKE utilizzando Redis Enterprise
  • MySQL
    • Esegui il deployment di un cluster MySQL stateful
  • PostgreSQL
    • Esegui il deployment di un database PostgreSQL ad alta disponibilità
    • Esegui il deployment di PostgreSQL in GKE utilizzando Zalando
    • Esegui il deployment di PostgreSQL in GKE utilizzando CloudNativePG
  • SQL Server
    • Esegui il deployment di SQL Server 2017 a istanza singola su GKE
  • Memcached
    • Esegui il deployment di Memcached su GKE
  • Database vettoriali
    • Creare un chatbot RAG utilizzando GKE e Cloud Storage
    • Esegui il deployment di un database Qdrant su GKE
    • Esegui il deployment di un database Elasticsearch su GKE
    • Esegui il deployment di un database vettoriale PostgreSQL su GKE
    • Esegui il deployment di un database di vettori Weaviate su GKE
  • Esegui il deployment di workload AI/ML
  • Orchestrazione di AI/ML su GKE
  • Esegui carichi di lavoro di ML e AI
    • GPU
      • Informazioni sulle GPU in GKE
      • Esegui il deployment dei carichi di lavoro GPU in GKE Autopilot
      • Esegui il deployment dei carichi di lavoro GPU in GKE Standard
      • Crittografa i dati in uso del carico di lavoro GPU
      • Gestire lo stack GPU con l'operatore GPU NVIDIA
      • Condivisione GPU
        • Informazioni sulle strategie di condivisione GPU in GKE
        • Utilizza una GPU a più istanze
        • Utilizzare il time-sharing della GPU
        • Utilizzare NVIDIA MPS
      • Best practice per la scalabilità automatica dei carichi di lavoro di inferenza LLM su GPU
      • Best practice per ottimizzare le prestazioni di inferenza LLM sulle GPU
    • TPU in GKE
      • Informazioni sulle TPU in GKE
      • Pianificare le TPU in GKE
      • Richiedere TPU
        • Richiedere TPU con prenotazioni future in modalità calendario
        • Esegui un piccolo workload batch con la modalità di provisioning con avvio flessibile per le TPU
      • Esegui il deployment dei carichi di lavoro TPU in GKE Autopilot
      • Esegui il deployment dei carichi di lavoro TPU in GKE Standard
      • Esegui il deployment di TPU Multislice in GKE
      • Orchestra i carichi di lavoro TPU Multislice utilizzando JobSet e Kueue
      • Best practice per la scalabilità automatica dei carichi di lavoro di inferenza LLM su TPU
    • Gestire l'interruzione dei nodi GKE per GPU e TPU
    • Carichi di lavoro basati su CPU
      • Ottimizza il rendimento del pod Autopilot scegliendo una serie di macchine
    • Ottimizza il provisioning di GPU e TPU
      • Informazioni sul provisioning di GPU e TPU con avvio flessibile
      • Esegui un carico di lavoro su larga scala con avvio flessibile con il provisioning in coda
      • Esegui un piccolo carico di lavoro batch con la modalità di provisioning con avvio flessibile
  • Formazione
    • Addestra un modello con GPU in modalità GKE Standard
    • Addestra un modello con GPU in modalità GKE Autopilot
    • Addestramento di Llama2 con Megatron-LM su VM A3 Mega
    • Addestra modelli ML su larga scala con il checkpointing multilivello
  • Inferenza
    • Informazioni sull'inferenza dei modelli di AI/ML su GKE
    • Esegui l'inferenza secondo le best practice con le ricette della guida rapida all'inferenza
    • Prova gli esempi di inferenza sulle GPU
      • Gestire un modello con una singola GPU
      • Gestire un LLM con più GPU
      • Pubblica LLM come Deepseek-R1 671B o Llama 3.1 405B
      • Gestire un LLM su GPU L4 con Ray
      • Pubblicare LLM scalabili utilizzando TorchServe
      • Gestisci Gemma su GPU con TGI di Hugging Face
      • Gestisci Gemma su GPU con vLLM
      • Gestisci modelli Llama utilizzando GPU su GKE con vLLM
      • Gestisci Gemma su GPU con TensorRT-LLM
      • Gestire un LLM con GKE Inference Gateway
      • Ottimizzare i modelli aperti Gemma utilizzando più GPU
      • Pubblica LLM con una strategia di provisioning GPU ottimizzata in termini di costi e ad alta disponibilità
    • Prova esempi di inferenza sulle TPU
      • Pubblica modelli open source utilizzando TPU con Optimum TPU
      • Gestire Gemma su TPU con JetStream
      • Gestire un LLM su TPU con JetStream e PyTorch
      • Gestisci un LLM su TPU multi-host con JetStream e Pathways
      • Gestisci un LLM su TPU con vLLM
      • Gestisci un LLM utilizzando TPU con KubeRay
      • Gestisci SDXL utilizzando TPU su GKE con MaxDiffusion
      • Esegui l'inferenza multihost utilizzando Pathways
  • Batch
    • Best practice per l'esecuzione di carichi di lavoro batch su GKE
    • Esegui il deployment di un sistema batch utilizzando Kueue
    • Ottenere GPU con Dynamic Workload Scheduler
      • Informazioni sulla disponibilità delle GPU con flex-start
      • Esegui un carico di lavoro su larga scala con avvio flessibile con il provisioning in coda
      • Esegui un piccolo carico di lavoro batch con la modalità di provisioning con avvio flessibile
    • Implementare un sistema di coda dei job con condivisione delle quote tra gli spazi dei nomi
    • Ottimizza l'utilizzo delle risorse per i carichi di lavoro misti di addestramento e inferenza utilizzando Kueue
  • Utilizzare Ray su GKE
  • Esegui il deployment dei carichi di lavoro in base al tipo di applicazione
  • Server web e applicazioni
    • Pianifica la pubblicazione di siti web
    • Esegui il deployment di un'app stateful
    • Assicurati che i carichi di lavoro siano pronti per le interruzioni
    • Esegui il deployment di un'app stateless
    • Consenti connessioni dirette ai pod Autopilot utilizzando hostPort
    • Esegui Django
    • Deployment di un'applicazione da Cloud Marketplace
    • Esegui carichi di lavoro full-stack su larga scala su GKE
    • Esegui il deployment di un'app server web containerizzata
  • Giochi
    • Ricevere assistenza per problemi relativi ad Agones
    • Isola il controller Agones nel cluster GKE
  • Esegui il deployment dei workload ARM
    • Prepara un carico di lavoro Arm per il deployment nei cluster standard
    • Crea immagini multi-arch per i workload Arm
    • Esegui il deployment dei carichi di lavoro Autopilot sull'architettura ARM
    • Esegui la migrazione di un'applicazione x86 su GKE a multi-arch con Arm
  • Microsoft Windows
    • Esegui il deployment di un'applicazione Windows Server
    • Creare immagini multi-arch Windows Server
    • Esegui il deployment di app ASP.NET con autenticazione di Windows nei container Windows GKE
  • Esecuzione di carichi di lavoro a tolleranza di errore a costi inferiori
    • Utilizzare i pod Spot nei cluster Autopilot
    • Utilizzare le VM spot per eseguire carichi di lavoro sui cluster GKE Standard
    • Utilizzare le VM prerilasciabili per eseguire carichi di lavoro
  • Gestire e ottimizzare i cluster
  • Gestisci le modifiche del ciclo di vita del cluster per ridurre al minimo le interruzioni
  • Ottimizza l'utilizzo di GKE con approfondimenti e suggerimenti
  • Gestire un cluster GKE
  • Esegui l'upgrade a GKE Enterprise
  • Configura un cluster e un workload per la gestione temporanea
  • Eseguire l'upgrade di cluster e pool di nodi
    • Informazioni sugli upgrade dei cluster GKE
    • Pianifica gli upgrade dei cluster
    • Informazioni sui canali di rilascio
    • Utilizzare i canali di rilascio
    • Informazioni sugli upgrade dei cluster Autopilot
    • Informazioni sugli upgrade dei cluster standard
    • Nodi ad aggiornamento automatico
    • Eseguire l'upgrade manuale di un cluster o di un pool di nodi
    • Informazioni sulle strategie di upgrade dei nodi
    • Configura strategie di upgrade dei nodi
    • Informazioni su periodi di manutenzione ed esclusioni
    • Configura periodi di manutenzione ed esclusioni
    • Informazioni sugli upgrade dei cluster con sequenza di implementazione
    • Sequenzare l'implementazione degli upgrade dei cluster
  • Ricevere notifiche per gli eventi del cluster
    • Informazioni sulle notifiche dei cluster
    • Ricevere notifiche relative ai cluster tramite Pub/Sub
    • Configurare il cluster per ricevere notifiche via email
    • Configurare le notifiche del cluster per i servizi di terze parti
    • Visualizza gli upgrade dei cluster
  • Gestione dei nodi
    • Assicurati le risorse per gli upgrade dei nodi
    • Ridimensiona i cluster aggiungendo o rimuovendo nodi
    • Definisci il posizionamento compatto per i nodi
    • Eseguire la migrazione dei nodi a un altro tipo di macchina
    • Esegui la migrazione da Docker alle immagini dei nodi containerd
    • Esegui la migrazione dei nodi a cgroupv2 di Linux
    • Personalizza la configurazione di containerd
    • Personalizzare la configurazione del sistema di nodi
    • Configurare i nodi Windows Server per l'unione a un dominio
    • Multi-threading simultaneo (SMT) per il calcolo ad alte prestazioni
  • Elimina cluster
  • Utilizzare le API Kubernetes beta con i cluster GKE
  • Garantire la stabilità del control plane quando si utilizzano gli webhook
  • Utilizzare Backup per GKE
  • Risolvere i problemi relativi ai secret a livello di applicazione
  • Risolvi i problemi relativi alle CRD con un bundle CA non valido
  • Monitoraggio
  • Osservabilità per GKE
  • Configurare Google Cloud Managed Service per Prometheus
  • Monitorare i cluster e i workload
    • Configurazione della raccolta di metriche
    • Configurare il monitoraggio automatico delle applicazioni per i carichi di lavoro
    • Visualizzare le metriche di osservabilità
    • Raccogliere e visualizzare le metriche di osservabilità
      • Raccogliere e visualizzare le metriche del piano di controllo
      • Raccogliere e visualizzare le metriche dello stato del kube
      • Raccogliere e visualizzare le metriche cAdvisor/Kubelet
      • Raccogliere e visualizzare le metriche DCGM
      • Utilizzare le metriche sul rendimento delle applicazioni
    • Monitorare le metriche sulla latenza di avvio
    • Comprendere i profili di utilizzo dei cluster con la misurazione dell'utilizzo di GKE
    • Osservabilità delle applicazioni con Prometheus su GKE
    • Configurare Elastic Stack su GKE
  • Visualizza ed elabora i log
    • Informazioni sui log di GKE
    • Visualizza i log di GKE
    • Controllare l'importazione dei log
    • Regolare il throughput dei log
    • Configurare il logging multi-tenant
  • Risoluzione dei problemi
  • Panoramica
  • Introduzione alla risoluzione dei problemi
  • Configurazione del cluster
    • Creazione del cluster
    • Cluster Autopilot
    • Strumento a riga di comando kubectl
    • Node pool standard
    • Registrazione dei nodi