Passer au contenu principal
Documentation
Domaines technologiques
close
IA et ML
Développement d'applications
Hébergement d'applications
Calcul
Analyses de données et pipelines
Bases de données
Solutions distribuées, hybrides et multicloud
IA générative
Solutions par secteur d'activité
Réseau professionnel
Observabilité et surveillance
Sécurité
Storage
Outils de produits croisés
close
Gestion des accès et des ressources
Gestion des coûts et de l'utilisation
Google Cloud SDK, langages, frameworks et outils
Infrastructure as Code (IaC)
Migration
Sites connexes
close
Accueil Google Cloud
Essai et niveau gratuits
Architecture Center
Blog
Contacter le service commercial
Centre pour les développeurs Google Cloud
Google Developer Center
Google Cloud Marketplace
Documentation de Google Cloud Marketplace
Google Cloud Skills Boost
Google Cloud Solution Center
Assistance Google Cloud
Chaîne YouTube de l'équipe Google Cloud Tech
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Connexion
Google Kubernetes Engine (GKE)
Aperçu
Guides
Référence
Exemples
Ressources
Nous contacter
Commencer l'essai gratuit
Documentation
Aperçu
Guides
Référence
Exemples
Ressources
Domaines technologiques
Plus
Outils de produits croisés
Plus
Sites connexes
Plus
Console
Nous contacter
Commencer l'essai gratuit
Découvrir
Présentation de GKE
Consulter la documentation GKE
Utiliser GKE ou Cloud Run ?
Essayer
Créer un cluster dans la console
Créer un cluster avec Terraform
Explorer votre cluster
Affiner les services GKE avec l'aide de Gemini
Apprendre les bases
Commencer à découvrir GKE
Apprendre les principes de base de Kubernetes
Commencer à découvrir Kubernetes
Présentation des conteneurs
Bande dessinée Kubernetes
Kubernetes.io
Écouter la vidéo : Découvrez Kubernetes avec Google
Apprendre les principes de base de GKE
Modes de fonctionnement de GKE
Éditions GKE
Miniature de la vidéo : GKE Essentials
Premiers pas
Cycle de vie du cluster
Présentation de l'administration de cluster
Configuration du cluster
Déployer des charges de travail
Architecture du cluster GKE
Workflows et outils
Présentation de gcloud CLI
GKE dans la console Google Cloud
Provisionner des ressources GKE avec Terraform
Installer kubectl et configurer l'accès au cluster
Simplifier le déploiement à l'aide de votre IDE
Parcours de formation: Conteneuriser votre application
Aperçu
Comprendre le monolithe
Modulariser le monolithe
Préparer la conteneurisation
Conteneuriser l'application modulaire
Déployer l'application sur un cluster
Parcours de formation : applications évolutives
Aperçu
Créer un cluster
Surveiller avec Prometheus
Effectuer le scaling des charges de travail
Simuler une défaillance
Considérations relatives à la production
Conception et planification
Exemples de code
Solutions de démarrage rapide
Application Web dynamique avec Java
Application Web d'e-commerce
Architectures et bonnes pratiques
Développer et déployer des applications avec Cloud Code, Cloud Build et Google Cloud Deploy
Résoudre les problèmes de livraison continue
Configurer des clusters GKE
Planifier des clusters pour exécuter vos charges de travail
Comparer les fonctionnalités des modes Autopilot et standard de GKE
À propos des clusters régionaux
À propos des portes de fonctionnalité
À propos des clusters alpha
Configurer des clusters Autopilot
À propos de GKE Autopilot
Créer des clusters Autopilot
Prolonger la durée d'exécution des pods Autopilot
Configurer des clusters standards
Créer un cluster zonal
Créer un cluster régional
Créer un cluster alpha
Créer un cluster à l'aide de pools de nœuds Windows
Préparer l'utilisation des clusters
Utiliser des libellés pour organiser les clusters
Gérer des ressources GKE à l'aide de tags
Configurer des pools de nœuds
À propos des pools de nœuds
Ajouter et gérer des pools de nœuds
À propos des images de nœuds
À propos des images containerd
Spécifier une image de nœud
À propos des charges de travail Arm sur GKE
Créer des clusters et des pools de nœuds standards avec des nœuds Arm
Planifier les tailles de nœud GKE Standard
À propos des VM Spot
Utiliser des nœuds à locataire unique
À propos des conteneurs Windows Server
Réparer automatiquement des nœuds
Amorcer automatiquement les nœuds GKE avec DaemonSets
Configurer des clusters pour l'architecture mutualisée
À propos de l'architecture de cluster mutualisée
Planifier un environnement mutualisé
Préparer des clusters GKE pour des locataires tiers
Configurer la journalisation mutualisée
Utiliser des parcs pour simplifier la gestion multicluster
À propos des parcs
Créer des parcs
Configurer un maillage de services
Provisionner Cloud Service Mesh dans un cluster Autopilot
Améliorer l'évolutivité des clusters
À propos de l'évolutivité de GKE
Planifier pour l'évolutivité
Planifier des clusters GKE volumineux
Planifier des charges de travail volumineuses
Provisionner une capacité de calcul supplémentaire pour un scaling rapide des pods
Consommer des ressources zonales réservées
Réduire et optimiser les coûts
Planifier l'optimisation des coûts
Afficher les coûts GKE
Afficher la répartition des coûts du cluster
Afficher les métriques d'optimisation liées aux coûts
Optimiser les coûts GKE
Dimensionner correctement vos charges de travail GKE à grande échelle
Réduire les coûts en procédant au scaling à la baisse des clusters GKE pendant les heures creuses
Identifier les clusters GKE sous-provisionnés et sur-provisionnés
Identifier les clusters GKE inactifs
Configurer l'autoscaling pour l'infrastructure
À propos de l'autoscaling des clusters
Configurer l'autoscaling des clusters
À propos du provisionnement automatique des nœuds
Configurer le provisionnement automatique des nœuds
Afficher les événements d'autoscaling du cluster
Configurer l'autoscaling pour les charges de travail
Procéder au scaling des applications déployées
À propos de l'autoscaling des charges de travail en fonction des métriques
Optimiser l'autoscaling des pods en fonction des métriques
À propos de l'autoscaling horizontal des pods
Procéder à un autoscaling des déploiements à l'aide de l'autoscaling horizontal des pods
Configurer l'autoscaling pour les charges de travail LLM sur les GPU
Configurer l'autoscaling pour les charges de travail LLM sur les TPU
Afficher les événements de l'autoscaler horizontal des pods
À propos de l'autoscaling de pods verticaux
Configurer l'autoscaling de pods multidimensionnels
Effectuer un scaling des requêtes et limites de ressources de conteneurs
Scaling à zéro instance à l'aide de KEDA
Provisionner le stockage
À propos du stockage des clusters GKE
Utiliser les fonctionnalités, les primitives et les abstractions Kubernetes pour le stockage
Utiliser des volumes persistants et le provisionnement dynamique
Utiliser des StatefulSets
À propos des instantanés de volume
Utiliser l'expansion de volume
Transférer des données depuis Cloud Storage à l'aide de l'outil GKE Volume Populator
Stockage de blocs
Provisionner et utiliser des disques Persistent Disk
Utiliser le pilote CSI Persistent Disk Compute Engine
Limites de rattachement des volumes persistants
Utiliser des disques persistants préexistants
Installer manuellement un pilote CSI
Utiliser les disques persistants avec plusieurs lecteurs (ReadOnlyMany)
Disques persistants sauvegardés par un disque SSD
Disques persistants régionaux
Augmenter la disponibilité des applications avec état avec l'opérateur HA avec état
Provisionner et utiliser Hyperdisk
À propos d'Hyperdisk
Faire évoluer les performances du stockage à l'aide d'Hyperdisk
Optimiser les performances et les coûts de stockage avec les pools de stockage Hyperdisk
Accélération du chargement des données d'IA/ML avec Hyperdisk ML
Provisionner et utiliser le cache de données GKE
Accélérez les performances de lecture des charges de travail avec état avec le cache de données GKE
Gérer votre espace de stockage persistant
Configurer un disque de démarrage pour les systèmes de fichiers de nœud
Cloner les disques persistants
Sauvegarder et restaurer le stockage sur Persistent Disk à l'aide d'instantanés de volume
Optimiser les performances des disques
À propos de l'optimisation des performances des disques
Surveiller les performances des disques
SSD local et stockage éphémère
À propos de l'espace de stockage SSD local pour GKE
Provisionner le stockage éphémère basé sur disque SSD local
Provisionner le stockage de blocs bruts basé sur disque SSD local
Créer un déploiement à l'aide d'un volume EmptyDir
Utiliser des disques persistants dédiés en tant que volumes éphémères
Stockage de fichiers
Provisionner et utiliser Filestore
À propos de la compatibilité de Filestore avec GKE
Accéder aux instances Filestore
Déployer une charge de travail avec état avec Filestore
À propos des multipartages Filestore pour GKE
Optimiser les multipartages pour GKE
Sauvegarder et restaurer l'espace de stockage Filestore à l'aide d'instantanés de volume
Provisionner et utiliser des volumes Parallelstore
À propos de Parallelstore pour GKE
Créer et utiliser un volume basé sur Parallelstore
Accéder aux instances Parallelstore existantes
Provisionner et utiliser des volumes Lustre
À propos de Lustre pour GKE
Créer et utiliser un volume basé sur Lustre
Accéder aux instances Lustre existantes
Stockage d'objets
Démarrage rapide: pilote CSI Cloud Storage FUSE pour GKE
À propos du pilote CSI Cloud Storage FUSE pour GKE
Configurer le pilote CSI Cloud Storage FUSE
Installer des buckets Cloud Storage en tant que volumes éphémères
Installer des buckets Cloud Storage en tant que volumes persistants
Configurer le conteneur side-car du pilote CSI Cloud Storage FUSE
Optimiser les performances du pilote CSI Cloud Storage FUSE
Configurer la sécurité d'un cluster
Découvrir la sécurité de GKE
À propos de la sécurité dans GKE
À propos de la sécurité du plan de contrôle
À propos du chiffrement validé par FIPS dans GKE
Mesures de sécurité dans GKE Autopilot
À propos de l'approbation du cluster
Planifier la sécurité des clusters
Renforcer vos clusters
Correctifs de sécurité
Journaux d'audit pour Kubernetes
Journaux d'audit pour Kubernetes Engine
Journaux d'audit pour l'API Container Security
À propos des règles d'audit
Responsabilités partagées en matière de sécurité
Limiter les incidents de sécurité
vTPM dans les charges de travail GKE confidentielles
Authentification et autorisation
S'authentifier sur l'API GKE
S'authentifier auprès des API Google Cloud à partir de GKE
À propos de RBAC et IAM
Bonnes pratiques pour le contrôle RBAC
À propos des comptes de service dans GKE
S'authentifier auprès du serveur d'API Kubernetes
Utiliser des fournisseurs d'identité externes pour s'authentifier auprès des clusters GKE
Autoriser des actions dans les clusters à l'aide de GKE RBAC
Gérer les autorisations des groupes à l'aide de Google Groupes avec RBAC
Autoriser l'accès aux ressources Google Cloud à l'aide de stratégies IAM
Gérer l'accès SSH aux nœuds sans utiliser de clés SSH
Activer l'accès et afficher les ressources de cluster par espace de noms
Limiter les actions sur les ressources GKE à l'aide de règles d'administration personnalisées
À propos de seccomp dans GKE
Niveaux d'accès dans GKE
Accéder à des registres privés avec des certificats CA privés
Isoler les clusters et les charges de travail
À propos de GKE Sandbox
Isoler vos charges de travail à l'aide de GKE Sandbox
Isoler des charges de travail dans des pools de nœuds dédiés
Appliquer des règles et des stratégies de pare-feu
Appliquer des stratégies de pare-feu de manière sélective dans GKE
Utiliser des tags réseau pour appliquer des règles de pare-feu aux nœuds
Renforcer les charges de travail et les nœuds
Appliquer des règles de sécurité prédéfinies au niveau du pod à l'aide de PodSecurity
Appliquer des règles relatives à la sécurité des pods personnalisées à l'aide de GateKeeper
À propos de Workload Identity Federation for GKE
S'authentifier auprès des API Google Cloud à partir de GKE
Accéder aux secrets stockés en dehors des clusters GKE à l'aide de bibliothèques clientes
Désactiver le port accessible en lecture seule et non sécurisé du kubelet
Exécuter des agents de VM sur chaque nœud GKE
Chiffrer les données sensibles
Chiffrement des données utilisées à l'aide de nœuds Confidential GKE Node
Chiffrer vos données en transit dans GKE avec des clés de chiffrement gérées par l'utilisateur
Chiffrer les secrets au niveau de la couche d'application
Gérer la sécurité du plan de contrôle
À propos de la sécurité du plan de contrôle
Vérifier l'intégrité des VM du plan de contrôle GKE
À propos de l'approbation du cluster
À propos de l'autorité du plan de contrôle
Exécuter vos propres autorités de certification et clés dans GKE
Chiffrer les disques de démarrage d'etcd et du plan de contrôle
Vérifier les connexions du personnel Google dans le plan de contrôle GKE
Vérifier l'émission et l'utilisation d'une identité
Gérer les identifiants
Faire tourner les identifiants du cluster
Effectuer une rotation des adresses IP de votre plan de contrôle
Surveiller la sécurité des clusters
À propos du tableau de bord de stratégie de sécurité
À propos de l'analyse de la stratégie de sécurité Kubernetes
Rechercher des problèmes de configuration dans les charges de travail
À propos de l'analyse des failles des charges de travail
Rechercher des failles connues dans les conteneurs
Configurer des fonctionnalités de stratégie de sécurité GKE pour les parcs
Activer la journalisation d'audit Linux dans les clusters standards
Déployer et gérer des charges de travail
Planifier des déploiements de charges de travail
Planifier les demandes de ressources pour les charges de travail Autopilot
Migrer des charges de travail
Identifier les clusters standards à migrer vers Autopilot
Préparer la migration de clusters standards vers Autopilot
Déployer des charges de travail avec des exigences de calcul spécialisées
À propos des classes de calcul personnalisées dans GKE
Contrôler les attributs de nœud avec autoscaling à l'aide de classes de calcul personnalisées
À propos des classes de calcul intégrées dans les clusters Autopilot
Choisir des classes de calcul prédéfinies pour les pods Autopilot
Configurations minimales des processeurs pour les charges de travail intensives
Configurer l'utilisation intensive des pods dans GKE
Analyser les performances du processeur à l'aide de la PMU
Déployer des charges de travail qui présentent des exigences de sécurité particulières
Partenaires GKE Autopilot
Exécuter des charges de travail privilégiées à partir de partenaires GKE Autopilot
Exécuter des charges de travail Open Source privilégiées sur GKE Autopilot
Déployer des charges de travail nécessitant des appareils spécialisés
À propos de l'allocation dynamique des ressources (ADR) dans GKE
Préparer votre infrastructure GKE pour la DRA
Déployer des charges de travail DRA
Gérer les charges de travail
Configurer la séparation des charges de travail dans GKE
Placer les pods GKE dans des zones spécifiques
Simuler une défaillance de zone
Améliorer l'efficacité de la charge de travail grâce à Fast Socket NCCL
À propos des condensés d'images de conteneurs
Utiliser des condensés d'image de conteneur dans les fichiers manifestes Kubernetes
Améliorer la vitesse d'initialisation des charges de travail
Utiliser des images de conteneurs en streaming
Utiliser des disques de démarrage secondaires pour précharger des données ou des images de conteneurs
Intégration et livraison continues
Planifier l'intégration et la livraison continues
Créer un pipeline CI/CD avec Azure Pipelines
Livraison continue de type GitOps avec Cloud Build
CI/CD modernes avec GKE
Framework de livraison de logiciels
Créer un système CI/CD
Appliquer le workflow de développeur
Déployer des bases de données, des caches et des charges de travail de flux de données
Données sur GKE
Planifier des déploiements de bases de données sur GKE
Bases de données gérées
Déployer une application à l'aide de GKE Autopilot et de Spanner
Déployer WordPress dans GKE avec Persistent Disk et Cloud SQL
Analyser les données sur GKE à l'aide de BigQuery, Cloud Run et Gemma
Kafka
Déployer Apache Kafka sur GKE à l'aide de Strimzi
Déployer Apache Kafka sur GKE à l'aide de Confluent
Déployer un cluster Kafka à haute disponibilité sur GKE
Redis
Créer une application Web à plusieurs niveaux avec Redis et PHP
Déployer un cluster Redis sur GKE
Déployer Redis sur GKE en utilisant Spotahome
Déployer Redis sur GKE à l'aide de Redis Enterprise
MySQL
Déployer un cluster MySQL avec état
PostgreSQL
Déployer une base de données PostgreSQL à disponibilité élevée
Déployer PostgreSQL sur GKE à l'aide de Zalando
Déployer PostgreSQL sur GKE à l'aide de CloudNativePG
SQL Server
Déployer une instance unique SQL Server 2017 sur GKE
Memcached
Déployer Memcached sur GKE
Bases de données vectorielles
Créer un chatbot RAG à l'aide de GKE et Cloud Storage
Déployer une base de données Qdrant sur GKE
Déployer une base de données Elasticsearch sur GKE
Déployer une base de données vectorielle PostgreSQL sur GKE
Déployer une base de données vectorielle Weaviate sur GKE
Déployer des charges de travail d'IA et de ML
Orchestration IA/ML sur GKE
Exécuter des charges de travail de ML et d'IA
GPU
À propos des GPU dans GKE
Déployer des charges de travail de GPU dans GKE Autopilot
Déployer des charges de travail GPU dans GKE Standard
Chiffrer les données de charge de travail GPU utilisées
Gérer la pile de GPU avec l'opérateur GPU NVIDIA
Partage de GPU
À propos des stratégies de partage de GPU dans GKE
Utiliser un GPU multi-instance
Utiliser les GPU à temps partagé
Utiliser NVIDIA MPS
Bonnes pratiques pour l'autoscaling des charges de travail d'inférence LLM sur les GPU
Bonnes pratiques pour optimiser les performances d'inférence des LLM sur les GPU
TPU dans GKE
À propos des TPU dans GKE
Planifier des TPU dans GKE
Demander des TPU
Demander des TPU avec des réservations futures en mode agenda
Exécuter une petite charge de travail par lot avec le mode de provisionnement Démarrage Flex pour les TPU
Déployer des charges de travail TPU dans GKE Autopilot
Déployer des charges de travail TPU dans GKE Standard
Déployer des TPU Multislice dans GKE
Orchestrer des charges de travail TPU Multislice à l'aide de JobSet et de Kueue
Bonnes pratiques pour l'autoscaling des charges de travail d'inférence LLM sur les TPU
Gérer les interruptions des nœuds GKE pour les GPU et les TPU
Charges de travail basées sur le processeur
Optimiser les performances des pods Autopilot en choisissant une série de machines
Optimiser le provisionnement de GPU et de TPU
À propos du provisionnement de GPU et de TPU avec démarrage Flex
Exécuter une charge de travail à grande échelle avec le démarrage flexible et le provisionnement en file d'attente
Exécuter une petite charge de travail par lot avec le modèle de provisionnement Démarrage flexible
Formation
Entraîner les modèles avec des GPU en mode GKE Standard
Entraîner un modèle avec des GPU en mode GKE Autopilot
Entraîner Llama2 avec Megatron-LM sur des VM A3 Mega
Entraîner des modèles de ML à grande échelle avec le checkpointing multicouche
Inférence
À propos de l'inférence de modèle d'IA/ML sur GKE
Exécuter des inférences conformes aux bonnes pratiques avec les recettes de démarrage rapide d'inférence
Essayer des exemples d'inférence sur des GPU
Diffuser un modèle avec un seul GPU
Diffuser un LLM avec plusieurs GPU
Diffuser des LLM tels que Deepseek-R1 671B ou Llama 3.1 405B
Diffuser un LLM sur des GPU L4 avec Ray
Diffuser des LLM évolutifs à l'aide de TorchServe
Diffuser Gemma sur des GPU avec Hugging Face TGI
Diffuser Gemma sur des GPU avec vLLM
Diffuser des modèles Llama à l'aide de GPU sur GKE avec vLLM
Diffuser Gemma sur des GPU avec TensorRT-LLM
Diffuser un LLM avec GKE Inference Gateway
Affiner les modèles ouverts Gemma à l'aide de plusieurs GPU
Diffuser des LLM avec une stratégie de provisionnement de GPU optimisée en termes de coûts et haute disponibilité
Essayer des exemples d'inférence sur des TPU
Diffuser des modèles Open Source à l'aide de TPU avec Optimum TPU
Diffuser Gemma sur TPU avec JetStream
Diffuser un LLM sur TPU avec JetStream et PyTorch
Diffuser un LLM sur des TPU multi-hôtes avec JetStream et Pathways
Diffuser un LLM sur des TPU avec vLLM
Diffuser un LLM à l'aide de TPU avec KubeRay
Diffuser SDXL en utilisant des TPU sur GKE avec MaxDiffusion
Effectuer une inférence multi-hôte à l'aide de Pathways
Lot
Bonnes pratiques pour l'exécution de charges de travail par lot sur GKE
Déployer un système de traitement par lots à l'aide de Kueue
Obtenir des GPU avec le planificateur de charges de travail dynamique
À propos de la disponibilité des GPU avec flex-start
Exécuter une charge de travail à grande échelle avec le démarrage flexible et le provisionnement en file d'attente
Exécuter une petite charge de travail par lot avec le modèle de provisionnement Démarrage flexible
Implémenter un système de mise en file d'attente de jobs avec un partage de quota entre espaces de noms
Optimiser l'utilisation des ressources pour les charges de travail d'entraînement et d'inférence mixtes à l'aide de Kueue
Utiliser Ray sur GKE
Déployer des charges de travail par type d'application
Serveurs et applications Web
Planifier la diffusion des sites Web
Déployer une application avec état
Assurez-vous que les charges de travail sont prêtes en cas d'interruption
Déployer une application sans état
Autoriser les connexions directes à des pods Autopilot à l'aide de hostPort
Exécuter Django
Déployer une application à partir de Cloud Marketplace
Exécuter des charges de travail full stack à grande échelle sur GKE
Déployer une application de serveur Web conteneurisée
Jeux vidéo
Obtenir de l'aide pour résoudre les problèmes liés à Agones
Isoler le contrôleur Agones dans votre cluster GKE
Déployer des charges de travail Arm
Préparer une charge de travail Arm pour le déploiement sur des clusters standards
Créer des images multi-arch pour les charges de travail Arm
Déployer des charges de travail Autopilot sur l'architecture Arm
Migrer l'application x86 sur GKE vers multi-arch avec Arm
Microsoft Windows
Déployer une application Windows Server
Créer des images multi-arch Windows Server
Déployer des applications ASP.NET avec authentification Windows dans des conteneurs Windows pour GKE
Exécuter des charges de travail tolérantes aux pannes à moindre coût
Utiliser les pods Spot sur les clusters Autopilot
Utiliser des VM spot pour exécuter des charges de travail sur des clusters GKE standard
Utiliser des VM préemptives pour exécuter des charges de travail
Gérer et optimiser les clusters
Gérer les modifications du cycle de vie des clusters pour minimiser les perturbations
Optimiser votre utilisation de GKE avec des insights et des recommandations.
Gérer un cluster GKE
Passer à GKE Enterprise
Configurer un cluster et une charge de travail pour la préproduction
Mettre à niveau les clusters et les pools de nœuds
À propos des mises à niveau de clusters GKE
Planifier les mises à niveau des clusters
À propos des versions disponibles
Utiliser les canaux de publication
À propos des mises à niveau des clusters Autopilot
À propos des mises à niveau standards des clusters
Mettre à niveau automatiquement les nœuds
Mettre à niveau manuellement un cluster ou un pool de nœuds
À propos des stratégies de mise à niveau des nœuds
Configurer les stratégies de mise à niveau des nœuds
À propos des intervalles et des exclusions de maintenance
Apprendre à configurer des intervalles et des exclusions de maintenance.
À propos des mises à niveau des clusters avec séquençage du déploiement
Séquencer le déploiement des mises à niveau des clusters
Recevoir des notifications pour les événements de cluster
À propos des notifications de cluster
Recevoir des notifications de cluster via Pub/Sub
Configurer le cluster pour recevoir des notifications par e-mail
Configurer des notifications de cluster pour les services tiers
Obtenir une visibilité sur les mises à niveau de cluster
Gérer les nœuds
Assurer des ressources pour les mises à niveau des nœuds
Redimensionner des clusters en ajoutant ou en supprimant des nœuds
Définir la concentration des nœuds
Migrer des nœuds vers un autre type de machine
Migrer depuis Docker vers des images de nœuds containerd
Migrer des nœuds vers Linux cgroupv2
Personnaliser la configuration containerd
Personnaliser la configuration du système de nœud
Configurer les nœuds Windows Server pour les joindre à un domaine
Plusieurs threads simultanés (SMT) pour le calcul hautes performances
Supprimer un cluster
Utiliser les API bêta Kubernetes avec des clusters GKE
Garantit la stabilité du plan de contrôle lors de l'utilisation de webhooks.
Utiliser Sauvegarde pour GKE
Résoudre les problèmes liés aux secrets au niveau de la couche application
Résoudre les problèmes liés aux CRD avec un groupe d'autorités de certification non valide
Contrôler
Observabilité pour GKE
Configurer Google Cloud Managed Service pour Prometheus
Surveiller des clusters et des charges de travail
Configurer la collecte de métriques
Configurer la surveillance automatique des applications pour les charges de travail
Afficher les métriques d'observabilité
Collecter et afficher les métriques d'observabilité
Collecter et afficher les métriques du plan de contrôle
Collecter et afficher les métriques Kube State Metrics
Collecter et afficher les métriques cAdvisor/Kubelet
Collecter et afficher les métriques DCGM
Utiliser les métriques de performances des applications
Surveiller les métriques de latence de démarrage
Comprendre les profils d'utilisation des clusters avec la mesure de l'utilisation de GKE
Observabilité des applications avec Prometheus sur GKE
Configurer Elastic Stack sur GKE
Afficher et traiter les journaux
À propos des journaux GKE
Afficher les journaux GKE
Contrôler l'ingestion de journaux
Ajuster le débit des journaux
Configurer la journalisation mutualisée
Dépannage
Aperçu
Présentation du dépannage
Configurer le cluster
Création du cluster
Clusters Autopilot
Outil de ligne de commande Kubectl
Pools de nœuds standards
Enregistrement des nœuds
Environnement d'exécution du conteneur
Autoscaling
L'autoscaler de cluster n'effectue pas de scaling à la baisse
L'autoscaler de cluster n'effectue pas de scaling à la hausse
Storage
Sécurité du cluster