Passer au contenu principal
Google Cloud
Documentation Domaines technologiques
  • IA et ML
  • Développement d'applications
  • Hébergement d'applications
  • Calcul
  • Analyses de données et pipelines
  • Bases de données
  • Solutions distribuées, hybrides et multicloud
  • IA générative
  • Solutions par secteur d'activité
  • Réseau professionnel
  • Observabilité et surveillance
  • Sécurité
  • Storage
Outils de produits croisés
  • Gestion des accès et des ressources
  • Gestion des coûts et de l'utilisation
  • Google Cloud SDK, langages, frameworks et outils
  • Infrastructure as Code (IaC)
  • Migration
Sites connexes
  • Accueil Google Cloud
  • Essai et niveau gratuits
  • Architecture Center
  • Blog
  • Contacter le service commercial
  • Centre pour les développeurs Google Cloud
  • Google Developer Center
  • Google Cloud Marketplace
  • Documentation de Google Cloud Marketplace
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Assistance Google Cloud
  • Chaîne YouTube de l'équipe Google Cloud Tech
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Connexion
  • Google Kubernetes Engine (GKE)
Aperçu Guides Référence Exemples Ressources
Nous contacter Commencer l'essai gratuit
Google Cloud
  • Documentation
    • Aperçu
    • Guides
    • Référence
    • Exemples
    • Ressources
  • Domaines technologiques
    • Plus
  • Outils de produits croisés
    • Plus
  • Sites connexes
    • Plus
  • Console
  • Nous contacter
  • Commencer l'essai gratuit
  • Découvrir
  • Présentation de GKE
  • Consulter la documentation GKE
  • Utiliser GKE ou Cloud Run ?
  • Essayer
    • Créer un cluster dans la console
    • Créer un cluster avec Terraform
    • Explorer votre cluster
  • Affiner les services GKE avec l'aide de Gemini
  • Apprendre les bases
  • Commencer à découvrir GKE
  • Apprendre les principes de base de Kubernetes
    • Commencer à découvrir Kubernetes
    • Présentation des conteneurs
    • Bande dessinée Kubernetes
    • Kubernetes.io
    • Écouter la vidéo : Découvrez Kubernetes avec Google
  • Apprendre les principes de base de GKE
    • Modes de fonctionnement de GKE
    • Éditions GKE
    • Miniature de la vidéo : GKE Essentials
  • Premiers pas
  • Cycle de vie du cluster
  • Présentation de l'administration de cluster
  • Configuration du cluster
  • Déployer des charges de travail
  • Architecture du cluster GKE
  • Workflows et outils
    • Présentation de gcloud CLI
    • GKE dans la console Google Cloud
    • Provisionner des ressources GKE avec Terraform
    • Installer kubectl et configurer l'accès au cluster
    • Simplifier le déploiement à l'aide de votre IDE
  • Parcours de formation: Conteneuriser votre application
    • Aperçu
    • Comprendre le monolithe
    • Modulariser le monolithe
    • Préparer la conteneurisation
    • Conteneuriser l'application modulaire
    • Déployer l'application sur un cluster
  • Parcours de formation : applications évolutives
    • Aperçu
    • Créer un cluster
    • Surveiller avec Prometheus
    • Effectuer le scaling des charges de travail
    • Simuler une défaillance
    • Considérations relatives à la production
  • Conception et planification
  • Exemples de code
  • Solutions de démarrage rapide
    • Application Web dynamique avec Java
    • Application Web d'e-commerce
  • Architectures et bonnes pratiques
    • Développer et déployer des applications avec Cloud Code, Cloud Build et Google Cloud Deploy
    • Résoudre les problèmes de livraison continue
  • Configurer des clusters GKE
  • Planifier des clusters pour exécuter vos charges de travail
    • Comparer les fonctionnalités des modes Autopilot et standard de GKE
    • À propos des clusters régionaux
    • À propos des portes de fonctionnalité
    • À propos des clusters alpha
  • Configurer des clusters Autopilot
    • À propos de GKE Autopilot
    • Créer des clusters Autopilot
    • Prolonger la durée d'exécution des pods Autopilot
  • Configurer des clusters standards
    • Créer un cluster zonal
    • Créer un cluster régional
    • Créer un cluster alpha
    • Créer un cluster à l'aide de pools de nœuds Windows
  • Préparer l'utilisation des clusters
    • Utiliser des libellés pour organiser les clusters
    • Gérer des ressources GKE à l'aide de tags
  • Configurer des pools de nœuds
    • À propos des pools de nœuds
    • Ajouter et gérer des pools de nœuds
    • À propos des images de nœuds
    • À propos des images containerd
    • Spécifier une image de nœud
    • À propos des charges de travail Arm sur GKE
    • Créer des clusters et des pools de nœuds standards avec des nœuds Arm
    • Planifier les tailles de nœud GKE Standard
    • À propos des VM Spot
    • Utiliser des nœuds à locataire unique
    • À propos des conteneurs Windows Server
    • Réparer automatiquement des nœuds
    • Amorcer automatiquement les nœuds GKE avec DaemonSets
  • Configurer des clusters pour l'architecture mutualisée
    • À propos de l'architecture de cluster mutualisée
    • Planifier un environnement mutualisé
    • Préparer des clusters GKE pour des locataires tiers
    • Configurer la journalisation mutualisée
  • Utiliser des parcs pour simplifier la gestion multicluster
    • À propos des parcs
    • Créer des parcs
  • Configurer un maillage de services
    • Provisionner Cloud Service Mesh dans un cluster Autopilot
  • Améliorer l'évolutivité des clusters
    • À propos de l'évolutivité de GKE
    • Planifier pour l'évolutivité
    • Planifier des clusters GKE volumineux
    • Planifier des charges de travail volumineuses
    • Provisionner une capacité de calcul supplémentaire pour un scaling rapide des pods
    • Consommer des ressources zonales réservées
  • Réduire et optimiser les coûts
  • Planifier l'optimisation des coûts
  • Afficher les coûts GKE
    • Afficher la répartition des coûts du cluster
    • Afficher les métriques d'optimisation liées aux coûts
  • Optimiser les coûts GKE
    • Dimensionner correctement vos charges de travail GKE à grande échelle
    • Réduire les coûts en procédant au scaling à la baisse des clusters GKE pendant les heures creuses
    • Identifier les clusters GKE sous-provisionnés et sur-provisionnés
    • Identifier les clusters GKE inactifs
  • Configurer l'autoscaling pour l'infrastructure
    • À propos de l'autoscaling des clusters
    • Configurer l'autoscaling des clusters
    • À propos du provisionnement automatique des nœuds
    • Configurer le provisionnement automatique des nœuds
    • Afficher les événements d'autoscaling du cluster
  • Configurer l'autoscaling pour les charges de travail
    • Procéder au scaling des applications déployées
    • À propos de l'autoscaling des charges de travail en fonction des métriques
    • Optimiser l'autoscaling des pods en fonction des métriques
    • À propos de l'autoscaling horizontal des pods
    • Procéder à un autoscaling des déploiements à l'aide de l'autoscaling horizontal des pods
    • Configurer l'autoscaling pour les charges de travail LLM sur les GPU
    • Configurer l'autoscaling pour les charges de travail LLM sur les TPU
    • Afficher les événements de l'autoscaler horizontal des pods
    • À propos de l'autoscaling de pods verticaux
    • Configurer l'autoscaling de pods multidimensionnels
    • Effectuer un scaling des requêtes et limites de ressources de conteneurs
    • Scaling à zéro instance à l'aide de KEDA
  • Provisionner le stockage
  • À propos du stockage des clusters GKE
  • Utiliser les fonctionnalités, les primitives et les abstractions Kubernetes pour le stockage
    • Utiliser des volumes persistants et le provisionnement dynamique
    • Utiliser des StatefulSets
    • À propos des instantanés de volume
    • Utiliser l'expansion de volume
    • Transférer des données depuis Cloud Storage à l'aide de l'outil GKE Volume Populator
  • Stockage de blocs
    • Provisionner et utiliser des disques Persistent Disk
      • Utiliser le pilote CSI Persistent Disk Compute Engine
      • Limites de rattachement des volumes persistants
      • Utiliser des disques persistants préexistants
      • Installer manuellement un pilote CSI
      • Utiliser les disques persistants avec plusieurs lecteurs (ReadOnlyMany)
      • Disques persistants sauvegardés par un disque SSD
      • Disques persistants régionaux
      • Augmenter la disponibilité des applications avec état avec l'opérateur HA avec état
    • Provisionner et utiliser Hyperdisk
      • À propos d'Hyperdisk
      • Faire évoluer les performances du stockage à l'aide d'Hyperdisk
      • Optimiser les performances et les coûts de stockage avec les pools de stockage Hyperdisk
      • Accélération du chargement des données d'IA/ML avec Hyperdisk ML
    • Provisionner et utiliser le cache de données GKE
      • Accélérez les performances de lecture des charges de travail avec état avec le cache de données GKE
    • Gérer votre espace de stockage persistant
      • Configurer un disque de démarrage pour les systèmes de fichiers de nœud
      • Cloner les disques persistants
      • Sauvegarder et restaurer le stockage sur Persistent Disk à l'aide d'instantanés de volume
    • Optimiser les performances des disques
      • À propos de l'optimisation des performances des disques
      • Surveiller les performances des disques
  • SSD local et stockage éphémère
    • À propos de l'espace de stockage SSD local pour GKE
    • Provisionner le stockage éphémère basé sur disque SSD local
    • Provisionner le stockage de blocs bruts basé sur disque SSD local
    • Créer un déploiement à l'aide d'un volume EmptyDir
    • Utiliser des disques persistants dédiés en tant que volumes éphémères
  • Stockage de fichiers
    • Provisionner et utiliser Filestore
      • À propos de la compatibilité de Filestore avec GKE
      • Accéder aux instances Filestore
      • Déployer une charge de travail avec état avec Filestore
      • À propos des multipartages Filestore pour GKE
      • Optimiser les multipartages pour GKE
      • Sauvegarder et restaurer l'espace de stockage Filestore à l'aide d'instantanés de volume
    • Provisionner et utiliser des volumes Parallelstore
      • À propos de Parallelstore pour GKE
      • Créer et utiliser un volume basé sur Parallelstore
      • Accéder aux instances Parallelstore existantes
    • Provisionner et utiliser des volumes Lustre
      • À propos de Lustre pour GKE
      • Créer et utiliser un volume basé sur Lustre
      • Accéder aux instances Lustre existantes
  • Stockage d'objets
    • Démarrage rapide: pilote CSI Cloud Storage FUSE pour GKE
    • À propos du pilote CSI Cloud Storage FUSE pour GKE
    • Configurer le pilote CSI Cloud Storage FUSE
    • Installer des buckets Cloud Storage en tant que volumes éphémères
    • Installer des buckets Cloud Storage en tant que volumes persistants
    • Configurer le conteneur side-car du pilote CSI Cloud Storage FUSE
    • Optimiser les performances du pilote CSI Cloud Storage FUSE
  • Configurer la sécurité d'un cluster
  • Découvrir la sécurité de GKE
    • À propos de la sécurité dans GKE
    • À propos de la sécurité du plan de contrôle
    • À propos du chiffrement validé par FIPS dans GKE
    • Mesures de sécurité dans GKE Autopilot
    • À propos de l'approbation du cluster
  • Planifier la sécurité des clusters
    • Renforcer vos clusters
    • Correctifs de sécurité
    • Journaux d'audit pour Kubernetes
    • Journaux d'audit pour Kubernetes Engine
    • Journaux d'audit pour l'API Container Security
    • À propos des règles d'audit
    • Responsabilités partagées en matière de sécurité
    • Limiter les incidents de sécurité
    • vTPM dans les charges de travail GKE confidentielles
  • Authentification et autorisation
    • S'authentifier sur l'API GKE
    • S'authentifier auprès des API Google Cloud à partir de GKE
    • À propos de RBAC et IAM
    • Bonnes pratiques pour le contrôle RBAC
    • À propos des comptes de service dans GKE
    • S'authentifier auprès du serveur d'API Kubernetes
    • Utiliser des fournisseurs d'identité externes pour s'authentifier auprès des clusters GKE
    • Autoriser des actions dans les clusters à l'aide de GKE RBAC
    • Gérer les autorisations des groupes à l'aide de Google Groupes avec RBAC
    • Autoriser l'accès aux ressources Google Cloud à l'aide de stratégies IAM
    • Gérer l'accès SSH aux nœuds sans utiliser de clés SSH
    • Activer l'accès et afficher les ressources de cluster par espace de noms
    • Limiter les actions sur les ressources GKE à l'aide de règles d'administration personnalisées
    • À propos de seccomp dans GKE
    • Niveaux d'accès dans GKE
    • Accéder à des registres privés avec des certificats CA privés
  • Isoler les clusters et les charges de travail
    • À propos de GKE Sandbox
    • Isoler vos charges de travail à l'aide de GKE Sandbox
    • Isoler des charges de travail dans des pools de nœuds dédiés
    • Appliquer des règles et des stratégies de pare-feu
      • Appliquer des stratégies de pare-feu de manière sélective dans GKE
      • Utiliser des tags réseau pour appliquer des règles de pare-feu aux nœuds
  • Renforcer les charges de travail et les nœuds
    • Appliquer des règles de sécurité prédéfinies au niveau du pod à l'aide de PodSecurity
    • Appliquer des règles relatives à la sécurité des pods personnalisées à l'aide de GateKeeper
    • À propos de Workload Identity Federation for GKE
    • S'authentifier auprès des API Google Cloud à partir de GKE
    • Accéder aux secrets stockés en dehors des clusters GKE à l'aide de bibliothèques clientes
    • Désactiver le port accessible en lecture seule et non sécurisé du kubelet
    • Exécuter des agents de VM sur chaque nœud GKE
  • Chiffrer les données sensibles
    • Chiffrement des données utilisées à l'aide de nœuds Confidential GKE Node
    • Chiffrer vos données en transit dans GKE avec des clés de chiffrement gérées par l'utilisateur
    • Chiffrer les secrets au niveau de la couche d'application
  • Gérer la sécurité du plan de contrôle
    • À propos de la sécurité du plan de contrôle
    • Vérifier l'intégrité des VM du plan de contrôle GKE
    • À propos de l'approbation du cluster
    • À propos de l'autorité du plan de contrôle
    • Exécuter vos propres autorités de certification et clés dans GKE
    • Chiffrer les disques de démarrage d'etcd et du plan de contrôle
    • Vérifier les connexions du personnel Google dans le plan de contrôle GKE
    • Vérifier l'émission et l'utilisation d'une identité
  • Gérer les identifiants
    • Faire tourner les identifiants du cluster
    • Effectuer une rotation des adresses IP de votre plan de contrôle
  • Surveiller la sécurité des clusters
    • À propos du tableau de bord de stratégie de sécurité
    • À propos de l'analyse de la stratégie de sécurité Kubernetes
    • Rechercher des problèmes de configuration dans les charges de travail
    • À propos de l'analyse des failles des charges de travail
    • Rechercher des failles connues dans les conteneurs
    • Configurer des fonctionnalités de stratégie de sécurité GKE pour les parcs
    • Activer la journalisation d'audit Linux dans les clusters standards
  • Déployer et gérer des charges de travail
  • Planifier des déploiements de charges de travail
    • Planifier les demandes de ressources pour les charges de travail Autopilot
  • Migrer des charges de travail
    • Identifier les clusters standards à migrer vers Autopilot
    • Préparer la migration de clusters standards vers Autopilot
  • Déployer des charges de travail avec des exigences de calcul spécialisées
    • À propos des classes de calcul personnalisées dans GKE
    • Contrôler les attributs de nœud avec autoscaling à l'aide de classes de calcul personnalisées
    • À propos des classes de calcul intégrées dans les clusters Autopilot
    • Choisir des classes de calcul prédéfinies pour les pods Autopilot
    • Configurations minimales des processeurs pour les charges de travail intensives
    • Configurer l'utilisation intensive des pods dans GKE
    • Analyser les performances du processeur à l'aide de la PMU
  • Déployer des charges de travail qui présentent des exigences de sécurité particulières
    • Partenaires GKE Autopilot
    • Exécuter des charges de travail privilégiées à partir de partenaires GKE Autopilot
    • Exécuter des charges de travail Open Source privilégiées sur GKE Autopilot
  • Déployer des charges de travail nécessitant des appareils spécialisés
    • À propos de l'allocation dynamique des ressources (ADR) dans GKE
    • Préparer votre infrastructure GKE pour la DRA
    • Déployer des charges de travail DRA
  • Gérer les charges de travail
    • Configurer la séparation des charges de travail dans GKE
    • Placer les pods GKE dans des zones spécifiques
    • Simuler une défaillance de zone
    • Améliorer l'efficacité de la charge de travail grâce à Fast Socket NCCL
    • À propos des condensés d'images de conteneurs
    • Utiliser des condensés d'image de conteneur dans les fichiers manifestes Kubernetes
    • Améliorer la vitesse d'initialisation des charges de travail
      • Utiliser des images de conteneurs en streaming
      • Utiliser des disques de démarrage secondaires pour précharger des données ou des images de conteneurs
  • Intégration et livraison continues
    • Planifier l'intégration et la livraison continues
    • Créer un pipeline CI/CD avec Azure Pipelines
    • Livraison continue de type GitOps avec Cloud Build
    • CI/CD modernes avec GKE
      • Framework de livraison de logiciels
      • Créer un système CI/CD
      • Appliquer le workflow de développeur
  • Déployer des bases de données, des caches et des charges de travail de flux de données
  • Données sur GKE
  • Planifier des déploiements de bases de données sur GKE
  • Bases de données gérées
    • Déployer une application à l'aide de GKE Autopilot et de Spanner
    • Déployer WordPress dans GKE avec Persistent Disk et Cloud SQL
    • Analyser les données sur GKE à l'aide de BigQuery, Cloud Run et Gemma
  • Kafka
    • Déployer Apache Kafka sur GKE à l'aide de Strimzi
    • Déployer Apache Kafka sur GKE à l'aide de Confluent
    • Déployer un cluster Kafka à haute disponibilité sur GKE
  • Redis
    • Créer une application Web à plusieurs niveaux avec Redis et PHP
    • Déployer un cluster Redis sur GKE
    • Déployer Redis sur GKE en utilisant Spotahome
    • Déployer Redis sur GKE à l'aide de Redis Enterprise
  • MySQL
    • Déployer un cluster MySQL avec état
  • PostgreSQL
    • Déployer une base de données PostgreSQL à disponibilité élevée
    • Déployer PostgreSQL sur GKE à l'aide de Zalando
    • Déployer PostgreSQL sur GKE à l'aide de CloudNativePG
  • SQL Server
    • Déployer une instance unique SQL Server 2017 sur GKE
  • Memcached
    • Déployer Memcached sur GKE
  • Bases de données vectorielles
    • Créer un chatbot RAG à l'aide de GKE et Cloud Storage
    • Déployer une base de données Qdrant sur GKE
    • Déployer une base de données Elasticsearch sur GKE
    • Déployer une base de données vectorielle PostgreSQL sur GKE
    • Déployer une base de données vectorielle Weaviate sur GKE
  • Déployer des charges de travail d'IA et de ML
  • Orchestration IA/ML sur GKE
  • Exécuter des charges de travail de ML et d'IA
    • GPU
      • À propos des GPU dans GKE
      • Déployer des charges de travail de GPU dans GKE Autopilot
      • Déployer des charges de travail GPU dans GKE Standard
      • Chiffrer les données de charge de travail GPU utilisées
      • Gérer la pile de GPU avec l'opérateur GPU NVIDIA
      • Partage de GPU
        • À propos des stratégies de partage de GPU dans GKE
        • Utiliser un GPU multi-instance
        • Utiliser les GPU à temps partagé
        • Utiliser NVIDIA MPS
      • Bonnes pratiques pour l'autoscaling des charges de travail d'inférence LLM sur les GPU
      • Bonnes pratiques pour optimiser les performances d'inférence des LLM sur les GPU
    • TPU dans GKE
      • À propos des TPU dans GKE
      • Planifier des TPU dans GKE
      • Demander des TPU
        • Demander des TPU avec des réservations futures en mode agenda
        • Exécuter une petite charge de travail par lot avec le mode de provisionnement Démarrage Flex pour les TPU
      • Déployer des charges de travail TPU dans GKE Autopilot
      • Déployer des charges de travail TPU dans GKE Standard
      • Déployer des TPU Multislice dans GKE
      • Orchestrer des charges de travail TPU Multislice à l'aide de JobSet et de Kueue
      • Bonnes pratiques pour l'autoscaling des charges de travail d'inférence LLM sur les TPU
    • Gérer les interruptions des nœuds GKE pour les GPU et les TPU
    • Charges de travail basées sur le processeur
      • Optimiser les performances des pods Autopilot en choisissant une série de machines
    • Optimiser le provisionnement de GPU et de TPU
      • À propos du provisionnement de GPU et de TPU avec démarrage Flex
      • Exécuter une charge de travail à grande échelle avec le démarrage flexible et le provisionnement en file d'attente
      • Exécuter une petite charge de travail par lot avec le modèle de provisionnement Démarrage flexible
  • Formation
    • Entraîner les modèles avec des GPU en mode GKE Standard
    • Entraîner un modèle avec des GPU en mode GKE Autopilot
    • Entraîner Llama2 avec Megatron-LM sur des VM A3 Mega
    • Entraîner des modèles de ML à grande échelle avec le checkpointing multicouche
  • Inférence
    • À propos de l'inférence de modèle d'IA/ML sur GKE
    • Exécuter des inférences conformes aux bonnes pratiques avec les recettes de démarrage rapide d'inférence
    • Essayer des exemples d'inférence sur des GPU
      • Diffuser un modèle avec un seul GPU
      • Diffuser un LLM avec plusieurs GPU
      • Diffuser des LLM tels que Deepseek-R1 671B ou Llama 3.1 405B
      • Diffuser un LLM sur des GPU L4 avec Ray
      • Diffuser des LLM évolutifs à l'aide de TorchServe
      • Diffuser Gemma sur des GPU avec Hugging Face TGI
      • Diffuser Gemma sur des GPU avec vLLM
      • Diffuser des modèles Llama à l'aide de GPU sur GKE avec vLLM
      • Diffuser Gemma sur des GPU avec TensorRT-LLM
      • Diffuser un LLM avec GKE Inference Gateway
      • Affiner les modèles ouverts Gemma à l'aide de plusieurs GPU
      • Diffuser des LLM avec une stratégie de provisionnement de GPU optimisée en termes de coûts et haute disponibilité
    • Essayer des exemples d'inférence sur des TPU
      • Diffuser des modèles Open Source à l'aide de TPU avec Optimum TPU
      • Diffuser Gemma sur TPU avec JetStream
      • Diffuser un LLM sur TPU avec JetStream et PyTorch
      • Diffuser un LLM sur des TPU multi-hôtes avec JetStream et Pathways
      • Diffuser un LLM sur des TPU avec vLLM
      • Diffuser un LLM à l'aide de TPU avec KubeRay
      • Diffuser SDXL en utilisant des TPU sur GKE avec MaxDiffusion
      • Effectuer une inférence multi-hôte à l'aide de Pathways
  • Lot
    • Bonnes pratiques pour l'exécution de charges de travail par lot sur GKE
    • Déployer un système de traitement par lots à l'aide de Kueue
    • Obtenir des GPU avec le planificateur de charges de travail dynamique
      • À propos de la disponibilité des GPU avec flex-start
      • Exécuter une charge de travail à grande échelle avec le démarrage flexible et le provisionnement en file d'attente
      • Exécuter une petite charge de travail par lot avec le modèle de provisionnement Démarrage flexible
    • Implémenter un système de mise en file d'attente de jobs avec un partage de quota entre espaces de noms
    • Optimiser l'utilisation des ressources pour les charges de travail d'entraînement et d'inférence mixtes à l'aide de Kueue
  • Utiliser Ray sur GKE
  • Déployer des charges de travail par type d'application
  • Serveurs et applications Web
    • Planifier la diffusion des sites Web
    • Déployer une application avec état
    • Assurez-vous que les charges de travail sont prêtes en cas d'interruption
    • Déployer une application sans état
    • Autoriser les connexions directes à des pods Autopilot à l'aide de hostPort
    • Exécuter Django
    • Déployer une application à partir de Cloud Marketplace
    • Exécuter des charges de travail full stack à grande échelle sur GKE
    • Déployer une application de serveur Web conteneurisée
  • Jeux vidéo
    • Obtenir de l'aide pour résoudre les problèmes liés à Agones
    • Isoler le contrôleur Agones dans votre cluster GKE
  • Déployer des charges de travail Arm
    • Préparer une charge de travail Arm pour le déploiement sur des clusters standards
    • Créer des images multi-arch pour les charges de travail Arm
    • Déployer des charges de travail Autopilot sur l'architecture Arm
    • Migrer l'application x86 sur GKE vers multi-arch avec Arm
  • Microsoft Windows
    • Déployer une application Windows Server
    • Créer des images multi-arch Windows Server
    • Déployer des applications ASP.NET avec authentification Windows dans des conteneurs Windows pour GKE
  • Exécuter des charges de travail tolérantes aux pannes à moindre coût
    • Utiliser les pods Spot sur les clusters Autopilot
    • Utiliser des VM spot pour exécuter des charges de travail sur des clusters GKE standard
    • Utiliser des VM préemptives pour exécuter des charges de travail
  • Gérer et optimiser les clusters
  • Gérer les modifications du cycle de vie des clusters pour minimiser les perturbations
  • Optimiser votre utilisation de GKE avec des insights et des recommandations.
  • Gérer un cluster GKE
  • Passer à GKE Enterprise
  • Configurer un cluster et une charge de travail pour la préproduction
  • Mettre à niveau les clusters et les pools de nœuds
    • À propos des mises à niveau de clusters GKE
    • Planifier les mises à niveau des clusters
    • À propos des versions disponibles
    • Utiliser les canaux de publication
    • À propos des mises à niveau des clusters Autopilot
    • À propos des mises à niveau standards des clusters
    • Mettre à niveau automatiquement les nœuds
    • Mettre à niveau manuellement un cluster ou un pool de nœuds
    • À propos des stratégies de mise à niveau des nœuds
    • Configurer les stratégies de mise à niveau des nœuds
    • À propos des intervalles et des exclusions de maintenance
    • Apprendre à configurer des intervalles et des exclusions de maintenance.
    • À propos des mises à niveau des clusters avec séquençage du déploiement
    • Séquencer le déploiement des mises à niveau des clusters
  • Recevoir des notifications pour les événements de cluster
    • À propos des notifications de cluster
    • Recevoir des notifications de cluster via Pub/Sub
    • Configurer le cluster pour recevoir des notifications par e-mail
    • Configurer des notifications de cluster pour les services tiers
    • Obtenir une visibilité sur les mises à niveau de cluster
  • Gérer les nœuds
    • Assurer des ressources pour les mises à niveau des nœuds
    • Redimensionner des clusters en ajoutant ou en supprimant des nœuds
    • Définir la concentration des nœuds
    • Migrer des nœuds vers un autre type de machine
    • Migrer depuis Docker vers des images de nœuds containerd
    • Migrer des nœuds vers Linux cgroupv2
    • Personnaliser la configuration containerd
    • Personnaliser la configuration du système de nœud
    • Configurer les nœuds Windows Server pour les joindre à un domaine
    • Plusieurs threads simultanés (SMT) pour le calcul hautes performances
  • Supprimer un cluster
  • Utiliser les API bêta Kubernetes avec des clusters GKE
  • Garantit la stabilité du plan de contrôle lors de l'utilisation de webhooks.
  • Utiliser Sauvegarde pour GKE
  • Résoudre les problèmes liés aux secrets au niveau de la couche application
  • Résoudre les problèmes liés aux CRD avec un groupe d'autorités de certification non valide
  • Contrôler
  • Observabilité pour GKE
  • Configurer Google Cloud Managed Service pour Prometheus
  • Surveiller des clusters et des charges de travail
    • Configurer la collecte de métriques
    • Configurer la surveillance automatique des applications pour les charges de travail
    • Afficher les métriques d'observabilité
    • Collecter et afficher les métriques d'observabilité
      • Collecter et afficher les métriques du plan de contrôle
      • Collecter et afficher les métriques Kube State Metrics
      • Collecter et afficher les métriques cAdvisor/Kubelet
      • Collecter et afficher les métriques DCGM
      • Utiliser les métriques de performances des applications
    • Surveiller les métriques de latence de démarrage
    • Comprendre les profils d'utilisation des clusters avec la mesure de l'utilisation de GKE
    • Observabilité des applications avec Prometheus sur GKE
    • Configurer Elastic Stack sur GKE
  • Afficher et traiter les journaux
    • À propos des journaux GKE
    • Afficher les journaux GKE
    • Contrôler l'ingestion de journaux
    • Ajuster le débit des journaux
    • Configurer la journalisation mutualisée
  • Dépannage
  • Aperçu
  • Présentation du dépannage
  • Configurer le cluster
    • Création du cluster
    • Clusters Autopilot
    • Outil de ligne de commande Kubectl
    • Pools de nœuds standards
    • Enregistrement des nœuds
    • Environnement d'exécution du conteneur
  • Autoscaling
    • L'autoscaler de cluster n'effectue pas de scaling à la baisse
    • L'autoscaler de cluster n'effectue pas de scaling à la hausse
  • Storage
  • Sécurité du cluster