Zum Hauptinhalt springen
Google Cloud
Dokumentation Technologiebereiche
  • AI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Computing
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring
  • Sicherheit
  • Storage
Produktübergreifende Tools
  • Zugriffs- und Ressourcenverwaltung
  • Kosten- und Nutzungsmanagement
  • Cloud SDK, Sprachen, Frameworks und Tools
  • Infrastruktur als Code
  • Migration
Verwandte Websites
  • Google Cloud-Startseite
  • Kostenlose Testversion und kostenlose Stufe
  • Architekturzentrum
  • Blog
  • Vertrieb kontaktieren
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Google Cloud Marketplace-Dokumentation
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud-Support
  • Google Cloud Tech-YouTube-Kanal
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Anmelden
  • Google Kubernetes Engine (GKE)
Übersicht Leitfäden Referenzen Beispiele Ressourcen
Kontakt Jetzt kostenlos testen
Google Cloud
  • Dokumentation
    • Übersicht
    • Leitfäden
    • Referenzen
    • Beispiele
    • Ressourcen
  • Technologiebereiche
    • Mehr
  • Produktübergreifende Tools
    • Mehr
  • Verwandte Websites
    • Mehr
  • Console
  • Kontakt
  • Jetzt kostenlos testen
  • Erste Schritte
  • Einführung in GKE
  • GKE-Dokumentation ansehen
  • GKE oder Cloud Run verwenden?
  • Jetzt ausprobieren
    • Cluster in der Console erstellen
    • Cluster mit Terraform erstellen
    • Cluster untersuchen
  • GKE-Dienste mithilfe von Gemini optimieren
  • Grundlagen kennenlernen
  • Erste Schritte mit GKE
  • Kubernetes-Grundlagen kennenlernen
    • Erste Schritte mit Kubernetes
    • Einführung in Container
    • Kubernetes-Comic
    • Kubernetes.io
    • Video-Playlist: Kubernetes mit Google kennenlernen
  • GKE-Grundlagen
    • GKE-Betriebsmodi
    • GKE-Editionen
    • Video-Playlist: GKE-Grundlagen
  • Los gehts
  • Cluster-Lebenszyklus
  • Übersicht der Clusterverwaltung
  • Clusterkonfiguration
  • Arbeitslasten bereitstellen
  • GKE-Clusterarchitektur
  • Workflows und Tools
    • gcloud-Befehlszeile – Übersicht
    • GKE in der Google Cloud Console
    • GKE-Ressourcen mit Terraform bereitstellen
    • kubectl installieren und Clusterzugriff konfigurieren
    • Bereitstellung mithilfe der IDE vereinfachen
  • Lernpfad: Anwendung containerisieren
    • Übersicht
    • Monolithische Anwendungen
    • Monolithen modularisieren
    • Containerisierung vorbereiten
    • Modulare App containerisieren
    • Anwendung in einem Cluster bereitstellen
  • Lernpfad: Skalierbare Apps
    • Übersicht
    • Cluster erstellen
    • Mit Prometheus überwachen
    • Arbeitslasten skalieren
    • Fehler simulieren
    • Überlegungen zur Produktion
  • Entwerfen und planen
  • Codebeispiele
  • Schnellstart-Lösungen
    • Dynamische Webanwendung mit Java
    • E-Commerce-Webanwendung
  • Architekturen und Best Practices
    • Anwendungen mit Cloud Code, Cloud Build und Google Cloud Deploy entwickeln und bereitstellen
    • Continuous-Delivery-Herausforderungen bewältigen
  • GKE-Cluster einrichten
  • Cluster zum Ausführen von Arbeitslasten planen
    • Features in GKE Autopilot und Standard vergleichen
    • Regionale Cluster
    • Feature Gates
    • Alpha-Cluster
  • Autopilot-Cluster einrichten
    • GKE Autopilot
    • Autopilot-Cluster erstellen
    • Laufzeit von Autopilot-Pods verlängern
  • Standardcluster einrichten
    • Zonalen Cluster erstellen
    • Regionalen Cluster erstellen
    • Alpha-Cluster erstellen
    • Cluster mit Windows-Knotenpools erstellen
  • Verwendung von Clustern vorbereiten
    • Labels zum Organisieren von Clustern verwenden
    • GKE-Ressourcen mit Tags verwalten
  • Knotenpools konfigurieren
    • Knotenpools
    • Knotenpools hinzufügen und verwalten
    • Knoten-Images
    • Containerd-Images
    • Knotenimage angeben
    • Über Arm-Arbeitslasten in GKE
    • Standardcluster und ‑knotenpools mit Arm-Knoten erstellen
    • GKE-Standardknotengrößen planen
    • Informationen zu Spot-VMs
    • Knoten für einzelne Mandanten verwenden
    • Windows Server-Container
    • Knoten automatisch reparieren
    • GKE-Knoten automatisch mit DaemonSets starten
  • Cluster für Mehrmandantenfähigkeit einrichten
    • Mehrmandantenfähigkeit von Clustern
    • Mehrmandantenfähige Umgebung planen
    • GKE-Cluster für Mandanten von Drittanbietern vorbereiten
    • Mehrmandantenfähiges Logging einrichten
  • Flotten verwenden, um die Multi-Cluster-Verwaltung zu vereinfachen
    • Flotten
    • Flotten erstellen
  • Service Mesh einrichten
    • Cloud Service Mesh in einem Autopilot-Cluster bereitstellen
  • Skalierbarkeit für Cluster verbessern
    • Skalierbarkeit von GKE
    • Skalierbarkeit planen
    • Für große GKE-Cluster planen
    • Große Arbeitslasten planen
    • Zusätzliche Rechenkapazität für eine schnelle Pod-Skalierung bereitstellen
    • Reservierte zonale Ressourcen nutzen
  • Kosten senken und optimieren
  • Kostenoptimierung planen
  • GKE-Kosten ansehen
    • Aufschlüsselung der Clusterkosten ansehen
    • Kostenbezogene Optimierungsmesswerte ansehen
  • GKE-Kosten optimieren
    • Größe von GKE-Arbeitslasten in großem Maßstab anpassen
    • Kostensenkung durch Herunterskalieren von GKE-Clustern außerhalb der Spitzenzeiten
    • Unter- und überprovisionierte GKE-Cluster identifizieren
    • Inaktive GKE-Cluster identifizieren
  • Autoscaling für Infrastruktur konfigurieren
    • Cluster-Autoscaling
    • Cluster-Autoscaling konfigurieren
    • Automatische Knotenbereitstellung
    • Automatische Knotenbereitstellung konfigurieren
    • Cluster-Autoscaling-Ereignisse ansehen
  • Autoscaling für Arbeitslasten konfigurieren
    • Bereitgestellte Anwendungen skalieren
    • Autoscaling von Arbeitslasten anhand von Messwerten
    • Pod-Autoscaling anhand von Messwerten optimieren
    • Horizontales Pod-Autoscaling
    • Bereitstellungen mit horizontalem Pod-Autoscaling automatisch skalieren
    • Autoscaling für LLM-Arbeitslasten auf GPUs konfigurieren
    • Autoscaling für LLM-Arbeitslasten auf TPUs konfigurieren
    • Horizontale Pod-Autoscaling-Ereignisse ansehen
    • Vertikales Pod-Autoscaling
    • Mehrdimensionales Pod-Autoscaling konfigurieren
    • Skalierung von Containerressourcenanfragen und -limits
    • Skalierung auf null mit KEDA
  • Speicher bereitstellen
  • Speicher für GKE-Cluster
  • Kubernetes-Funktionen, ‑Primitive und ‑Abstraktionen für den Speicher verwenden
    • Nichtflüchtige Volumes und dynamische Bereitstellung verwenden
    • StatefulSets verwenden
    • Volume-Snapshots
    • Volume-Erweiterung verwenden
    • Daten mit dem GKE Volume Populator aus Cloud Storage übertragen
  • Blockspeicher
    • Nichtflüchtige Speicher bereitstellen und verwenden
      • CSI-Treiber für nichtflüchtigen Speicher der Compute Engine verwenden
      • Beschränkungen für das Anhängen nichtflüchtiger Volumes
      • Vorhandenen nichtflüchtigen Speicher verwenden
      • CSI-Treiber manuell installieren
      • Nichtflüchtige Speicher mit mehreren Lesezugriffen verwenden (ReadOnlyMany)
      • Nichtflüchtige SSD-Speicher
      • Regionale nichtflüchtige Speicher
      • Verfügbarkeit zustandsorientierter Anwendungen mit zustandsorientiertem HA-Operator erhöhen
    • Hyperdisk bereitstellen und verwenden
      • Informationen zu Hyperdisk
      • Speicherleistung mit Hyperdisk skalieren
      • Speicherleistung und -kosten mit Hyperdisk Storage Pools optimieren
      • KI/ML-Datenladevorgänge mit Hyperdisk ML beschleunigen
    • GKE Data Cache bereitstellen und verwenden
      • Leseleistung zustandsorientierter Arbeitslasten mit GKE Data Cache beschleunigen
    • Nichtflüchtigen Speicher verwalten
      • Bootlaufwerk für Knotendateisysteme konfigurieren
      • Nichtflüchtige Speicher klonen
      • Persistent Disk-Speicher mit Volume-Snapshots sichern und wiederherstellen
    • Laufwerksleistung optimieren
      • Laufwerkleistung optimieren
      • Laufwerkleistung überwachen
  • Lokale SSDs und sitzungsspezifischer Speicher
    • Lokaler SSD-Speicher für GKE
    • Sitzungsspezifischen lokalen SSD-gestützten Speicher bereitstellen
    • Lokalen SSD-gestützten Rohblockspeicher bereitstellen
    • Deployment mit einem EmptyDir-Volume erstellen
    • Dedizierte nichtflüchtige Speicher als sitzungsspezifische Volumes verwenden
  • Dateispeicher
    • Filestore bereitstellen und verwenden
      • Filestore-Unterstützung für GKE
      • Auf Filestore-Instanzen zugreifen
      • Zustandsorientierte Arbeitslast mit Filestore bereitstellen
      • Filestore-Mehrfachfreigaben für GKE
      • Mehrfachfreigaben für GKE optimieren
      • Filestore-Speicher mit Volume-Snapshots sichern und wiederherstellen
    • Parallelstore-Volumes bereitstellen und verwenden
      • Parallelstore für GKE
      • Volume mit Parallelstore erstellen und verwenden
      • Auf vorhandene Parallelstore-Instanzen zugreifen
    • Lustre-Volumes bereitstellen und verwenden
      • Lustre für GKE
      • Lustre-basiertes Volume erstellen und verwenden
      • Auf vorhandene Lustre-Instanzen zugreifen
  • Objektspeicher
    • Schnellstart: CSI-Treiber für Cloud Storage FUSE für GKE
    • Cloud Storage FUSE CSI-Treiber für GKE
    • CSI-Treiber für Cloud Storage FUSE einrichten
    • Cloud Storage-Buckets als sitzungsspezifische Volumes bereitstellen
    • Cloud Storage-Buckets als persistente Volumes bereitstellen
    • Sidecar-Container für den CSI-Treiber für Cloud Storage FUSE konfigurieren
    • Leistung des CSI-Treibers für Cloud Storage FUSE optimieren
  • Clustersicherheit konfigurieren
  • GKE-Sicherheit entdecken
    • Informationen zur Sicherheit in GKE
    • Sicherheit der Steuerungsebene
    • FIPS-geprüfte Verschlüsselung in GKE
    • Sicherheitsmaßnahmen in GKE Autopilot
    • Vertrauenswürdigkeit in Clustern
  • Clustersicherheit planen
    • Cluster härten
    • Sicherheitspatches
    • Audit-Logging für Kubernetes
    • Audit-Logging für die Kubernetes Engine
    • Audit-Logging für die Container Security API
    • Audit-Richtlinien
    • Gemeinsame Sicherheitsaufgaben
    • Sicherheitsvorfälle abmildern
    • vTPM in Confidential GKE-Arbeitslasten
  • Authentifizieren und autorisieren
    • Bei der GKE API authentifizieren
    • Über GKE bei Google Cloud APIs authentifizieren
    • RBAC und IAM
    • Best Practices für RBAC
    • Dienstkonten in GKE
    • Beim Kubernetes API-Server authentifizieren
    • Externe Identitätsanbieter zur Authentifizierung bei GKE-Clustern verwenden
    • Aktionen in Clustern mit GKE RBAC autorisieren
    • Berechtigungen für Gruppen über Google-Gruppen mit RBAC verwalten
    • Zugriff auf Google Cloud-Ressourcen mit IAM-Richtlinien autorisieren
    • Knoten-SSH-Zugriff ohne SSH-Schlüssel verwalten
    • Nach Namespace Zugriff aktivieren und Clusterressourcen aufrufen
    • Aktionen für GKE-Ressourcen mithilfe benutzerdefinierter Organisationsrichtlinien einschränken
    • seccomp in GKE
    • Zugriffsbereiche in GKE
    • Auf private Registrys mit privaten CA-Zertifikaten zugreifen
  • Cluster und Arbeitslasten isolieren
    • GKE Sandbox
    • Arbeitslasten mit GKE Sandbox isolieren
    • Arbeitslasten in dedizierten Knotenpools isolieren
    • Firewallregeln und -richtlinien erzwingen
      • Firewallrichtlinien in GKE selektiv erzwingen
      • Netzwerktags verwenden, um Firewallregeln auf Knoten anzuwenden
  • Arbeitslasten und Knoten härten
    • Vordefinierte Sicherheitsrichtlinien auf Pod-Ebene mit PodSecurity anwenden
    • Benutzerdefinierte Sicherheitsrichtlinien auf Pod-Ebene mit Gatekeeper anwenden
    • Über Workload Identity-Föderation für GKE
    • Über GKE bei Google Cloud APIs authentifizieren
    • Auf Secrets außerhalb von GKE-Clustern mit Clientbibliotheken zugreifen
    • Unsicheren schreibgeschützten Port für kubelet deaktivieren
    • VM-Agents auf jedem GKE-Knoten ausführen
  • Vertrauliche Daten verschlüsseln
    • Aktive Daten mit GKE Confidential Nodes verschlüsseln
    • Daten während der Übertragung in GKE mit nutzerverwalteten Verschlüsselungsschlüsseln verschlüsseln
    • Secrets auf Anwendungsebene verschlüsseln
  • Sicherheit der Steuerungsebene verwalten
    • Sicherheit der Steuerungsebene
    • Integrität der VM der GKE-Steuerungsebene prüfen
    • Vertrauenswürdigkeit in Clustern
    • Informationen zur Control Plane Authority
    • Eigene Zertifizierungsstellen und Schlüssel in GKE ausführen
    • etcd- und Steuerungsebenen-Bootlaufwerke verschlüsseln
    • Verbindungen von Google-Mitarbeitern in der GKE-Steuerungsebene prüfen
    • Ausstellung und Verwendung von Identitäten prüfen
  • Anmeldedaten verwalten
    • Anmeldedaten des Clusters rotieren
    • IP-Adressen der Steuerungsebene rotieren
  • Clustersicherheit überwachen
    • Informationen zum Sicherheitsstatus-Dashboard
    • Informationen zum Scannen des Kubernetes-Sicherheitsstatus
    • Arbeitslasten auf Konfigurationsprobleme scannen
    • Informationen zum Scannen auf Sicherheitslücken
    • Container auf bekannte Sicherheitslücken scannen
    • Features für den GKE-Sicherheitsstatus für Flotten konfigurieren
    • Linux-Audit-Logging in Standardclustern aktivieren
  • Arbeitslasten bereitstellen und verwalten
  • Arbeitslastbereitstellungen planen
    • Ressourcenanfragen für Autopilot-Arbeitslasten planen
  • Arbeitslasten migrieren
    • Standardcluster für die Migration zu Autopilot identifizieren
    • Migration von Standardclustern zu Autopilot-Clustern vorbereiten
  • Arbeitslasten mit speziellen Rechenanforderungen bereitstellen
    • Benutzerdefinierte Compute-Klassen in GKE
    • Automatisch skalierte Knotenattribute mit benutzerdefinierten Compute-Klassen steuern
    • Vordefinierte Compute-Klassen in Autopilot-Clustern
    • Vordefinierte Compute-Klassen für Autopilot-Pods auswählen
    • Mindest-CPU-Plattformen für rechenintensive Arbeitslasten
    • Pod-Bursting in GKE konfigurieren
    • CPU-Leistung mit der PMU analysieren
  • Arbeitslasten mit besonderen Sicherheitsanforderungen bereitstellen
    • GKE Autopilot-Partner
    • Berechtigte Arbeitslasten von GKE Autopilot-Partnern ausführen
    • Berechtigte Open-Source-Arbeitslasten in GKE Autopilot ausführen
  • Arbeitslasten bereitstellen, für die spezielle Geräte erforderlich sind
    • Dynamische Ressourcenzuweisung in GKE
    • GKE-Infrastruktur für die datenressourcenbasierte Zugriffsverwaltung vorbereiten
    • DRA-Arbeitslasten bereitstellen
  • Arbeitslasten verwalten
    • Arbeitslasttrennung in GKE konfigurieren
    • GKE-Pods in bestimmten Zonen platzieren
    • Zonenausfall simulieren
    • Arbeitslasteffizienz mit NCCL Fast Socket verbessern
    • Container-Image-Digests
    • Container-Image-Digests in Kubernetes-Manifesten verwenden
    • Geschwindigkeit der Arbeitslastinitialisierung verbessern
      • Streaming-Container-Images verwenden
      • Sekundäre Bootlaufwerke zum Vorabladen von Daten oder Container-Images verwenden
  • Continuous Integration und Continuous Delivery
    • Continuous Integration und Continuous Delivery planen
    • CI/CD-Pipeline mit Azure Pipelines erstellen
    • Continuous Delivery gemäß GitOps mit Cloud Build
    • Moderne CI/CD mit GKE
      • Ein Framework für die Softwarebereitstellung
      • CI/CD-System erstellen
      • Entwickler-Workflow anwenden
  • Datenbanken, Caches und Datenstreaming-Arbeitslasten bereitstellen
  • Daten in GKE
  • Datenbankbereitstellungen in der GKE planen
  • Verwaltete Datenbanken
    • Anwendung mit GKE Autopilot und Cloud Spanner bereitstellen
    • Wordpress auf GKE mit Persistent Disk und Cloud SQL bereitstellen
    • Daten in GKE mit BigQuery, Cloud Run und Gemma analysieren
  • Kafka
    • Apache Kafka mit Strimzi in GKE bereitstellen
    • Apache Kafka mit Confluent in GKE bereitstellen
    • Hochverfügbaren Kafka-Cluster in GKE bereitstellen
  • Redis
    • Mehrstufige Webanwendung mit Redis und PHP erstellen
    • Redis-Cluster in GKE bereitstellen
    • Redis mit Spotahome auf GKE bereitstellen
    • Redis mit Redis Enterprise in GKE bereitstellen
  • MySQL
    • Stateful MySQL-Cluster bereitstellen
  • PostgreSQL
    • Stellen Sie hochverfügbare PostgreSQL-Datenbank bereit.
    • PostgreSQL mit Zalando in GKE bereitstellen
    • PostgreSQL mit CloudNativePG in GKE bereitstellen
  • SQL Server
    • Einzelne SQL Server 2017-Instanz in GKE bereitstellen
  • Memcached
    • Memcached in GKE bereitstellen
  • Vektordatenbanken
    • RAG-Chatbot mit GKE und Cloud Storage erstellen
    • Qdrant-Datenbank in GKE bereitstellen
    • Elasticsearch-Datenbank in GKE bereitstellen
    • PostgreSQL-Vektordatenbank in GKE bereitstellen
    • Weaviate-Vektordatenbank in GKE bereitstellen
  • KI/ML-Arbeitslasten bereitstellen
  • KI-/ML-Orchestrierung in GKE
  • ML- und KI-Arbeitslasten ausführen
    • GPUs
      • GPUs in GKE
      • GPU-Arbeitslasten in GKE Autopilot bereitstellen
      • GPU-Arbeitslasten in GKE Standard bereitstellen
      • Aktive GPU-Arbeitslastdaten verschlüsseln
      • GPU-Stack mit dem NVIDIA GPU-Operator verwalten
      • GPU-Freigabe
        • GPU-Freigabestrategien in GKE
        • GPU mit mehreren Instanzen verwenden
        • GPU-Zeitfreigabe verwenden
        • NVIDIA MPS verwenden
      • Best Practices für das Autoscaling von LLM-Inferenz-Arbeitslasten auf GPUs
      • Best Practices für die Optimierung der LLM-Inferenzleistung auf GPUs
    • TPUs in GKE
      • TPUs in GKE
      • TPUs in GKE planen
      • TPUs anfordern
        • TPUs mit zukünftigen Reservierungen im Kalendermodus anfordern
        • Kleine Batch-Arbeitslast mit dem Bereitstellungsmodell „Flex-Start“ für TPUs ausführen
      • TPU-Arbeitslasten in GKE Autopilot bereitstellen
      • TPU-Arbeitslasten in GKE Standard bereitstellen
      • TPU-Multiplikationen in GKE bereitstellen
      • TPU-Multislice-Arbeitslasten mit JobSet und Kueue orchestrieren
      • Best Practices für das Autoscaling von LLM-Inferenz-Arbeitslasten auf TPUs
    • GKE-Knotenunterbrechungen für GPUs und TPUs verwalten
    • CPU-basierte Arbeitslasten
      • Leistung von Autopilot-Pods durch Auswahl einer Maschinenreihe optimieren
    • GPU- und TPU-Bereitstellung optimieren
      • GPU- und TPU-Bereitstellung mit Flex-Start
      • Eine große Arbeitslast mit Flex-Start und Bereitstellung in der Warteschlange ausführen
      • Kleine Batcharbeitslast mit dem Bereitstellungsmodus „Flex-Start“ ausführen
  • Training
    • Modell mit GPUs im GKE Standard-Modus trainieren
    • Modell mit GPUs im GKE Autopilot-Modus trainieren
    • Llama2 mit Megatron-LM auf A3 Mega-VMs trainieren
    • Umfangreiche ML-Modelle mit mehrstufigem Checkpointing trainieren
  • Inferenz
    • KI-/ML-Modellinferenz in der GKE
    • Best Practices für die Inferenz mit Rezepten für den Schnellstart für die Inferenz ausführen
    • Beispiele für Inferenzen auf GPUs ausprobieren
      • Modell mit einer einzelnen GPU bereitstellen
      • LLM mit mehreren GPUs bereitstellen
      • LLMs wie Deepseek-R1 671B oder Llama 3.1 405B bereitstellen
      • LLM auf L4-GPUs mit Ray bereitstellen
      • Skalierbare LLMs mit TorchServe bereitstellen
      • Gemma mit GPUs mit Hugging Face TGI bereitstellen
      • Gemma mit GPUs mit vLLM bereitstellen
      • Llama-Modelle mit GPUs in GKE mit vLLM bereitstellen
      • Gemma mit GPUs mit TensorRT-LLM bereitstellen
      • LLM mit dem GKE-Inferenz-Gateway bereitstellen
      • Offene Gemma-Modelle mit mehreren GPUs optimieren
      • LLMs mit einer kostenoptimierten und hochverfügbaren GPU-Bereitstellungsstrategie bereitstellen
    • Beispiele für die Inferenz auf TPUs ausprobieren
      • Open-Source-Modelle mit TPUs mit Optimum TPU bereitstellen
      • Gemma mit TPUs und JetStream bereitstellen
      • LLM mit JetStream und PyTorch auf TPUs bereitstellen
      • LLM auf Multi-Host-TPUs mit JetStream und Pathways bereitstellen
      • LLM mit vLLM auf TPUs bereitstellen
      • LLM mit TPUs mit KubeRay bereitstellen
      • SDXL mit TPUs in GKE mit MaxDiffusion bereitstellen
      • Mehrhost-Inferenz mithilfe von Pathways ausführen
  • Batch
    • Best Practices zum Ausführen von Batch-Arbeitslasten in GKE
    • Batchsystem mit Kueue bereitstellen
    • GPUs mit Dynamic Workload Scheduler erhalten
      • GPU-Verfügbarkeit mit „flex-start“
      • Eine große Arbeitslast mit Flex-Start und Bereitstellung in der Warteschlange ausführen
      • Kleine Batcharbeitslast mit dem Bereitstellungsmodus „Flex-Start“ ausführen
    • Jobwarteschlangensystem mit Kontingentfreigabe zwischen Namespaces implementieren
    • Ressourcennutzung für gemischte Trainings- und Inferenzarbeitslasten mit Kueue optimieren
  • Ray in GKE verwenden
  • Arbeitslasten nach Anwendungstyp bereitstellen
  • Webserver und Anwendungen
    • Websites bereitstellen
    • Zustandsorientierte Anwendung bereitstellen
    • Arbeitslasten auf Störungen vorbereiten
    • Zustandslose Anwendungen bereitstellen
    • Direkte Verbindungen zu Autopilot-Pods mit hostPort zulassen
    • Django ausführen
    • Anwendung vom Cloud Marketplace bereitstellen
    • Full-Stack-Arbeitslasten in großem Maßstab in GKE ausführen
    • Container-Webserveranwendung bereitstellen
  • Gaming
    • Support bei Agones-Problemen
    • Agones-Controller in Ihrem GKE-Cluster isolieren
  • Arm-Arbeitslasten bereitstellen
    • Arm-Arbeitslast für die Bereitstellung in Standardclustern vorbereiten
    • Images mit mehreren Architekturen für Arm-Arbeitslasten erstellen
    • Autopilot-Arbeitslasten in der Arm-Architektur bereitstellen
    • Anwendung „x86“ in GKE für mehrere Architekturen mit Arm migrieren
  • Microsoft Windows
    • Windows Server-Anwendung bereitstellen
    • Windows Server-Images für mehrere Architekturen erstellen
    • ASP.NET-Anwendungen mit Windows-Authentifizierung in GKE-Windows-Containern bereitstellen
  • Fehlertolerante Arbeitslasten kostengünstiger ausführen
    • Spot-Pods in Autopilot-Clustern verwenden
    • Spot-VMs zum Ausführen von Arbeitslasten in GKE Standard-Clustern verwenden
    • VMs auf Abruf zum Ausführen von Arbeitslasten verwenden
  • Cluster verwalten und optimieren
  • Änderungen am Clusterlebenszyklus verwalten, um Unterbrechungen zu minimieren
  • Nutzung von GKE mit Informationen und Empfehlungen optimieren
  • GKE-Cluster verwalten
  • Upgrade auf GKE Enterprise
  • Cluster und Arbeitslast für das Staging konfigurieren
  • Cluster und Knotenpools aktualisieren
    • GKE-Clusterupgrades
    • Clusterupgrades planen
    • Release-Versionen
    • Releasekanäle verwenden
    • Autopilot-Clusterupgrades
    • Standardupgrades von Clustern
    • Knoten automatisch upgraden
    • Cluster oder Knotenpool manuell upgraden
    • Strategien für Knotenupgrades
    • Strategien für Knotenupgrades konfigurieren
    • Wartungsfenster und Ausschlüsse
    • Wartungsfenster und -ausschlüsse konfigurieren
    • Clusterupgrades mit Roll-out-Sequenzierung
    • Roll-out von Clusterupgrades sequenzieren
  • Benachrichtigungen für Clusterereignisse erhalten
    • Clusterbenachrichtigungen
    • Clusterbenachrichtigungen über Pub/Sub erhalten
    • Cluster für den Empfang von E-Mail-Benachrichtigungen konfigurieren
    • Clusterbenachrichtigungen für Drittanbieterdienste konfigurieren
    • Informationen zu Clusterupgrades erhalten
  • Knoten verwalten
    • Ressourcen für Knotenupgrades bereitstellen
    • Größe von Clustern durch Hinzufügen oder Entfernen von Knoten anpassen
    • Kompakte Platzierung für Knoten definieren
    • Knoten zu einem anderen Maschinentyp migrieren
    • Von Docker zu containerd-Knoten-Images migrieren
    • Knoten zu Linux cgroupv2 migrieren
    • containerd-Konfiguration anpassen
    • Knotensystemkonfiguration anpassen
    • Windows Server-Knoten für den Beitritt zu einer Domain konfigurieren
    • Gleichzeitiges Multi-Threading (SMT) für Hochleistungs-Computing
  • Cluster löschen
  • Kubernetes Beta APIs mit GKE-Clustern verwenden
  • Bei Verwendung von Webhooks für die Stabilität der Steuerungsebene sorgen
  • Sicherung für GKE verwenden
  • Fehlerbehebung bei Secrets auf Anwendungsebene
  • Probleme mit CRDs mit ungültigem CA-Bundle beheben
  • Überwachen
  • Beobachtbarkeit für GKE
  • Google Cloud Managed Service for Prometheus einrichten
  • Cluster und Arbeitslasten überwachen
    • Messwerterfassung konfigurieren
    • Automatisches Anwendungsmonitoring für Arbeitslasten konfigurieren
    • Beobachtbarkeitsmesswerte ansehen
    • Messwerte zur Beobachtbarkeit erfassen und aufrufen
      • Messwerte der Steuerungsebene erfassen und aufrufen
      • Kube State Metrics erfassen und ansehen
      • cAdvisor-/Kubelet-Messwerte erfassen und ansehen
      • DCGM-Messwerte erfassen und aufrufen
      • Messwerte zur Anwendungsleistung verwenden
    • Messwerte zur Startlatenz überwachen
    • Clusternutzungsprofile mit der GKE-Nutzungsmessung
    • Beobachtbarkeit von Anwendungen mit Prometheus in GKE
    • Elastic Stack in GKE einrichten
  • Logs aufrufen und verarbeiten
    • GKE-Logs
    • GKE-Logs aufrufen
    • Logaufnahme steuern
    • Logdurchsatz anpassen
    • Mehrmandantenfähiges Logging einrichten
  • Fehlerbehebung
  • Übersicht
  • Einführung in die Fehlerbehebung
  • Clustereinrichtung
    • Clustererstellung
    • Autopilot-Cluster
    • Kubectl-Befehlszeilentool
    • Standardknotenpools
    • Knotenregistrierung
    • Containerlaufzeit
  • Autoscaling
    • Cluster Autoscaler skaliert nicht herunter
    • Cluster Autoscaler skaliert nicht hoch
  • Storage
  • Clustersicherheit
    • Authentication
    • Dienstkonten
    • Verschlüsselung von Secrets auf Anwendungsebene
  • Netzwerk
  • Arbeitslasten
    • Bereitstgestellte Arbeitslasten
    • Bildabrufe
    • OOM-Ereignisse
    • Arm-Arbeitslasten
    • TPUs
    • GPUs
    • Arbeitslasten mit erhöhten Berechtigungen in Autopilot
  • Clusterverwaltung
    • Upgrades
    • Webhooks
    • Namespace bleibt im Abbruchstatus hängen
    • Skalierbarkeit
  • Monitoring
    • Systemmesswerte
    • Monitoring-Dashboards
    • Logging
  • 4xx-Fehler
  • Bekannte Probleme
  • Einstellung von Produkten und Funktionen
  • Einstellung von Funktionen und APIs
  • Statistiken und Empfehlungen zur Einstellung ansehen
  • Nicht mehr unterstützte Funktionen zur Statusverwaltung
  • Von Container Registry auf Artifact Registry in GKE umstellen
  • Knoten zu containerd 2 migrieren
  • Scannen auf Sicherheitslücken in Arbeitslasten in der GKE Standard Edition wird eingestellt
  • Verworfenes Authentifizierungs-Plug-in für Kubernetes-Clients
  • Einstellung von PodSecurityPolicy
  • Einstellung des Docker-Knoten-Images
  • Kompatibilität von TLS-Zertifikaten vor einem Upgrade auf GKE 1.29 gewährleisten
  • Kompatibilität mit Webhook-Zertifikaten vor einem Upgrade auf Version 1.23 gewährleisten
  • Gemma mit Saxml auf TPUs bereitstellen
  • LLM mithilfe von mehreren Hosts in GKE mit Saxml bereitstellen
  • Einstellung von Kubernetes API
    • Verworfene Kubernetes 1.32 APIs
    • Verworfene Kubernetes 1.29 APIs
    • Verworfene Kubernetes 1.27 APIs
    • Verworfene Kubernetes 1.26 APIs
    • Verworfene Kubernetes 1.25 APIs
    • Kubernetes Ingress Beta APIs aus GKE 1.23 entfernt
    • Verworfene Kubernetes 1.22 APIs
  • Archivieren
  • Private GKE-Cluster mit Netzwerk-Proxys für Controller-Zugriff erstellen
  • Container-Webanwendung bereitstellen
  • Einstellung der Wartungsarbeiten für Windows Server Semi-Annual Channel
  • Remotezugriff auf einen privaten Cluster über einen Bastion Host
  • Automatische Deployments einrichten
  • Arbeitslasten zu GKE migrieren
  • Rolling Updates ausführen
  • AI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Computing
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring