Zum Hauptinhalt springen
Dokumentation
Technologiebereiche
close
KI und ML
Anwendungsentwicklung
Anwendungshosting
Compute
Datenanalyse und Pipelines
Datenbanken
Verteilt, Hybrid und Multi-Cloud
Generative KI
Branchenlösungen
Netzwerk
Beobachtbarkeit und Monitoring
Sicherheit
Storage
Produktübergreifende Tools
close
Zugriffs- und Ressourcenverwaltung
Kosten- und Nutzungsverwaltung
Cloud SDK, Sprachen, Frameworks und Tools
Infrastruktur als Code
Migration
Verwandte Websites
close
Google Cloud-Startseite
Kostenlose Testversion und kostenlose Stufe
Architekturzentrum
Blog
Vertrieb kontaktieren
Google Cloud Developer Center
Google Developer Center
Google Cloud Marketplace
Google Cloud Marketplace-Dokumentation
Google Cloud Skills Boost
Google Cloud Solution Center
Google Cloud-Support
Google Cloud Tech-YouTube-Kanal
/
English
Deutsch
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Anmelden
Cloud Run
Leitfäden
Referenzen
Beispiele
Ressourcen
Kontakt
Jetzt kostenlos testen
Dokumentation
Leitfäden
Referenzen
Beispiele
Ressourcen
Technologiebereiche
Mehr
Produktübergreifende Tools
Mehr
Verwandte Websites
Mehr
Console
Kontakt
Jetzt kostenlos testen
Erste Schritte
Produktübersicht
Cloud Run-Ressourcenmodell
Containerlaufzeitvertrag
Ist meine Anwendung für einen Cloud Run-Dienst geeignet?
Wann sollte ich eine Funktion bereitstellen?
Los gehts
Übersicht
Beispielwebdienst bereitstellen
Beispielcontainer bereitstellen
Vorlagen-Repository erstellen und aus einem Git-Repository bereitstellen
„Hello World“-Dienst aus Quellcode bereitstellen
Go
Node.js
Python
Flask
FastAPI
Gradio
Streamlit
Java
Kotlin
C#
C++
PHP
Ruby
Sonstiges
Frameworks
Übersicht
SSR (Angular)
Next.js
Nuxt.js
SvelteKit
Beispielcontainer für Worker-Pool bereitstellen
Beispieljob ausführen
Job ausführen
Job aus Quellcode ausführen
Go
Node.js
Python
Java
Shell
Beispielfunktion bereitstellen
Funktion mit der Console bereitstellen
Funktion mit gcloud bereitstellen
Entwickeln
Umgebung einrichten
Dienstleistung planen und vorbereiten
Dienst entwickeln
Code containerisieren
Mit Google Cloud-Diensten verbinden
Systempaket im Container installieren
gcloud-Befehle im Container ausführen
KI-Agents
KI-Agenten hosten
A2A-Agents hosten
Host-A2A-Agents – Übersicht
A2A-Agent bereitstellen
A2A-Agent-Bereitstellung testen und überwachen
MCP-Server
MCP-Server hosten
Remote-MCP-Server erstellen und bereitstellen
Funktion planen und vorbereiten
Übersicht
Cloud Run-Funktionen vergleichen
Funktionen schreiben
Übersicht
HTTP-Funktionen
Ereignisgesteuerte Funktionen
Laufzeiten
Übersicht
Node.js
Übersicht
Node.js-Abhängigkeiten
Python
Übersicht
Python-Abhängigkeiten
Go
Übersicht
Go-Abhängigkeiten
Java
Übersicht
Java-Abhängigkeiten
.NET
Ruby
PHP
Entwicklung lokaler Funktionen
Funktionstrigger
Anleitungen
Funktion erstellen, die BigQuery-Ergebnisse zurückgibt
Funktion erstellen, die Spanner-Ergebnisse zurückgibt
In Cloud-Datenbanken einbinden
Codelabs
Entwickeln und testen
Quellen in Containern erstellen
Funktionen in Containern erstellen
Lokales Testen
HTTP-Anfragen verarbeiten
Dienste bereitstellen
Container-Images bereitstellen
Kontinuierliche Bereitstellung aus Git
Über Quellcode bereitstellen
Funktionen bereitstellen
Webtraffic bereitstellen
Benutzerdefinierte Domains zuordnen
Statische Assets mit CDN bereitstellen
Traffic aus mehreren Regionen bereitstellen
Sitzungsaffinität aktivieren
Front-End-Proxys mit Nginx
Dienste verwalten
Dienste aufrufen, kopieren oder löschen
Überarbeitungen aufrufen oder löschen
Trafficmigration, graduelle Einführungen, Rollbacks
Dienste konfigurieren
Übersicht
Kapazität
Beschränkungen des Arbeitsspeichers
CPU-Beschränkungen
GPU
GPU-Konfiguration
Best Practices für die GPU-Leistung
LLM-Inferenzen auf Cloud Run-GPUs mit Ollama ausführen
Gemma 3-Modelle in Cloud Run ausführen
LLM-Inferenzen auf Cloud Run-GPUs mit vLLM ausführen
OpenCV mit GPU-Beschleunigung in Cloud Run ausführen
LLM-Inferenzen auf Cloud Run-GPUs mit Hugging Face Transformers.js ausführen
LLM-Inferenzen auf Cloud Run-GPUs mit Hugging Face TGI ausführen
Zeitüberschreitung bei Anfrage
Maximale Anzahl gleichzeitiger Anfragen
Maximale Anzahl gleichzeitiger Anfragen pro Instanz
Maximale Anzahl gleichzeitiger Anfragen konfigurieren
Abrechnung
Dienstkonfigurationen mit Recommender optimieren
Umgebung
Containerport und -Einstiegspunkt
Umgebungsvariablen
Volume-Bereitstellungen
Cloud Storage-Volumes
NFS-Volumen
In-Memory-Volumes
Ausführungsumgebung
Übersicht
Ausführungsumgebung wählen
Container-Systemdiagnosen
HTTP/2-Anfragen
Secrets
Dienstidentität
Skalieren
Instanz-Autoscaling für Dienste
Maximale Anzahl von Instanzen
Maximale Anzahl von Instanzen für Dienste
Maximale Anzahl von Instanzen konfigurieren
Mindestanzahl von Instanzen
Manuelle Skalierung
Metadata
Beschreibung
Labels
Tags
Konfigurationen für die Bereitstellung von Quellen
Unterstützte Sprach-Laufzeitumgebungen und Basis-Images
Automatische Basis-Image-Updates konfigurieren
Build-Umgebungsvariablen
Build-Dienstkonto
Worker-Pools erstellen
Dienste aufrufen und auslösen
Mit HTTPS-Anfragen aufrufen
Webhook-Ziel hosten
Mit WebSockets streamen
Übersicht
Anleitung zum Erstellen eines WebSocket-Chat-Dienstes
Asynchron aufrufen
Dienste nach Zeitplan aufrufen
Workflow erstellen
Dienste als Teil eines Workflows aufrufen
Anleitung für die Verbindung einer Reihe von Diensten über Cloud Functions und Cloud Run
Asynchrone Aufgaben ausführen
Dienst über ein Pub/Sub-Push-Abo aufrufen
Dienst aus Pub/Sub auslösen
Beispielanleitung zum Einbinden der Bildverarbeitung in Pub/Sub
Aus Ereignissen auslösen
Trigger mit Eventarc erstellen
Pub/Sub-Trigger
Pub/Sub-EventArc-Trigger erstellen
Funktionen aus Pub/Sub mit Eventarc auslösen
Funktionen über weitergeleitete Logeinträge auslösen
Cloud Storage-Trigger
Trigger mit Cloud Storage erstellen
Dienste aus Cloud Storage mit Eventarc auslösen
Funktionen aus Cloud Storage mit Eventarc auslösen
Firestore-Trigger
Trigger mit Firestore erstellen
Funktionen über Ereignisse in einer Firestore-Datenbank auslösen
Mit anderen Diensten mithilfe von gRPC verbinden
Best Practices
Allgemeine Tipps zur Entwicklung von Diensten
Java-Dienste optimieren
Python-Dienste optimieren
Node.js-Dienste optimieren
Best Practices für Belastungstests
Zonale Redundanz
Best Practices für Funktionen
Übersicht
Ereignisgesteuerte Funktionswiederholungen aktivieren
Job-Aufgaben bis zum Abschluss ausführen
Jobs erstellen
Jobs ausführen
Jobs ausführen
Geplante Jobs ausführen
Geplante Jobs in einem VPC-SC-Perimeter ausführen
Jobs aus Workflows ausführen
Jobs konfigurieren
Containereinstiegspunkt
CPU-Beschränkungen
Beschränkungen des Arbeitsspeichers
GPU
GPU-Konfiguration
Best Practices für GPUs
LLMs mit GPUs und Cloud Run-Jobs optimieren
Batch-Inferenzen mit GPUs und Cloud Run-Jobs ausführen
Umgebungsvariablen
Container-Systemdiagnosen
Volume-Bereitstellungen
Cloud Storage-Volumes
NFS-Volumen
In-Memory-Volumes
Andere Netzwerkdateisysteme
Labels
Maximale Wiederholungsversuche
Parallelität
Secrets
Dienstidentität
Zeitlimit der Aufgabe
Tags
Jobs verwalten
Jobs ansehen oder löschen
Jobausführungen ansehen oder stoppen
Best Practices
Kontinuierliche Hintergrundarbeiten ausführen
Worker-Pools bereitstellen
Worker-Pools bereitstellen
Worker-Pools aus Quellcode bereitstellen
Worker-Pools verwalten
Worker-Pools ansehen oder löschen
Versionen von Worker-Pools ansehen oder löschen
Worker-Pools konfigurieren
Kapazität
Beschränkungen des Arbeitsspeichers
CPU-Beschränkungen
GPU
GPU-Konfiguration
Best Practices für GPUs
Umgebung
Container und Einstiegspunkt
Umgebungsvariablen
Volume-Bereitstellungen
Cloud Storage-Volumes
NFS-Volumen
In-Memory-Volumes
Andere Netzwerkdateisysteme
Container-Systemdiagnosen
Dienstidentität
Anzahl der Instanzen
Metadata
Beschreibung
Labels
Tags
Anhand externer Messwerte skalieren
Kafka-Autoscaler
Netzwerk konfigurieren
Best Practices für Cloud Run-Netzwerke
Privates Netzwerk konfigurieren
Traffic an VPC-Netzwerk senden
Übersicht
Ausgehender Direct VPC-Traffic
Dual-Stack-Dienste und ‑Jobs
Standard-VPC-Connector zu ausgehendem VPC Direct-Traffic migrieren
VPC-Connectors
Traffic an freigegebenes VPC-Netzwerk senden
Übersicht
Ausgehender Direct VPC-Traffic
Freigegebene VPC-Connector zu ausgehendem VPC Direct-Traffic migrieren
Connectors in Dienstprojekten
Connectors im Hostprojekt
Statische ausgehende IP-Adresse
Netzwerksicherheit
Eingehenden Traffic einschränken (Dienste)
VPC Service Controls (VPC SC) verwenden