Zum Hauptinhalt springen

Google Cloud
Dokumentation Technologiebereiche
  • KI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Compute
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring
  • Sicherheit
  • Storage
Produktübergreifende Tools
  • Zugriffs- und Ressourcenverwaltung
  • Kosten- und Nutzungsmanagement
  • Google Cloud SDK, Sprachen, Frameworks und Tools
  • Infrastruktur als Code
  • Migration
Verwandte Websites
  • Google Cloud-Startseite
  • Kostenlose Testversion und kostenlose Stufe
  • Architecture Center
  • Blog
  • Vertrieb kontaktieren
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Google Cloud Marketplace-Dokumentation
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud-Support
  • Google Cloud Tech-YouTube-Kanal
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Anmelden
  • Vertex AI
Leitfäden Referenzen Beispiele Support Ressourcen
Kontakt Jetzt kostenlos testen
Google Cloud
  • Dokumentation
    • Leitfäden
    • Referenzen
    • Beispiele
    • Support
    • Ressourcen
  • Technologiebereiche
    • Mehr
  • Produktübergreifende Tools
    • Mehr
  • Verwandte Websites
    • Mehr
  • Console
  • Kontakt
  • Jetzt kostenlos testen
  • Erste Schritte
  • Übersicht
  • Einführung in Vertex AI
  • MLOps in Vertex AI
  • Schnittstellen für Vertex AI
  • Leitfäden für Vertex AI-Einsteiger
    • AutoML-Modell trainieren
    • Benutzerdefiniertes Modell trainieren
    • Inferenzen aus einem benutzerdefinierten Modell abrufen
    • Modell mit Vertex AI und Python SDK trainieren
      • Einführung
      • Voraussetzungen
      • Notebook erstellen
      • Dataset erstellen
      • Trainingsscript erstellen
      • Modell trainieren
      • Schlussfolgerungen ziehen
  • Integrierte ML-Frameworks
    • PyTorch
    • TensorFlow
  • Vertex AI für BigQuery-Nutzer
  • Glossar
  • Los gehts
  • Projekt- und Entwicklungsumgebung einrichten
  • Vertex AI SDK for Python installieren
  • Trainingsmethode auswählen
  • Anleitung lesen
    • Übersicht über Anleitungen
    • AutoML-Anleitungen
      • Hello-Bilddaten
        • Übersicht
        • Projekt und Umgebung einrichten
        • Dataset erstellen und Bilder importieren
        • AutoML-Bildklassifizierungsmodell trainieren
        • Modellleistung bewerten und analysieren
        • Modell auf einem Endpunkt bereitstellen und eine Inferenz durchführen
        • Projekt bereinigen
      • Tabellarische Hello-Daten
        • Übersicht
        • Projekt und Umgebung einrichten
        • Dataset erstellen und AutoML-Klassifizierungsmodell trainieren
        • Modell bereitstellen und Inferenz anfordern
        • Projekt bereinigen
    • Benutzerdefinierte Trainingsanleitungen
      • Benutzerdefiniertes tabellarisches Modell trainieren
      • TensorFlow Keras-Bildklassifizierungsmodell trainieren
        • Übersicht
        • Projekt und Umgebung einrichten
        • Benutzerdefiniertes Bildklassifizierungsmodell trainieren
        • Vorhersagen aus einem benutzerdefinierten Bildklassifizierungsmodell bereitstellen
        • Projekt bereinigen
      • Bildklassifizierungsmodell mit benutzerdefinierten Daten optimieren
    • Notebook-Anleitungen für benutzerdefiniertes Training
  • Generative KI und LLMs verwenden
  • Mehr zu Generativer KI
  • Vertex AI-Entwicklungstools verwenden
  • Entwicklungstools – Übersicht
  • Vertex AI SDK
    • Übersicht
    • Einführung in das Vertex AI SDK für Python
    • Klassen des Vertex AI SDK für Python
      • Vertex AI SDK-Klassen – Übersicht
      • Datenklassen
      • Trainingsbezogene Klassen
      • Modellklassen
      • Vorhersageklassen
      • Tracking-Klassen
  • Vertex AI in Notebooks verwenden
    • Notebooklösung wählen
    • Colab Enterprise
      • Kurzanleitung:Notebook mit der Console erstellen
      • Mit einer Laufzeit verbinden
      • Laufzeiten und Laufzeitvorlagen verwalten
        • Laufzeitvorlage erstellen.
        • Laufzeit erstellen
    • Vertex AI Workbench
      • Einführung
      • Notebook-Anleitungen
      • Los gehts
        • Instanz mithilfe der Console erstellen
        • Notebookausführung planen
      • Instanz einrichten
        • Instanz erstellen
        • Spezifische Version einer Instanz erstellen
        • Instanz mit Zugriff über Nutzeranmeldedaten erstellen
        • Instanz mit Confidential Computing erstellen
        • Conda-Umgebung hinzufügen
        • Herunterfahren bei Inaktivität
        • Instanz mit einem benutzerdefinierten Container erstellen
        • Instanz mit aktiviertem Dataproc erstellen
        • Instanz mit Anmeldedaten eines Drittanbieters erstellen
        • Funktionen über Metadaten verwalten
        • Reservierungen verwenden
      • Datenverbindung herstellen
        • Daten in BigQuery über JupyterLab abfragen
        • Auf Cloud Storage-Buckets und -Dateien in JupyterLab zugreifen
      • Daten untersuchen und visualisieren
        • Daten in BigQuery untersuchen und visualisieren
      • Warten
        • Conda-Umgebung verwalten
        • Sichern und wiederherstellen
          • Notebook auf GitHub speichern
          • Snapshot verwenden
          • Cloud Storage verwenden
        • Instanz herunterfahren
        • Upgrade der Umgebung einer Instanz durchführen
        • Mit SSH auf JupyterLab zugreifen
        • Daten zu einer neuen Instanz migrieren
        • Maschinentyp ändern und GPUs konfigurieren
        • Ressourcen mit Terraform bereitstellen
      • Überwachen
        • Zustand überwachen
      • Zugriff kontrollieren
        • Zugriffssteuerung
        • Zugriff auf eine Instanz verwalten
        • Zugriff auf die JupyterLab-Schnittstelle einer Instanz verwalten
        • Kundenverwaltete Verschlüsselungsschlüssel verwenden
        • Instanz innerhalb eines Dienstperimeters verwenden
      • Fehlerbehebung bei Vertex AI Workbench
      • Versionshinweise zu Vertex AI Workbench
      • Verwaltete Notebooks
        • Einführung in verwaltete Notebooks
        • Los gehts
          • Verwaltete Notebookinstanz mithilfe der Cloud Console erstellen
          • Ausführung eines verwalteten Notebooks planen
        • Verwaltete Notebook-Instanz einrichten
          • Instanz mit benutzerdefiniertem Container erstellen
          • Verwaltete Notebookinstanz in einem Dataproc-Cluster ausführen
          • Dataproc Serverless Spark mit verwalteten Notebooks verwenden
          • Herunterfahren bei Inaktivität
          • Verwaltete Notebookversionen
        • Datenverbindung herstellen
          • Daten in BigQuery über JupyterLab abfragen
          • Auf Cloud Storage-Buckets und -Dateien in JupyterLab zugreifen
        • Daten untersuchen und visualisieren
          • Übersicht
          • Daten in BigQuery untersuchen und visualisieren
        • Modell entwickeln
          • Modellentwicklung in einer verwalteten Notebookinstanz
        • Bereitstellen
          • Notebook-Dateien mit dem Executor ausführen
          • Notebook-Ausführungen mit Parametern
        • Warten
          • Zu einer Vertex AI Workbench-Instanz migrieren
          • Notebook auf GitHub speichern
          • Maschinentyp ändern und GPUs einer verwalteten Notebookinstanz konfigurieren
          • Upgrade einer Umgebung für eine verwaltete Notebookinstanz durchführen
          • Daten zu einer neuen verwalteten Notebookinstanz migrieren
        • Überwachen
          • Audit-Logging
        • Zugriff kontrollieren
          • Zugriffssteuerung
          • Zugriff auf eine Instanz verwalten
          • Zugriff auf die JupyterLab-Schnittstelle einer Instanz verwalten
          • Kundenverwaltete Verschlüsselungsschlüssel verwenden
          • Netzwerk einrichten
          • Verwaltete Notebookinstanz innerhalb eines Dienstperimeters verwenden
        • Fehlerbehebung bei verwalteten Notebooks
      • Nutzerverwaltete Notebooks
        • Einführung in nutzerverwaltete Notebooks
        • Los gehts
          • Nutzerverwaltete Notebookinstanz mithilfe der Cloud Console erstellen
        • Nutzerverwaltete Notebookinstanz einrichten
          • Nutzerverwaltete Notebookinstanz erstellen
          • Spezifische Version einer Instanz erstellen
          • Abhängigkeiten installieren
          • VM-Image auswählen
          • Instanz mit benutzerdefiniertem Container erstellen
        • Daten auswerten
          • Data Science mit R in Google Cloud: Anleitung zur explorativen Datenanalyse
        • Überwachen
          • Zustand überwachen
          • Audit-Logging
        • Zugriff kontrollieren
          • Zugriffssteuerung
          • Zugriff auf eine Instanz verwalten
          • Zugriff auf die JupyterLab-Schnittstelle einer Instanz verwalten
          • Vom Kunden verwaltete Verschlüsselungsschlüssel
          • Nutzerverwaltete Notebookinstanz innerhalb eines Dienstperimeters verwenden
          • Shielded VM mit nutzerverwalteten Notebooks verwenden
          • Anleitung: Notebookinstanz in einem VPC-Netzwerk erstellen
        • Warten
          • Zu einer Vertex AI Workbench-Instanz migrieren
          • Notebook auf GitHub speichern
          • Daten über einen Snapshot sichern
          • Nutzerverwaltete Notebookinstanz herunterfahren
          • Maschinentyp ändern und GPUs einer vom Nutzer verwalteten Notebookinstanz konfigurieren
          • Upgrade einer Umgebung für eine nutzerverwaltete Notebookinstanz ausführen
          • Daten zu einer neuen nutzerverwalteten Notebookinstanz migrieren
          • Legacy-Instanz bei der Notebooks API registrieren
          • Mit SSH auf JupyterLab zugreifen
        • Fehlerbehebung bei nutzerverwalteten Notebooks
  • Terraform-Support für Vertex AI
  • Entwicklung von KI-Modellen für die Prognose
  • Übersicht
  • AutoML-Modellentwicklung
    • AutoML-Training – Übersicht
    • Bilddaten
      • Klassifizierung
        • Daten vorbereiten
        • Dataset erstellen
        • Modell trainieren
        • Modell bewerten
        • Vorhersagen abrufen
        • Ergebnisse interpretieren
      • Objekterkennung
        • Daten vorbereiten
        • Dataset erstellen
        • Modell trainieren
        • Modell bewerten
        • Vorhersagen abrufen
        • Ergebnisse interpretieren
      • Bilddaten mit Base64 codieren
      • AutoML Edge-Modell exportieren
    • Tabellarische Daten
      • Übersicht
      • Einführung in tabellarische Daten
      • Tabellarische Workflows
        • Übersicht
        • Feature Engineering
        • End-to-End-AutoML
          • Übersicht
          • Modell trainieren
          • Online-Inferenzen abrufen
          • Batch-Inferenzen abrufen
        • TabNet
          • Übersicht
          • Modell trainieren
          • Online-Inferenzen abrufen
          • Batch-Inferenzen abrufen
        • Wide & Deep
          • Übersicht
          • Modell trainieren
          • Online-Inferenzen abrufen
          • Batch-Inferenzen abrufen
        • Prognosen
          • Übersicht
          • Modell trainieren
          • Online-Inferenzen abrufen
          • Batch-Inferenzen abrufen
        • Preise
        • Dienstkonten
        • Kontingente verwalten
      • Klassifizierung und Regression mit AutoML durchführen
        • Übersicht
        • Kurzanleitung: AutoML-Klassifizierung (Cloud Console)
        • Trainingsdaten vorbereiten
        • Dataset erstellen
        • Modell trainieren
        • Modell bewerten
        • Modellarchitektur aufrufen
        • Online-Inferenzen abrufen
        • Batch-Inferenzen abrufen
        • Modell exportieren
      • Prognosen mit AutoML erstellen
        • Übersicht
        • Trainingsdaten vorbereiten
        • Dataset erstellen
        • Modell trainieren
        • Modell bewerten
        • Schlussfolgerungen abrufen
        • Hierarchische Prognose
      • Prognosen mit ARIMA+ erstellen
      • Prognosen mit Prophet ausführen
      • Entitätsabgleich durchführen
      • Feature-Attributionen für Klassifizierung und Regression
      • Feature-Attributionen für Prognosen
      • Datentypen und Datenumwandlungen für tabellarische AutoML-Daten
      • Trainingsparameter für die Prognose
      • Datenaufteilungen für Tabellendaten
      • Best Practices für das Erstellen von tabellarischen Trainingsdaten
      • Prognosen mit Timeseries Insights
    • AutoML Edge-Modell trainieren
      • Console verwenden
      • API verwenden
    • AutoML Text
      • Von AutoML Text zu Gemini migrieren
      • Gemini für AutoML-Textnutzer
  • Benutzerdefiniertes Training
    • Übersicht: Benutzerdefiniertes Training
    • Daten laden und vorbereiten
      • Datenvorbereitung – Übersicht
      • Cloud Storage als bereitgestelltes Dateisystem verwenden
      • NFS-Freigabe für benutzerdefiniertes Training bereitstellen
      • Verwaltete Datasets verwenden
    • Benutzerdefiniertes Vertex AI-Training
      • Benutzerdefiniertes Training in Vertex AI
      • Trainingsanwendung vorbereiten
        • Informationen zum benutzerdefinierten Trainingsdienst
        • Trainingscode vorbereiten
        • Vordefinierte Container verwenden
          • Python-Trainingsanwendung für einen vordefinierten Container erstellen
          • Vordefinierte Container für benutzerdefiniertes Training
        • Benutzerdefinierte Container verwenden
          • Benutzerdefinierte Container für das Training
          • Benutzerdefinierten Container erstellen
          • Trainingscode lokal containerisieren und ausführen
        • Deep Learning VM Images und Containers verwenden
      • Auf einer nichtflüchtigen Ressource trainieren
        • Übersicht
        • Nichtflüchtige Ressource erstellen
        • Trainingsjobs für eine nichtflüchtige Ressource ausführen
        • Informationen zu nichtflüchtigen Ressourcen abrufen
        • Nichtflüchtige Ressource neu starten
        • Nichtflüchtige Ressource löschen
      • Trainingsjob konfigurieren
        • Benutzerdefinierte Trainingsmethode auswählen
        • Containereinstellungen für das Training konfigurieren
        • Rechenressourcen für das Training konfigurieren
        • Reservierungen mit Schulungen verwenden
        • Spot-VMs für das Training verwenden
      • Trainingsjob senden
        • Benutzerdefinierte Jobs erstellen
        • Hyperparameter-Abstimmung
          • Hyperparameter-Feinabstimmung
          • Hyperparameter-Feinabstimmung verwenden
        • Schulungspipelines erstellen
        • Jobs basierend auf der Ressourcenverfügbarkeit planen
        • Verteiltes Training verwenden
        • Mit Cloud TPU-VMs trainieren
        • Private IP-Adresse für benutzerdefiniertes Training verwenden
        • Private Service Connect-Schnittstelle für das Training verwenden (empfohlen)
      • Neural Architecture Search durchführen
        • Übersicht
        • Umgebung einrichten
        • Anleitungen für Einsteiger
        • Best Practices und Workflow
        • Proxy-Aufgabendesign
        • Trainingsgeschwindigkeit für PyTorch optimieren
        • Vordefinierte Trainingscontainer und Suchbereiche verwenden
      • Monitoring und Fehlerbehebung
        • Training mit interaktiver Shell überwachen und Fehler beheben
        • Leistung des Profilmodelltrainings
      • Mit Vertex AI Vizier optimieren
        • Übersicht über Vertex AI Vizier
        • Vertex AI Vizier-Studien erstellen
        • Vertex AI Vizier-Notebook-Anleitungen
      • Schlussfolgerungen abrufen
      • Anleitung: Pipeline für kontinuierliches Training erstellen
      • Benutzerdefinierte Einschränkungen für Organisationsrichtlinien erstellen
    • Ray in Vertex AI
      • Ray on Vertex AI – Übersicht
      • Einrichtung für Ray in Vertex AI
      • Ray-Cluster in Vertex AI erstellen
      • Ray-Cluster in Vertex AI überwachen
      • Ray-Cluster in Vertex AI skalieren
      • Ray-Anwendung in Vertex AI entwickeln
      • Spark auf Ray-Cluster in Vertex AI ausführen
      • Ray in Vertex AI mit BigQuery verwenden
      • Modell bereitstellen und Inferenz abrufen
      • Ray-Cluster löschen
      • Notebook-Anleitungen für Ray on Vertex AI
  • Entwicklung von GenAI-Modellen
  • Übersicht
  • Datensätze erstellen und verwalten
  • Übersicht
  • Datenaufteilungen für AutoML-Modelle
  • Annotationssatz erstellen
  • Annotationssatz löschen
  • Labels hinzufügen (Console)
  • Metadaten und Annotationen aus einem Dataset exportieren
  • Dataset-Versionen verwalten
  • Mit Data Catalog nach Modell- und Dataset-Ressourcen suchen
  • Schlussfolgerungen abrufen
  • Übersicht
  • Modelle für die Inferenz konfigurieren
    • Modellartefakte für die Inferenz exportieren
    • Vordefinierte Container für die Inferenz
    • Anforderungen an benutzerdefinierte Container für die Inferenz
    • Benutzerdefinierten Container für Inferenz verwenden
    • Beliebige benutzerdefinierte Routen verwenden
    • Optimierte TensorFlow-Laufzeit verwenden
    • Inferenzen mit NVIDIA Triton bereitstellen
    • Benutzerdefinierte Inferenzroutinen
  • Online-Inferenzen abrufen
    • Endpunkt erstellen
      • Endpunkttyp auswählen
      • Öffentlichen Endpunkt erstellen
      • Dedizierte öffentliche Endpunkte verwenden (empfohlen)
      • Dedizierte private Endpunkte auf Basis von Private Service Connect verwenden (empfohlen)
      • Endpunkte für den Zugriff auf private Dienste verwenden
    • Modell auf einem Endpunkt bereitstellen
      • Modellbereitstellung – Übersicht
      • Rechenressourcen für die Inferenz
      • Modell mit der Google Cloud Console bereitstellen
      • Modell mit der gcloud CLI oder der Vertex AI API bereitstellen
      • Bereitgestelltes Modell durch eine schrittweise Bereitstellung ersetzen
      • Bereitstellung eines Modells aufheben und den Endpunkt löschen
      • Cloud TPUs für die Online-Inferenz verwenden
      • Reservierungen mit Online-Inferenz verwenden
      • Flex-Start-VMs für die Inferenz verwenden
      • Spot-VMs für die Inferenz verwenden
    • Online-Inferenz abrufen
    • Messwerte für die Onlineinferenz ansehen
      • Endpunktmesswerte aufrufen
      • DCGM-Messwerte ansehen
    • Ressourcen für mehrere Bereitstellungen gemeinsam nutzen
    • Logging von Online-Inferenzen verwenden
  • Batch-Inferenzen abrufen
    • Batchinferenzen von einem benutzerdefinierten Modell abrufen
    • Reservierungen mit Batchinferenz verwenden
    • Batchvorhersagen von einem selbst bereitgestellten Model Garden-Modell abrufen
  • Generative KI-Modelle bereitstellen
    • Generative KI-Modelle bereitstellen
    • Offene Gemma-Modelle mit Cloud TPUs und Saxml bereitstellen
    • Offene Llama 3-Modelle mit Cloud TPUs mit mehreren Hosts und Saxml bereitstellen
    • DeepSeek-V3-Modell mit GPU-Bereitstellung mit mehreren Hosts bereitstellen
  • Benutzerdefinierte Organisationsrichtlinien
  • Vertex AI: Notebook-Anleitungen für Inferenz
  • Suchen nach Vektorähnlichkeiten durchführen
  • Vektorsuche – Übersicht
  • Jetzt ausprobieren
  • Los gehts
    • Kurzanleitung: Vektorsuche
    • Hinweis
    • Notebook-Anleitungen
  • Hybridsuche
  • Index erstellen und verwalten
    • Format und Struktur von Eingabedaten
    • Index erstellen und verwalten
    • Speicheroptimierte Indexe
    • Parameter für die Indexkonfiguration
    • Index aktualisieren und neu erstellen
    • Nach Vektorübereinstimmungen filtern
    • Indexdaten aus BigQuery importieren
    • Einbettungen mit Metadaten
  • Index bereitstellen und abfragen
    • Private Service Connect (empfohlen)
      • Vektorsuche mit Private Service Connect einrichten
      • Abfrage
      • Authentifizierung mit JSON Web Token
    • Öffentlicher Endpunkt
      • Bereitstellen
      • Abfrage
    • Zugriff auf private Dienste
      • VPC-Netzwerk-Peering-Verbindung einrichten
      • Bereitstellen
      • Abfrage
      • Authentifizierung mit JSON Web Token
  • Bereitgestellten Index überwachen
  • Benutzerdefinierte Organisationsrichtlinien verwenden
  • Support anfordern
  • Machine Learning Operations (MLOps)
  • Funktionen verwalten
    • Feature-Verwaltung in Vertex AI
    • Vertex AI Feature Store
      • Informationen zu Vertex AI Feature Store
      • Features einrichten
        • Datenquelle vorbereiten
        • Featuregruppe erstellen
        • Feature erstellen
      • Online-Bereitstellung einrichten
        • Onlinebereitstellungstypen
        • Eine Onlinespeicherinstanz erstellen
        • Featureansicht-Instanz erstellen
      • Zugriff kontrollieren
        • Ressourcenzugriff steuern
      • Onlinespeicher synchronisieren
        • Datensynchronisierung starten
        • Synchronisierungsvorgänge auflisten
        • Features in einer Featureansicht aktualisieren
      • Funktionen bereitstellen
        • Features aus dem Onlineshop bereitstellen
        • Bisherige Featurewerte bereitstellen
      • Überwachen
        • Monitorfunktionen
      • Ressourcen für Funktionen verwalten
        • Featuregruppen auflisten
        • Features auflisten
        • Featuregruppe aktualisieren
        • Feature aktualisieren
        • Featuregruppe löschen
        • Feature löschen
      • Ressourcen für Onlineshops verwalten
        • Onlinespeicher auflisten
        • Featureansichten auflisten
        • Einen Onlinespeicher aktualisieren
        • Featureansicht aktualisieren
        • Einen Onlinespeicher löschen
        • Eine Featureansicht löschen
      • Feature-Metadaten
        • Labels aktualisieren
      • Nach Ressourcen suchen
        • Nach Ressourcen suchen
        • In Data Catalog nach Ressourcenmetadaten suchen
      • Einbettungen verwalten
        • Mithilfe von Einbettungen suchen
      • Notebook-Anleitungen
        • Tutorial-Notebooks für Vertex AI Feature Store
    • Vertex AI Feature Store (Legacy)
      • Mehr zu Vertex AI Feature Store (Legacy)
      • Datenmodell und Ressourcen
      • Anforderungen an Quelldaten
      • Einrichtung
      • Best Practices
      • Vertex AI Feature Store (Legacy) verwenden
        • Feature Stores verwalten
        • Entitätstypen verwalten
        • Funktionen verwalten und finden
        • Batchimport
        • Streamingimport
        • Onlinebereitstellung
        • Trainingsdaten abrufen
        • Featurewerte exportieren
        • Featurewerte löschen
        • Monitoring
        • Ressourcenzugriff steuern
  • Modelle verwalten
    • Einführung in Vertex AI Model Registry
    • Versionsverwaltung in Model Registry
    • Modelle in Model Registry importieren
    • Modelle in der Modell-Registry kopieren
    • Modell löschen
    • In BigQuery ML einbinden
    • Modellaliasse verwenden
    • Modelllabels verwenden
    • Mit Data Catalog nach Modell- und Dataset-Ressourcen suchen
  • Modelle bewerten
    • Modellbewertung in Vertex AI
    • Modellbewertung in Vertex AI durchführen
    • Modellbewertung für Fairness
      • Einführung in die Modellbewertung für Fairness
      • Daten-Verzerrungsmesswerte für Vertex AI
      • Modell-Verzerrungsmesswerte für Vertex AI
    • Notebook-Anleitungen zur Modellbewertung
  • ML-Workflows mit Pipelines orchestrieren
    • Einführung
    • Interfaces
    • Projekt konfigurieren
    • Pipeline erstellen
    • Pipeline ausführen
    • Pipeline-Vorlagen verwenden
      • Pipelinevorlage erstellen, hochladen und verwenden
      • Vordefinierte Vorlage aus der Vorlagengalerie verwenden
    • Pipeline konfigurieren
      • Ausführungs-Caching konfigurieren
      • Fehlerrichtlinie konfigurieren
      • Wiederholungsversuche für eine Pipeline-Aufgabe konfigurieren
      • Maschinentypen für einen Pipelineschritt angeben
      • Google Cloud-Maschinenressourcen mit Vertex AI Pipelines anfordern
      • Private Service Connect-Schnittstelle konfigurieren (empfohlen)
      • Secrets mit Secret Manager konfigurieren
      • Pipelineausführung auf einer nichtflüchtigen Ressource konfigurieren
    • Pipelineausführungen planen und auslösen
      • Pipeline-Ausführung mit der Scheduler API planen
      • Mit Pub/Sub ausgeführte Pipeline auslösen
    • Pipelineausführungen abbrechen oder löschen
      • Pipelineausführungen abbrechen
      • Pipelineausführungen löschen
    • Pipeline noch einmal ausführen
    • Pipeline-Ausführung überwachen
      • Pipeline-Messwerte ansehen
      • Pipeline-Joblogs ansehen
      • Logs an eine Cloud Pub/Sub-Senke weiterleiten
      • E-Mail-Benachrichtigungen konfigurieren
    • Ergebnisse visualisieren
      • Pipelineergebnisse visualisieren und analysieren
      • Herkunft von Pipeline-Artefakten verfolgen
      • Ausgabe-HTML und Markdown
    • Ressourcen-Labeling von Vertex AI Pipelines
    • Informationen zu den Kosten für die Pipelineausführung
    • Von Kubeflow Pipelines zu Vertex AI Pipelines migrieren
    • Benutzerdefinierte Einschränkungen verwenden
    • Komponenten der Google Cloud-Pipeline
      • Schnelleinstieg
      • Einführung in die Komponenten der Google Cloud-Pipeline
      • Liste der Google Cloud-Pipelinekomponenten
      • Google Cloud-Pipeline-Komponenten verwenden
      • Eigene Pipeline-Komponenten erstellen
    • Vertex AI Pipelines-Anleitungen
      • Tutorial-Notebooks
  • ML-Metadaten verfolgen und analysieren
    • Einführung in Vertex ML Metadata
    • Datenmodell und Ressourcen
    • Metadatenspeicher Ihres Projekts konfigurieren
    • Vertex ML Metadata verwenden
      • Vertex ML Metadata verfolgen
      • Vertex ML-Metadaten analysieren
      • Vertex ML-Metadaten verwalten
      • Systemschemas
      • Benutzerdefinierte Schemas erstellen und verwenden
      • Benutzerdefinierte Einschränkungen mit Metadatenspeichern verwenden
    • Vertex ML Metadata-Notebooks – Anleitungen
  • Verhalten des Modells verstehen
    • Einführung in Explainable AI
    • Beispielbasierte Erläuterungen für benutzerdefiniertes Training konfigurieren
    • Featurebasierte Erläuterungen für benutzerdefiniertes Training konfigurieren
      • Erläuterungen konfigurieren
      • Visualisierungseinstellungen konfigurieren
      • Erläuterungen verbessern
    • Featurebasierte Erläuterungen für die AutoML-Bildklassifizierung konfigurieren
      • Visualisierungseinstellungen konfigurieren
      • Erläuterungen verbessern
    • TensorFlow für Erläuterungen verwenden
    • Erläuterungen abrufen
    • Einschränkungen von Explainable AI
    • Notebook-Anleitungen für Explainable AI
  • Modellqualität im Blick behalten
    • Einführung in Modell-Monitoring
    • Model Monitoring v2
      • Modellmonitoring einrichten
      • Monitoring-Jobs ausführen
      • Modellmonitore verwalten
    • Model Monitoring v1
      • Schemas für das Modell-Monitoring bereitstellen
      • Abweichung und Drift des Monitoring-Features
      • Abweichung und Drift der Featureattribution überwachen
      • Modell-Monitoring für Batchvorhersagen
  • Experimente verfolgen
    • Einführung in Vertex AI Experiments
    • Einrichtung für Vertex AI Experiments
    • Test erstellen
    • Testausführungen erstellen und verwalten
    • Protokolldaten
      • Daten in einer Testausführung automatisch protokollieren
      • Daten manuell in einer Testausführung loggen
    • Modelle in einer Testausführung loggen
    • Ausführungen und Artefakte verfolgen
    • Pipelineausführung zu Test hinzufügen
    • Trainingsjob mit Test-Tracking ausführen
    • Ausführungen vergleichen und analysieren
    • Vertex AI TensorBoard verwenden
      • Einführung in Vertex AI TensorBoard
      • Vertex AI TensorBoard einrichten
      • Trainingsscript konfigurieren
      • Vertex AI TensorBoard mit benutzerdefiniertem Training verwenden
      • Vertex AI TensorBoard mit Vertex AI Pipelines verwenden
      • TensorBoard-Daten manuell protokollieren
      • Vorhandene Protokolle hochladen
      • Vertex AI TensorBoard aufrufen
    • Notebook-Anleitungen
      • Erste Schritte mit Vertex AI Experiments
      • Pipelineausführungen vergleichen
      • Modelltraining
      • Modelle vergleichen
      • Automatisches Logging
      • Automatisches Logging für das benutzerdefinierte Training
      • Parameter und Messwerte für benutzerdefiniertes Training verfolgen
      • Veraltete Vertex AI TensorBoard-Tests löschen
      • Benutzerdefiniertes Vertex AI TensorBoard-Training mit benutzerdefiniertem Container
      • Benutzerdefiniertes Vertex AI TensorBoard-Training mit vordefiniertem Container
      • Vertex AI TensorBoard-Hyperparameter-Abstimmung mit dem HParams-Dashboard
      • Leistung des Modelltrainings mit Cloud Profiler profilieren
      • Leistung des Modelltrainings mit Cloud Profiler im benutzerdefinierten Training mit vordefiniertem Container profilieren
      • Vertex AI TensorBoard mit Vertex AI Pipelines
  • Verwalten
  • Zugriffssteuerung
    • Zugriffssteuerung mit IAM
    • IAM-Berechtigungen
    • Projekt für ein Team einrichten
    • Zugriff auf Vertex AI-Endpunkte steuern
    • Benutzerdefiniertes Dienstkonto verwenden
    • Kundenverwaltete Verschlüsselungsschlüssel verwenden
    • Access Transparency
  • Vertex AI-Ressourcen überwachen
    • Cloud Monitoring-Messwerte
    • Informationen zu Audit-Logging
  • Netzwerk
    • Netzwerkzugriff – Übersicht
    • Auf die Vertex AI API zugreifen
    • Zugriff auf Vertex AI-Dienste über den Zugriff auf private Dienste
    • Zugriff auf Vertex AI-Dienste über PSC-Endpunkte
    • Zugriff auf Vertex AI-Dienste über PSC-Schnittstellen
    • VPC-Netzwerk-Peering einrichten
    • Verbindung zu anderen Netzwerken einrichten
    • Private Service Connect-Schnittstelle einrichten
    • Anleitung: Privater Zugriff auf Trainingspipelines von lokalen Umgebungen aus
    • Anleitung: Privater Zugriff auf einen Vektorsuchindex von lokalen Umgebungen aus
    • Anleitung: Zugriff auf die Generative AI API von lokalen Umgebungen aus
    • Anleitung: Privater Zugriff auf Batchvorhersagen von lokalen Umgebungen aus
    • Anleitung: Vertex AI Workbench-Instanz in einem VPC-Netzwerk erstellen
  • Sicherheit
    • VPC Service Controls
    • Zugriff von öffentlichen Endpunkten auf geschützte Ressourcen von außerhalb eines Perimeters zulassen
    • Multi-Cloud-Zugriff auf geschützte Ressourcen von außerhalb eines Perimeters zulassen
    • Zugriff auf geschützte Ressourcen von innerhalb eines Perimeters zulassen
  • Ressourcen benennen
  • Beispiele und Anleitungen
  • Notebook-Anleitungen
  • Codebeispiele
    • Alle Codebeispiele für Vertex AI
    • Codebeispiele für alle Produkte
  • KI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Compute
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring
  • Sicherheit
  • Storage
  • Zugriffs- und Ressourcenverwaltung
  • Kosten- und Nutzungsmanagement
  • Google Cloud SDK, Sprachen, Frameworks und Tools
  • Infrastruktur als Code
  • Migration
  • Google Cloud-Startseite
  • Kostenlose Testversion und kostenlose Stufe
  • Architecture Center
  • Blog
  • Vertrieb kontaktieren
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Google Cloud Marketplace-Dokumentation
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud-Support
  • Google Cloud Tech-YouTube-Kanal
Diese Seite wurde von der Cloud Translation API übersetzt.
  • Home
  • Dokumentation
  • Vertex AI
  • Documentation