Zum Hauptinhalt springen
Google Cloud
Dokumentation Technologiebereiche
  • KI und ML
  • Anwendungsentwicklung
  • Anwendungshosting
  • Compute
  • Datenanalyse und Pipelines
  • Datenbanken
  • Verteilt, Hybrid und Multi-Cloud
  • Generative KI
  • Branchenlösungen
  • Netzwerk
  • Beobachtbarkeit und Monitoring
  • Sicherheit
  • Storage
Produktübergreifende Tools
  • Zugriffs- und Ressourcenverwaltung
  • Kosten- und Nutzungsmanagement
  • Google Cloud SDK, Sprachen, Frameworks und Tools
  • Infrastruktur als Code
  • Migration
Verwandte Websites
  • Google Cloud-Startseite
  • Kostenlose Testversion und kostenlose Stufe
  • Architecture Center
  • Blog
  • Vertrieb kontaktieren
  • Google Cloud Developer Center
  • Google Developer Center
  • Google Cloud Marketplace
  • Google Cloud Marketplace-Dokumentation
  • Google Cloud Skills Boost
  • Google Cloud Solution Center
  • Google Cloud-Support
  • Google Cloud Tech-YouTube-Kanal
/
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Console Anmelden
  • BigQuery
Leitfäden Referenzen Beispiele Ressourcen
Kontakt Jetzt kostenlos testen
Google Cloud
  • Dokumentation
    • Leitfäden
    • Referenzen
    • Beispiele
    • Ressourcen
  • Technologiebereiche
    • Mehr
  • Produktübergreifende Tools
    • Mehr
  • Verwandte Websites
    • Mehr
  • Console
  • Kontakt
  • Jetzt kostenlos testen
  • Erste Schritte
  • Produktübersicht
  • BigQuery mit der Sandbox ausprobieren
  • Los gehts
  • Konsole ausprobieren
    • Daten laden und abfragen
    • DataFrames ausprobieren
  • Befehlszeilentool testen
    • Daten laden und abfragen
  • Clientbibliotheken testen
  • BigQuery-Tools entdecken
    • Die Console entdecken
    • Befehlszeilentool entdecken
  • Migrieren
  • Übersicht
  • Data Warehouse migrieren
    • Einführung in BigQuery Migration Service
    • Migrationsbewertung
    • Schema und Daten migrieren
    • Datenpipelines migrieren
    • SQL migrieren
      • SQL-Abfragen interaktiv übersetzen
      • SQL-Abfragen mit der API übersetzen
      • SQL-Abfragen im Batch übersetzen
      • Metadaten für Übersetzung und Bewertung generieren
      • SQL-Übersetzungen mit YAML transformieren
      • SQL-Objektnamen für die Batchübersetzung zuordnen
  • Migrationsleitfäden
    • Amazon Redshift
      • Übersicht über die Migration
      • Amazon Redshift-Schema und -Daten migrieren
      • Amazon Redshift-Schema und -Daten migrieren, wenn eine VPC verwendet wird
      • SQL-Übersetzungsreferenz
    • Apache Hadoop
      • Metadaten aus Hadoop für die Migration extrahieren
      • Berechtigungen aus Hadoop migrieren
      • Übertragung eines HDFS-Data Lakes planen
    • Apache Hive
      • Hive-Migration – Übersicht
      • Apache Hive-Schema und -Daten migrieren
      • SQL-Übersetzungsreferenz
    • IBM Netezza
      • Von IBM Netezza migrieren
      • SQL-Übersetzungsreferenz
    • Oracle
      • Migrationsanleitung
      • SQL-Übersetzungsreferenz
    • Snowflake
      • Einführung
      • Snowflake-Übertragung planen
      • Übersicht über die Migration
      • SQL-Übersetzungsreferenz
    • Teradata
      • Einführung
      • Übersicht über die Migration
      • Teradata-Schema und -Daten migrieren
      • Anleitung für die Migration
      • SQL-Übersetzungsreferenz
  • Design
  • Ressourcen organisieren
  • API-Abhängigkeiten
  • Versionen verstehen
  • Datasets
    • Einführung
    • Datasets erstellen
    • Datasets auflisten
    • Regionenübergreifende Replikation
    • Verwaltete Notfallwiederherstellung
    • Zur verwalteten Notfallwiederherstellung migrieren
    • Datenaufbewahrung für Datasets
  • Tabellen
    • BigQuery-Tabellen
      • Einführung
      • Tabellen erstellen und verwenden
      • BigLake Iceberg-Tabellen in BigQuery
      • Tabellenschemas angeben
        • Schema angeben
        • Verschachtelte und wiederkehrende Spalten angeben
        • Standardspaltenwerte angeben
        • ObjectRef-Werte angeben
      • Mit partitionierten Tabellen segmentieren
        • Einführung
        • Partitionierte Tabellen erstellen
        • Partitionierte Tabellen verwalten
        • Partitionierte Tabellen abfragen
      • Mit geclusterten Tabellen optimieren
        • Einführung
        • Geclusterte Tabellen erstellen
        • Geclusterte Tabellen verwalten
        • Geclusterte Tabellen abfragen
      • Metadatenindexierung verwenden
    • Externe Tabellen
      • Einführung
      • Typen von externen Tabellen
        • Externe BigLake-Tabellen
        • BigQuery Omni
        • Objekttabellen
        • Externe Tabellen
      • Externe Tabellendefinitionsdatei
      • Extern partitionierte Daten
      • Metadaten-Caching verwenden
      • Externe Amazon S3 BigLake-Tabellen
      • Externe Apache Iceberg-Tabellen
      • BigLake-Tabellen in Azure Blob Storage
      • Externe Bigtable-Tabelle
      • Externe BigLake-Tabellen für Cloud Storage
      • Cloud Storage-Objekttabellen
      • Externe Cloud Storage-Tabellen
      • Delta Lake BigLake-Tabellen
      • Externe Google Drive-Tabellen
  • Aufrufe
    • Logische Ansichten
      • Einführung
      • Logische Ansichten erstellen
    • Materialisierte Ansichten
      • Einführung
      • Materialisierte Ansichten erstellen
    • Alle Ansichtstypen verwalten
      • Informationen zu Ansichten abrufen
      • Ansichten verwalten
  • Routinen
    • Einführung
    • Routinen verwalten
    • Benutzerdefinierte Funktionen
    • Benutzerdefinierte Funktionen in Python
    • Benutzerdefinierte Aggregatfunktionen
    • Tabellenfunktionen
    • Remote-Funktionen
    • Gespeicherte SQL-Prozeduren
    • Gespeicherte Prozeduren für Apache Spark
    • Objekttabellen mit Remote-Funktionen analysieren
    • Remote-Funktionen und Translation API – Anleitung
  • Verbindungen
    • Einführung
    • Amazon S3-Verbindung
    • Apache Spark-Verbindung
    • Azure Blob Storage-Verbindung
    • Cloud-Ressourcenverbindung
    • SpannerConnection
    • Cloud SQL-Verbindung
    • AlloyDB-Verbindung
    • SAP Datasphere-Verbindung
    • Verbindungen verwalten
    • Verbindungen mit Netzwerkanhängen konfigurieren
    • Standardverbindungen
  • Indexe
    • Suchindexe
      • Einführung
      • Suchindexe verwalten
    • Vektorindexe
      • Einführung
      • Vektorindexe verwalten
  • Laden, transformieren und exportieren
  • Einführung
  • Daten laden
    • Einführung
    • Speicheroptionen
    • BigQuery Data Transfer Service
      • Einführung
      • Speicherort und Übertragung von Daten
      • Übertragungen autorisieren
      • Übertragungen aktivieren
      • Netzwerkverbindungen einrichten
        • Zugriff auf Cloud SQL-Instanzen
        • AWS-VPN und Netzwerkanhänge
        • Azure-VPN und Netzwerkanhänge
      • Übertragungen verwalten
      • Benachrichtigungen zu Übertragungsausführungen
      • Fehlerbehebung bei Übertragungskonfigurationen
      • Dienstkonten verwenden
      • Drittanbieter-Übertragungen verwenden
      • Benutzerdefinierte Organisationsrichtlinien verwenden
      • Änderungsprotokoll der Datenquelle
      • Ereignisgesteuerte Übertragungen
      • Anleitungen zu Datenübertragungen
        • Amazon S3
          • Einführung
          • Übertragungen planen
          • Laufzeitparameter übertragen
        • Azure Blob Storage
          • Einführung
          • Übertragungen planen
          • Laufzeitparameter übertragen
        • Campaign Manager
          • Übertragungen planen
          • Berichtstransformation
        • Cloud Storage
          • Einführung
          • Übertragungen planen
          • Laufzeitparameter übertragen
        • Comparison Shopping Service Center
          • Einführung
          • Übertragungen planen
          • Übertragungsberichtsschema
        • Display & Video 360
          • Übertragungen planen
          • Berichtstransformation
        • Facebook Ads
          • Übertragungen planen
          • Berichtstransformation
        • Google Ad Manager
          • Übertragungen planen
          • Berichtstransformation
        • Google Ads
          • Übertragungen planen
          • Berichtstransformation
        • Google Analytics 4
          • Übertragungen planen
          • Berichtstransformation
        • Google Merchant Center
          • Einführung
          • Übertragungen planen
          • Daten abfragen
          • Migrationsleitfäden
            • Bestseller
            • Wettbewerbsfähigkeit von Preisen
          • Übertragungsberichtsschema
            • Tabelle mit Bestsellern
            • Tabelle „Lokales Inventar“
            • Leistungstabelle
            • Preisvergleichetabelle
            • Tabelle zur Wettbewerbsfähigkeit von Preisen
            • Tabelle mit Preisstatistiken
            • Produktinventartabelle
            • Produkt-Targeting-Tabelle
            • Produkttabelle
            • Regionale Inventartabelle
            • Tabelle „Top-Marken“
            • Tabelle „Top-Produkte“
        • Google Play
          • Übertragungen planen
          • Berichtstransformation übertragen
        • MySQL
          • Übertragungen planen
        • Oracle
          • Übertragungen planen
        • PostgreSQL
          • Übertragungen planen
        • Salesforce
          • Übertragungen planen
        • Salesforce Marketing Cloud
          • Übertragungen planen
        • Search Ads 360
          • Übertragungen planen
          • Berichtstransformation übertragen
          • Migrationsanleitung
        • ServiceNow
          • Übertragungen planen
        • YouTube-Kanal
          • Übertragungen planen
          • Berichtstransformation übertragen
        • YouTube-Rechteinhaber
          • Übertragungen planen
          • Berichtstransformation übertragen
    • Daten im Batch laden
      • Einführung
      • Schemas automatisch erkennen
      • Avro-Daten laden
      • Parquet-Daten laden
      • ORC-Daten laden
      • CSV-Daten laden
      • JSON-Daten laden
      • Extern partitionierte Daten laden
      • Daten aus einem Datastore-Export laden
      • Daten aus einem Firestore-Export laden
      • Daten mit der Storage Write API laden
      • Daten in partitionierte Tabellen laden
    • Daten mit der Storage API schreiben und lesen
      • Daten mit der Storage Read API lesen
      • Daten mit der Storage Write API schreiben
        • Einführung
        • Daten mit der Storage Write API streamen
        • Daten mit der Storage Write API im Batch laden
        • Best Practices
        • Unterstützte Protokollzwischenspeicher- und Arrow-Datentypen
        • Updates mit Change Data Capture streamen
        • Legacy-Streaming-API verwenden
    • Daten aus anderen Google-Diensten laden
    • Cloud Storage-Daten finden und katalogisieren
    • Daten mit Drittanbieteranwendungen laden
    • Daten mit cloudübergreifenden Vorgängen laden
  • Daten transformieren
    • Einführung
    • Daten vorbereiten
      • Einführung
      • Daten mit Gemini vorbereiten
    • Mit DML transformieren
    • Daten in partitionierten Tabellen transformieren
    • Änderungsverlauf verwenden
    • Daten mit Pipelines transformieren
      • Einführung
      • Pipelines erstellen
  • Daten exportieren
    • Einführung
    • Abfrageergebnisse exportieren
    • Nach Cloud Storage exportieren
    • Nach Bigtable exportieren
    • In Spanner exportieren
    • Nach Pub/Sub exportieren
    • Als Protobuf-Spalten exportieren
  • Analysieren
  • Einführung
  • Nach Ressourcen suchen
  • Meine Daten erkunden
    • Abfragen mit dem Tabellen-Explorer erstellen
    • Datenprofil erstellen:
    • Datenstatistiken generieren
    • Mit einem Data Canvas analysieren
    • Daten mit Gemini analysieren
  • BigQuery-Daten abfragen
    • Abfrage ausführen
    • Abfragen mit Gemini schreiben
    • Abfrageergebnisse schreiben
    • Daten mit SQL abfragen
      • Einführung
      • Arrays
      • JSON-Daten
      • Abfragen mit mehreren Anweisungen
      • Parametrisierte Abfragen
      • Pipe-Syntax
      • Daten mithilfe der Pipe-Syntax analysieren
      • Rekursive CTEs
      • Sketche
      • Tabellenstichproben
      • Zeitreihe
      • Transaktionen
      • Platzhaltertabellen
    • Raumbezogene Analysen verwenden
      • Einführung
      • Mit raumbezogenen Analysen arbeiten
      • Mit Rasterdaten arbeiten
      • Best Practices für räumliche Analysen
      • Geodaten darstellen
      • Grid-Systeme für räumliche Analysen
      • Syntaxreferenz für raumbezogene Analysen
      • Anleitungen für raumbezogene Analysen
        • Erste Schritte mit raumbezogenen Analysen
        • Verwenden Sie raumbezogene Analysen, um den Weg eines Hurrikans darzustellen
        • Daten aus raumbezogenen Analysen in einem Colab-Notebook visualisieren
        • Rasterdaten zur Temperaturanalyse verwenden
    • Suchdaten
      • Indexierte Daten durchsuchen
      • Mit Textanalysatoren arbeiten
    • Auf Verlaufsdaten zugreifen
  • Mit Abfragen arbeiten
    • Suchanfragen speichern
      • Einführung
      • Gespeicherte Abfragen erstellen
    • Kontinuierliche Abfragen
      • Einführung
      • Kontinuierliche Abfragen erstellen
    • Im Cache gespeicherte Ergebnisse verwenden
    • Sitzungen verwenden
      • Einführung
      • Mit Sitzungen arbeiten
      • Abfragen in Sitzungen schreiben
    • Fehlerbehebung bei Abfragen
    • Abfragen optimieren
      • Einführung
      • Erläuterung eines Abfrageplans verwenden
      • Statistiken zur Abfrageleistung abrufen
      • Abfrageleistung optimieren
      • Verlaufsbasierte Optimierungen verwenden
      • Speicher für die Abfrageleistung optimieren
      • Materialisierte Ansichten verwenden
      • BI Engine verwenden
      • Verschachtelte und wiederkehrende Daten verwenden
      • Funktionen optimieren
      • Erweiterte Laufzeit verwenden
      • Primär- und Fremdschlüssel verwenden
  • Multimodale Daten analysieren
    • Einführung
    • Multimodale Daten mit SQL- und Python-UDFs analysieren
    • Multimodale Daten mit BigQuery DataFrames analysieren
  • Externe Datenquellen abfragen
    • Open-Source-Metadaten mit BigLake Metastore verwalten
      • Einführung
      • Mit Tabellen in BigQuery verwenden
      • Mit Dataproc verwenden
      • Mit Serverless for Apache Spark verwenden
      • Mit Spark-gespeicherten Prozeduren verwenden
      • Metastore-Ressourcen verwalten
      • Tabellen in Spark erstellen und abfragen
      • Mit zusätzlichen Funktionen anpassen
      • Mit dem Iceberg-REST-Katalog verwenden
    • Optimale Daten- und Metadatenformate für Lakehouses
    • Externe Tabellen und Datasets verwenden
      • Amazon S3-Daten
        • Amazon S3-Daten abfragen
        • Abfrageergebnisse nach Amazon S3 exportieren
      • Apache Iceberg-Daten abfragen
      • Offene Tabellenformate mit Manifesten abfragen
      • Azure Blob Storage-Daten
        • Azure Blob Storage-Daten abfragen
        • Abfrageergebnisse in Azure Blob-Speicher exportieren
      • Cloud Bigtable-Daten abfragen
      • Cloud Storage-Daten
        • Cloud Storage-Daten in BigLake-Tabellen abfragen
        • Cloud Storage-Daten in externen Tabellen abfragen
      • Mit Salesforce Data Cloud-Daten arbeiten
      • Google Drive-Daten abfragen
      • Föderierte AWS Glue-Datasets erstellen
      • Externe Spanner-Datasets erstellen
    • Föderierte Abfragen ausführen
      • Föderierte Abfragen
      • SAP Datasphere-Daten abfragen
      • AlloyDB-Daten abfragen
      • Spanner-Daten abfragen
      • Cloud SQL-Daten abfragen
  • Notebooks verwenden
    • Einführung
    • Colab-Notebooks verwenden
      • Einführung
      • Notebooks erstellen
      • Abfrageergebnisse ansehen
      • Spark verwenden
      • Data Science Agent in Colab verwenden
    • DataFrames verwenden
      • Einführung
      • DataFrames verwenden
      • Datentypsystem verwenden
      • Sitzungen und Ein-/Ausgabe verwalten
      • Grafiken visualisieren
      • DataFrames in dbt verwenden
      • Leistung optimieren
    • Jupyter-Notebooks verwenden
      • BigQuery JupyterLab-Plug-in verwenden
  • Analyse- und BI-Tools verwenden
    • Einführung
    • Verbundene Tabellenblätter verwenden
    • Tableau Desktop verwenden
    • Looker verwenden
    • Looker Studio verwenden
    • Tools von Drittanbietern verwende
    • Google Cloud-fähig – BigQuery
      • Übersicht
      • Partner
  • KI und Machine Learning
  • Einführung
  • Generative KI und vortrainierte Modelle
    • End-to-End-Nutzerpfade für generative KI-Modelle
    • Generative KI
      • Übersicht
      • Funktion für die Texterstellung auswählen
      • Integrierte Modelle
        • Das Zeitreihenprognosemodell TimesFM
      • Anleitungen
        • Text generieren
          • Text mit öffentlichen Daten und Gemini generieren
          • Text mit öffentlichen Daten und Gemma generieren
          • Text mit Ihren Daten generieren
          • Kontingentfehler durch iteratives Aufrufen von ML.GENERATE_TEXT verarbeiten
          • Bilder mit einem Gemini-Modell analysieren
          • Textgenerierungsmodelle abstimmen
            • Modell mit Ihren Daten abstimmen
            • Feinabstimmung und Bewertung verwenden, um die Modelleistung zu verbessern
        • Strukturierte Daten generieren
          • Strukturierte Daten generieren
        • Einbettungen generieren
          • Texteinbettungen mit einem LLM generieren
          • Texteinbettungen mit einem offenen Modell generieren
          • Bildeinbettungen mit einem LLM generieren
          • Videoeinbettungen mit einem LLM generieren
          • Kontingentfehler durch iteratives Aufrufen von ML.GENERATE_EMBEDDING verarbeiten
          • Multimodale Einbettungen generieren und suchen
          • Texteinbettungen mit vortrainierten TensorFlow-Modellen generieren
        • Vektorsuche
          • Nach Einbettungen mit Vektorsuche suchen
          • Semantische Suche und Retrieval Augmented Generation durchführen
    • Aufgabenspezifische Lösungen
      • Übersicht
      • Funktion für Natural Language Processing auswählen
      • Funktion für die Dokumentverarbeitung auswählen
      • Anleitungen
        • Natural Language Processing
          • Text verstehen
          • Text übersetzen
        • Dokumentverarbeitung
          • Dokumente verarbeiten
          • PDFs in einer Pipeline für die Retrieval-Augmented-Generation parsen
        • Spracherkennung
          • Audiodateien transkribieren
        • Maschinelles Sehen
          • Bilder annotieren
          • Inferenz für Bilddaten ausführen
          • Bilder mit einem importierten Klassifizierungsmodell analysieren
          • Bilder mit einem importierten Merkmalsvektormodell analysieren
  • Maschinelles Lernen
    • End-to-End-Nutzerpfade für ML-Modelle
    • End-to-End-Nutzerpfade für importierte Modelle
    • ML-Modelle und MLOps
      • Modellerstellung
      • Feature Engineering und ‑Verwaltung
        • Übersicht über die Feature-Vorverarbeitung
        • Unterstützte Eingabefeature-Typen
        • Automatische Vorverarbeitung
        • Manuelle Vorverarbeitung
        • Bereitstellung von Features
        • Feature Engineering mit der TRANSFORM-Klausel durchführen
      • Hyperparameter-Feinabstimmung
      • Modellbewertung – Übersicht
      • Modellinferenz – Übersicht
      • Explainable AI – Übersicht
      • Modellgewichtung – Übersicht
      • ML-Pipelines – Übersicht
      • Modellmonitoring – Übersicht
      • BigQuery ML-Modelle mit Vertex AI verwalten
    • Anwendungsfälle
      • Klassifizierung
      • Regression
      • Dimensionalitätsreduktion
      • Clustering
      • Empfehlung
      • Anomalieerkennung
    • Anleitungen
      • Erste Schritte
        • Erste Schritte mit BigQuery ML über SQL
        • Erste Schritte mit BigQuery ML über die Cloud Console
      • Regression und Klassifizierung
        • Lineares Regressionsmodell erstellen
        • Klassifizierungsmodell für die logistische Regression erstellen
        • Boosted Tree-Klassifikationsmodell erstellen
      • Clustering
        • Daten mit einem k-Means-Modell clustern
      • Empfehlung
        • Empfehlungen basierend auf explizitem Feedback mit einem Matrixfaktorisierungsmodell erstellen
        • Empfehlungen auf Grundlage impliziten Feedbacks mit einem Matrixfaktorisierungsmodell erstellen
      • Anomalieerkennung
        • Anomalieerkennung mit einer multivariaten Zeitreihe
      • Importierte und Remote-Modelle
        • Vorhersagen mit importierten TensorFlow-Modellen erstellen
        • Vorhersagen mit scikit-learn-Modellen im ONNX-Format treffen
        • Vorhersagen mit PyTorch-Modellen im ONNX-Format treffen
        • Vorhersagen mit Remote-Modellen in Vertex AI treffen
      • Hyperparameter-Abstimmung
        • Modellleistung durch Hyperparameter-Abstimmung verbessern
      • Modelle exportieren
        • BigQuery ML-Modell für Onlinevorhersagen exportieren
  • Zeitreihe
    • Übersicht
    • End-to-End-Nutzerpfade für Prognosemodelle
    • Anleitungen