Zum Hauptinhalt springen
Dokumentation
Technologiebereiche
close
KI und ML
Anwendungsentwicklung
Anwendungshosting
Compute
Datenanalyse und Pipelines
Datenbanken
Verteilt, Hybrid und Multi-Cloud
Generative KI
Branchenlösungen
Netzwerk
Beobachtbarkeit und Monitoring
Sicherheit
Storage
Produktübergreifende Tools
close
Zugriffs- und Ressourcenverwaltung
Kosten- und Nutzungsmanagement
Google Cloud SDK, Sprachen, Frameworks und Tools
Infrastruktur als Code
Migration
Verwandte Websites
close
Google Cloud-Startseite
Kostenlose Testversion und kostenlose Stufe
Architecture Center
Blog
Vertrieb kontaktieren
Google Cloud Developer Center
Google Developer Center
Google Cloud Marketplace
Google Cloud Marketplace-Dokumentation
Google Cloud Skills Boost
Google Cloud Solution Center
Google Cloud-Support
Google Cloud Tech-YouTube-Kanal
/
English
Deutsch
Español
Español – América Latina
Français
Indonesia
Italiano
Português
Português – Brasil
中文 – 简体
中文 – 繁體
日本語
한국어
Console
Anmelden
BigQuery
Leitfäden
Referenzen
Beispiele
Ressourcen
Kontakt
Jetzt kostenlos testen
Dokumentation
Leitfäden
Referenzen
Beispiele
Ressourcen
Technologiebereiche
Mehr
Produktübergreifende Tools
Mehr
Verwandte Websites
Mehr
Console
Kontakt
Jetzt kostenlos testen
Erste Schritte
Produktübersicht
BigQuery mit der Sandbox ausprobieren
Los gehts
Konsole ausprobieren
Daten laden und abfragen
DataFrames ausprobieren
Befehlszeilentool testen
Daten laden und abfragen
Clientbibliotheken testen
BigQuery-Tools entdecken
Die Console entdecken
Befehlszeilentool entdecken
Migrieren
Übersicht
Data Warehouse migrieren
Einführung in BigQuery Migration Service
Migrationsbewertung
Schema und Daten migrieren
Datenpipelines migrieren
SQL migrieren
SQL-Abfragen interaktiv übersetzen
SQL-Abfragen mit der API übersetzen
SQL-Abfragen im Batch übersetzen
Metadaten für Übersetzung und Bewertung generieren
SQL-Übersetzungen mit YAML transformieren
SQL-Objektnamen für die Batchübersetzung zuordnen
Migrationsleitfäden
Amazon Redshift
Übersicht über die Migration
Amazon Redshift-Schema und -Daten migrieren
Amazon Redshift-Schema und -Daten migrieren, wenn eine VPC verwendet wird
SQL-Übersetzungsreferenz
Apache Hadoop
Metadaten aus Hadoop für die Migration extrahieren
Berechtigungen aus Hadoop migrieren
Übertragung eines HDFS-Data Lakes planen
Apache Hive
Hive-Migration – Übersicht
Apache Hive-Schema und -Daten migrieren
SQL-Übersetzungsreferenz
IBM Netezza
Von IBM Netezza migrieren
SQL-Übersetzungsreferenz
Oracle
Migrationsanleitung
SQL-Übersetzungsreferenz
Snowflake
Einführung
Snowflake-Übertragung planen
Übersicht über die Migration
SQL-Übersetzungsreferenz
Teradata
Einführung
Übersicht über die Migration
Teradata-Schema und -Daten migrieren
Anleitung für die Migration
SQL-Übersetzungsreferenz
Design
Ressourcen organisieren
API-Abhängigkeiten
Versionen verstehen
Datasets
Einführung
Datasets erstellen
Datasets auflisten
Regionenübergreifende Replikation
Verwaltete Notfallwiederherstellung
Zur verwalteten Notfallwiederherstellung migrieren
Datenaufbewahrung für Datasets
Tabellen
BigQuery-Tabellen
Einführung
Tabellen erstellen und verwenden
BigLake Iceberg-Tabellen in BigQuery
Tabellenschemas angeben
Schema angeben
Verschachtelte und wiederkehrende Spalten angeben
Standardspaltenwerte angeben
ObjectRef-Werte angeben
Mit partitionierten Tabellen segmentieren
Einführung
Partitionierte Tabellen erstellen
Partitionierte Tabellen verwalten
Partitionierte Tabellen abfragen
Mit geclusterten Tabellen optimieren
Einführung
Geclusterte Tabellen erstellen
Geclusterte Tabellen verwalten
Geclusterte Tabellen abfragen
Metadatenindexierung verwenden
Externe Tabellen
Einführung
Typen von externen Tabellen
Externe BigLake-Tabellen
BigQuery Omni
Objekttabellen
Externe Tabellen
Externe Tabellendefinitionsdatei
Extern partitionierte Daten
Metadaten-Caching verwenden
Externe Amazon S3 BigLake-Tabellen
Externe Apache Iceberg-Tabellen
BigLake-Tabellen in Azure Blob Storage
Externe Bigtable-Tabelle
Externe BigLake-Tabellen für Cloud Storage
Cloud Storage-Objekttabellen
Externe Cloud Storage-Tabellen
Delta Lake BigLake-Tabellen
Externe Google Drive-Tabellen
Aufrufe
Logische Ansichten
Einführung
Logische Ansichten erstellen
Materialisierte Ansichten
Einführung
Materialisierte Ansichten erstellen
Alle Ansichtstypen verwalten
Informationen zu Ansichten abrufen
Ansichten verwalten
Routinen
Einführung
Routinen verwalten
Benutzerdefinierte Funktionen
Benutzerdefinierte Funktionen in Python
Benutzerdefinierte Aggregatfunktionen
Tabellenfunktionen
Remote-Funktionen
Gespeicherte SQL-Prozeduren
Gespeicherte Prozeduren für Apache Spark
Objekttabellen mit Remote-Funktionen analysieren
Remote-Funktionen und Translation API – Anleitung
Verbindungen
Einführung
Amazon S3-Verbindung
Apache Spark-Verbindung
Azure Blob Storage-Verbindung
Cloud-Ressourcenverbindung
SpannerConnection
Cloud SQL-Verbindung
AlloyDB-Verbindung
SAP Datasphere-Verbindung
Verbindungen verwalten
Verbindungen mit Netzwerkanhängen konfigurieren
Standardverbindungen
Indexe
Suchindexe
Einführung
Suchindexe verwalten
Vektorindexe
Einführung
Vektorindexe verwalten
Laden, transformieren und exportieren
Einführung
Daten laden
Einführung
Speicheroptionen
BigQuery Data Transfer Service
Einführung
Speicherort und Übertragung von Daten
Übertragungen autorisieren
Übertragungen aktivieren
Netzwerkverbindungen einrichten
Zugriff auf Cloud SQL-Instanzen
AWS-VPN und Netzwerkanhänge
Azure-VPN und Netzwerkanhänge
Übertragungen verwalten
Benachrichtigungen zu Übertragungsausführungen
Fehlerbehebung bei Übertragungskonfigurationen
Dienstkonten verwenden
Drittanbieter-Übertragungen verwenden
Benutzerdefinierte Organisationsrichtlinien verwenden
Änderungsprotokoll der Datenquelle
Ereignisgesteuerte Übertragungen
Anleitungen zu Datenübertragungen
Amazon S3
Einführung
Übertragungen planen
Laufzeitparameter übertragen
Azure Blob Storage
Einführung
Übertragungen planen
Laufzeitparameter übertragen
Campaign Manager
Übertragungen planen
Berichtstransformation
Cloud Storage
Einführung
Übertragungen planen
Laufzeitparameter übertragen
Comparison Shopping Service Center
Einführung
Übertragungen planen
Übertragungsberichtsschema
Display & Video 360
Übertragungen planen
Berichtstransformation
Facebook Ads
Übertragungen planen
Berichtstransformation
Google Ad Manager
Übertragungen planen
Berichtstransformation
Google Ads
Übertragungen planen
Berichtstransformation
Google Analytics 4
Übertragungen planen
Berichtstransformation
Google Merchant Center
Einführung
Übertragungen planen
Daten abfragen
Migrationsleitfäden
Bestseller
Wettbewerbsfähigkeit von Preisen
Übertragungsberichtsschema
Tabelle mit Bestsellern
Tabelle „Lokales Inventar“
Leistungstabelle
Preisvergleichetabelle
Tabelle zur Wettbewerbsfähigkeit von Preisen
Tabelle mit Preisstatistiken
Produktinventartabelle
Produkt-Targeting-Tabelle
Produkttabelle
Regionale Inventartabelle
Tabelle „Top-Marken“
Tabelle „Top-Produkte“
Google Play
Übertragungen planen
Berichtstransformation übertragen
MySQL
Übertragungen planen
Oracle
Übertragungen planen
PostgreSQL
Übertragungen planen
Salesforce
Übertragungen planen
Salesforce Marketing Cloud
Übertragungen planen
Search Ads 360
Übertragungen planen
Berichtstransformation übertragen
Migrationsanleitung
ServiceNow
Übertragungen planen
YouTube-Kanal
Übertragungen planen
Berichtstransformation übertragen
YouTube-Rechteinhaber
Übertragungen planen
Berichtstransformation übertragen
Daten im Batch laden
Einführung
Schemas automatisch erkennen
Avro-Daten laden
Parquet-Daten laden
ORC-Daten laden
CSV-Daten laden
JSON-Daten laden
Extern partitionierte Daten laden
Daten aus einem Datastore-Export laden
Daten aus einem Firestore-Export laden
Daten mit der Storage Write API laden
Daten in partitionierte Tabellen laden
Daten mit der Storage API schreiben und lesen
Daten mit der Storage Read API lesen
Daten mit der Storage Write API schreiben
Einführung
Daten mit der Storage Write API streamen
Daten mit der Storage Write API im Batch laden
Best Practices
Unterstützte Protokollzwischenspeicher- und Arrow-Datentypen
Updates mit Change Data Capture streamen
Legacy-Streaming-API verwenden
Daten aus anderen Google-Diensten laden
Cloud Storage-Daten finden und katalogisieren
Daten mit Drittanbieteranwendungen laden
Daten mit cloudübergreifenden Vorgängen laden
Daten transformieren
Einführung
Daten vorbereiten
Einführung
Daten mit Gemini vorbereiten
Mit DML transformieren
Daten in partitionierten Tabellen transformieren
Änderungsverlauf verwenden
Daten mit Pipelines transformieren
Einführung
Pipelines erstellen
Daten exportieren
Einführung
Abfrageergebnisse exportieren
Nach Cloud Storage exportieren
Nach Bigtable exportieren
In Spanner exportieren
Nach Pub/Sub exportieren
Als Protobuf-Spalten exportieren
Analysieren
Einführung
Nach Ressourcen suchen
Meine Daten erkunden
Abfragen mit dem Tabellen-Explorer erstellen
Datenprofil erstellen:
Datenstatistiken generieren
Mit einem Data Canvas analysieren
Daten mit Gemini analysieren
BigQuery-Daten abfragen
Abfrage ausführen
Abfragen mit Gemini schreiben
Abfrageergebnisse schreiben
Daten mit SQL abfragen
Einführung
Arrays
JSON-Daten
Abfragen mit mehreren Anweisungen
Parametrisierte Abfragen
Pipe-Syntax
Daten mithilfe der Pipe-Syntax analysieren
Rekursive CTEs
Sketche
Tabellenstichproben
Zeitreihe
Transaktionen
Platzhaltertabellen
Raumbezogene Analysen verwenden
Einführung
Mit raumbezogenen Analysen arbeiten
Mit Rasterdaten arbeiten
Best Practices für räumliche Analysen
Geodaten darstellen
Grid-Systeme für räumliche Analysen
Syntaxreferenz für raumbezogene Analysen
Anleitungen für raumbezogene Analysen
Erste Schritte mit raumbezogenen Analysen
Verwenden Sie raumbezogene Analysen, um den Weg eines Hurrikans darzustellen
Daten aus raumbezogenen Analysen in einem Colab-Notebook visualisieren
Rasterdaten zur Temperaturanalyse verwenden
Suchdaten
Indexierte Daten durchsuchen
Mit Textanalysatoren arbeiten
Auf Verlaufsdaten zugreifen
Mit Abfragen arbeiten
Suchanfragen speichern
Einführung
Gespeicherte Abfragen erstellen
Kontinuierliche Abfragen
Einführung
Kontinuierliche Abfragen erstellen
Im Cache gespeicherte Ergebnisse verwenden
Sitzungen verwenden
Einführung
Mit Sitzungen arbeiten
Abfragen in Sitzungen schreiben
Fehlerbehebung bei Abfragen
Abfragen optimieren
Einführung
Erläuterung eines Abfrageplans verwenden
Statistiken zur Abfrageleistung abrufen
Abfrageleistung optimieren
Verlaufsbasierte Optimierungen verwenden
Speicher für die Abfrageleistung optimieren
Materialisierte Ansichten verwenden
BI Engine verwenden
Verschachtelte und wiederkehrende Daten verwenden
Funktionen optimieren
Erweiterte Laufzeit verwenden
Primär- und Fremdschlüssel verwenden
Multimodale Daten analysieren
Einführung
Multimodale Daten mit SQL- und Python-UDFs analysieren
Multimodale Daten mit BigQuery DataFrames analysieren
Externe Datenquellen abfragen
Open-Source-Metadaten mit BigLake Metastore verwalten
Einführung
Mit Tabellen in BigQuery verwenden
Mit Dataproc verwenden
Mit Serverless for Apache Spark verwenden
Mit Spark-gespeicherten Prozeduren verwenden
Metastore-Ressourcen verwalten
Tabellen in Spark erstellen und abfragen
Mit zusätzlichen Funktionen anpassen
Mit dem Iceberg-REST-Katalog verwenden
Optimale Daten- und Metadatenformate für Lakehouses
Externe Tabellen und Datasets verwenden
Amazon S3-Daten
Amazon S3-Daten abfragen
Abfrageergebnisse nach Amazon S3 exportieren
Apache Iceberg-Daten abfragen
Offene Tabellenformate mit Manifesten abfragen
Azure Blob Storage-Daten
Azure Blob Storage-Daten abfragen
Abfrageergebnisse in Azure Blob-Speicher exportieren
Cloud Bigtable-Daten abfragen
Cloud Storage-Daten
Cloud Storage-Daten in BigLake-Tabellen abfragen
Cloud Storage-Daten in externen Tabellen abfragen
Mit Salesforce Data Cloud-Daten arbeiten
Google Drive-Daten abfragen
Föderierte AWS Glue-Datasets erstellen
Externe Spanner-Datasets erstellen
Föderierte Abfragen ausführen
Föderierte Abfragen
SAP Datasphere-Daten abfragen
AlloyDB-Daten abfragen
Spanner-Daten abfragen
Cloud SQL-Daten abfragen
Notebooks verwenden
Einführung
Colab-Notebooks verwenden
Einführung
Notebooks erstellen
Abfrageergebnisse ansehen
Spark verwenden
Data Science Agent in Colab verwenden
DataFrames verwenden
Einführung
DataFrames verwenden
Datentypsystem verwenden
Sitzungen und Ein-/Ausgabe verwalten
Grafiken visualisieren
DataFrames in dbt verwenden
Leistung optimieren
Jupyter-Notebooks verwenden
BigQuery JupyterLab-Plug-in verwenden
Analyse- und BI-Tools verwenden
Einführung
Verbundene Tabellenblätter verwenden
Tableau Desktop verwenden
Looker verwenden
Looker Studio verwenden
Tools von Drittanbietern verwende
Google Cloud-fähig – BigQuery
Übersicht
Partner
KI und Machine Learning
Einführung
Generative KI und vortrainierte Modelle
End-to-End-Nutzerpfade für generative KI-Modelle
Generative KI
Übersicht
Funktion für die Texterstellung auswählen
Integrierte Modelle
Das Zeitreihenprognosemodell TimesFM
Anleitungen
Text generieren
Text mit öffentlichen Daten und Gemini generieren
Text mit öffentlichen Daten und Gemma generieren
Text mit Ihren Daten generieren
Kontingentfehler durch iteratives Aufrufen von ML.GENERATE_TEXT verarbeiten
Bilder mit einem Gemini-Modell analysieren
Textgenerierungsmodelle abstimmen
Modell mit Ihren Daten abstimmen
Feinabstimmung und Bewertung verwenden, um die Modelleistung zu verbessern
Strukturierte Daten generieren
Strukturierte Daten generieren
Einbettungen generieren
Texteinbettungen mit einem LLM generieren
Texteinbettungen mit einem offenen Modell generieren
Bildeinbettungen mit einem LLM generieren
Videoeinbettungen mit einem LLM generieren
Kontingentfehler durch iteratives Aufrufen von ML.GENERATE_EMBEDDING verarbeiten
Multimodale Einbettungen generieren und suchen
Texteinbettungen mit vortrainierten TensorFlow-Modellen generieren
Vektorsuche
Nach Einbettungen mit Vektorsuche suchen
Semantische Suche und Retrieval Augmented Generation durchführen
Aufgabenspezifische Lösungen
Übersicht
Funktion für Natural Language Processing auswählen
Funktion für die Dokumentverarbeitung auswählen
Anleitungen
Natural Language Processing
Text verstehen
Text übersetzen
Dokumentverarbeitung
Dokumente verarbeiten
PDFs in einer Pipeline für die Retrieval-Augmented-Generation parsen
Spracherkennung
Audiodateien transkribieren
Maschinelles Sehen
Bilder annotieren
Inferenz für Bilddaten ausführen
Bilder mit einem importierten Klassifizierungsmodell analysieren
Bilder mit einem importierten Merkmalsvektormodell analysieren
Maschinelles Lernen
End-to-End-Nutzerpfade für ML-Modelle
End-to-End-Nutzerpfade für importierte Modelle
ML-Modelle und MLOps
Modellerstellung
Feature Engineering und ‑Verwaltung
Übersicht über die Feature-Vorverarbeitung
Unterstützte Eingabefeature-Typen
Automatische Vorverarbeitung
Manuelle Vorverarbeitung
Bereitstellung von Features
Feature Engineering mit der TRANSFORM-Klausel durchführen
Hyperparameter-Feinabstimmung
Modellbewertung – Übersicht
Modellinferenz – Übersicht
Explainable AI – Übersicht
Modellgewichtung – Übersicht
ML-Pipelines – Übersicht
Modellmonitoring – Übersicht
BigQuery ML-Modelle mit Vertex AI verwalten
Anwendungsfälle
Klassifizierung
Regression
Dimensionalitätsreduktion
Clustering
Empfehlung
Anomalieerkennung
Anleitungen
Erste Schritte
Erste Schritte mit BigQuery ML über SQL
Erste Schritte mit BigQuery ML über die Cloud Console
Regression und Klassifizierung
Lineares Regressionsmodell erstellen
Klassifizierungsmodell für die logistische Regression erstellen
Boosted Tree-Klassifikationsmodell erstellen
Clustering
Daten mit einem k-Means-Modell clustern
Empfehlung
Empfehlungen basierend auf explizitem Feedback mit einem Matrixfaktorisierungsmodell erstellen
Empfehlungen auf Grundlage impliziten Feedbacks mit einem Matrixfaktorisierungsmodell erstellen
Anomalieerkennung
Anomalieerkennung mit einer multivariaten Zeitreihe
Importierte und Remote-Modelle
Vorhersagen mit importierten TensorFlow-Modellen erstellen
Vorhersagen mit scikit-learn-Modellen im ONNX-Format treffen
Vorhersagen mit PyTorch-Modellen im ONNX-Format treffen
Vorhersagen mit Remote-Modellen in Vertex AI treffen
Hyperparameter-Abstimmung
Modellleistung durch Hyperparameter-Abstimmung verbessern
Modelle exportieren
BigQuery ML-Modell für Onlinevorhersagen exportieren
Zeitreihe
Übersicht
End-to-End-Nutzerpfade für Prognosemodelle
Anleitungen