Referensi alat command line bq
Dokumen ini menjelaskan sintaksis, perintah, flag, dan argumen untuk bq
, alat command line BigQuery.
Panduan ini ditujukan bagi pengguna yang sudah terbiasa dengan BigQuery, tetapi ingin mengetahui cara menggunakan perintah alat command line bq tertentu.
Untuk mengetahui informasi umum tentang cara menggunakan alat command line bq, lihat
Menggunakan alat command line bq.
Synopsis
Alat command line bq menggunakan format berikut:
bq COMMAND [FLAGS] [ARGUMENTS]
Beberapa flag dapat digunakan dengan beberapa perintah alat command line bq; flag ini dijelaskan di bagian Flag global.
Flag lainnya bersifat khusus perintah; hanya dapat digunakan dengan perintah alat command line bq tertentu. Flag khusus perintah dijelaskan di bagian perintah.
Flag Boolean
Beberapa flag alat command line bq berupa boolean; Anda dapat menetapkan nilai flag ke
true
atau false
.
Alat command line bq menerima format berikut untuk menyetel flag boolean.
Nilai | Format | Contoh |
---|---|---|
true |
--FLAGNAME=true |
--debug_mode=true |
true |
--FLAGNAME |
--debug_mode |
false |
--FLAGNAME=false |
--debug_mode=false |
false |
--noFLAGNAME |
--nodebug_mode |
Dokumen ini menggunakan format --FLAGNAME=VALUE
untuk flag boolean.
Semua flag boolean bersifat opsional; jika flag boolean tidak ada, BigQuery akan menggunakan nilai default flag tersebut.
Menentukan nilai untuk flag
Saat Anda menentukan nilai untuk flag, flag sama dengan (=
) bersifat opsional. Misalnya, dua perintah berikut bersifat setara:
bq ls --format prettyjson myDataset bq ls --format=prettyjson myDataset
Dokumen ini menggunakan flag sama dengan agar lebih jelas.
Bantuan online
Dokumentasi tersedia di alat command line bq, sebagai berikut:
Deskripsi | Format perintah bantuan | Contoh |
---|---|---|
Daftar semua perintah dengan contoh | bq help |
bq help |
Deskripsi flag global | bq --help |
bq --help |
Deskripsi perintah tertentu | bq help COMMAND |
bq help mk |
Spesifikasi resource
Format untuk menentukan resource bergantung pada konteksnya; dalam beberapa kasus,
pemisah antara project dan set data adalah titik dua (:
), dan dalam beberapa kasus,
pemisah antara project dan set data adalah titik (.
). Tabel berikut menjelaskan cara menentukan tabel BigQuery dalam konteks yang berbeda.
Konteks | Format | Contoh |
---|---|---|
alat command line bq | PROJECT:DATASET.TABLE |
myProject:myDataset.myTable |
Kueri GoogleSQL | PROJECT.DATASET.TABLE |
myProject.myDataset.myTable |
Kueri SQL lama | PROJECT:DATASET.TABLE |
myProject:myDataset.myTable |
Jika Anda tidak menentukan project, BigQuery akan menggunakan project saat ini. Misalnya, jika project saat ini adalah myProject
, BigQuery akan menafsirkan myDataset.myTable
sebagai myProject:myDataset.myTable
(atau myProject.myDataset.myTable
).
Beberapa ID resource harus dikutip menggunakan tanda petik terbalik (`
).
Jika ID resource Anda diawali dengan huruf atau karakter garis bawah, dan
hanya berisi karakter berupa huruf, angka, serta garis bawah, Anda tidak
perlu mengutipnya. Namun, jika ID resource Anda
berisi jenis karakter
lain, atau kata kunci khusus, Anda harus mengapit ID (atau
bagian ID dengan karakter khusus atau kata kunci khusus) dengan
tanda petik terbalik. Untuk mengetahui informasi selengkapnya, lihat ID.
Flag global
Anda dapat menggunakan flag berikut dengan perintah bq
, jika berlaku:
--api=ENDPOINT
- Menentukan endpoint API yang akan dipanggil. Nilai defaultnya adalah
https://www.googleapis.com
. --api_version=VERSION
- Menentukan versi API yang akan digunakan. Defaultnya adalah
v2
. --apilog=FILE
Mencatat semua permintaan dan respons API ke file yang ditentukan oleh
FILE
. Nilai yang memungkinkan adalah sebagai berikut:- jalur ke file - mencatat ke file yang ditentukan
stdout
- mencatat ke output standarstderr
- mencatat ke error standarfalse
- Permintaan dan respons API tidak dicatat (default)
--use_google_auth={true|false}
Jika ditetapkan ke
true
, autentikasi menggunakan library Google Auth akan diaktifkan. Nilai defaultnya adalahtrue
.--bigqueryrc=PATH
Menentukan jalur ke file konfigurasi alat command line bq. Jika Anda tidak menentukan flag
--bigqueryrc
, perintah akan menggunakan variabel lingkunganBIGQUERYRC
. Jika variabel lingkungan tidak ditetapkan,$HOME/.bigqueryrc
akan digunakan. Jika file tersebut tidak ada,~/.bigqueryrc
akan digunakan. Untuk informasi selengkapnya, lihat Menetapkan nilai default untuk flag command line.--ca_certificates_file=PATH
Menentukan lokasi Certificate Authority Service (CA) Anda.
--dataset_id=DATASET_ID
Menentukan set data default yang akan digunakan dengan perintah. Flag ini diabaikan jika tidak berlaku. Anda dapat menentukan argumen
DATASET_ID
menggunakan formatPROJECT:DATASET
atauDATASET
. Jika bagianPROJECT
tidak ada, project default akan digunakan. Anda dapat mengganti setelan project default dengan menentukan flag--project_id
.--debug_mode={true|false}
Jika ditetapkan ke
true
, akan menampilkan traceback pada pengecualian Python. Nilai defaultnya adalahfalse
.--disable_ssl_validation={true|false}
Jika ditetapkan ke
true
, validasi sertifikat HTTPS akan diaktifkan. Nilai defaultnya adalahfalse
.--discovery_file=PATH
Menentukan file JSON yang akan dibaca untuk penemuan.
--enable_gdrive={true|false}
Jika ditetapkan ke
false
, meminta token OAuth baru tanpa cakupan Google Drive. Nilai defaultnya adalahtrue
; meminta token OAuth baru dengan cakupan Drive. Untuk menyetel flag ini kefalse
saat diautentikasi menggunakan akun pengguna, flag--use_google_auth
harus disetel kefalse
.--fingerprint_job_id={true|false}
Untuk menggunakan ID tugas yang berasal dari sidik jari konfigurasi tugas, tetapkan ke
true
. Hal ini mencegah tugas yang sama berjalan beberapa kali secara tidak sengaja. Nilai defaultnya adalahfalse
.--format=FORMAT
Menentukan format output perintah. Gunakan salah satu nilai berikut:
pretty
: output tabel berformatsparse
: output tabel lebih sederhanaprettyjson
: format JSON yang mudah dibacajson
: JSON yang sangat rapatcsv
: format csv dengan header
pretty
,sparse
, danprettyjson
dtiujukan agar dapat dibaca manusia.json
dancsv
ditujukan untuk digunakan oleh program lain. Jikanone
dipilih, perintah tidak akan menghasilkan output. Jika flag--format
tidak ada, format output yang sesuai akan dipilih berdasarkan perintah tersebut.--headless={true|false}
Untuk menjalankan sesi
bq
tanpa interaksi pengguna, tetapkan ketrue
. Misalnya,debug_mode
tidak menembus debugger, dan frekuensi pencetakan informasi akan diturunkan. Nilai defaultnya adalahfalse
.--httplib2_debuglevel=DEBUG_LEVEL
Menentukan apakah informasi proses debug HTTP akan ditampilkan atau tidak. Jika
DEBUG_LEVEL
lebih besar dari0
, selain pesan error, perintah tersebut akan mencatat permintaan dan respons server HTTP ke stderr. JikaDEBUG_LEVEL
tidak > 0, atau jika flag--httplib2_debuglevel
tidak digunakan, hanya pesan error yang akan diberikan.Contoh:
--httplib2_debuglevel=1
--job_id=JOB_ID
Menentukan ID tugas untuk tugas baru. Flag ini hanya berlaku untuk perintah yang membuat tugas:
cp
,extract
,load
, danquery
. Jika Anda tidak menggunakan flag--job_id
, perintah akan menghasilkan ID tugas yang unik. Untuk informasi selengkapnya, lihat Menjalankan tugas secara terprogram.--job_property=KEY:VALUE
Key-value pair yang akan disertakan di kolom properti dari konfigurasi tugas. Ulangi flag ini untuk menentukan properti tambahan.
--location=LOCATION
String yang sesuai dengan lokasi region atau multi-region. Flag lokasi diperlukan untuk perintah
bq cancel
dan perintahbq show
ketika Anda menggunakan--jobs
untuk menampilkan informasi tentang tugas. Flag lokasi sifatnya opsional untuk perintah berikut:query
cp
load
extract
partition
update
wait
mk
saat Anda menggunakan flag--dataset
,--reservation
,--capacity_commitment
, atau--reservation_assignment
ls
saat Anda menggunakan flag--reservation
,--capacity_commitment
, atau--reservation_assignment
Semua perintah lain mengabaikan flag
--location
.--max_rows_per_request=MAX_ROWS
Bilangan bulat yang menentukan jumlah maksimum baris yang ditampilkan per pembacaan.
--project_id=PROJECT
Menentukan project yang akan digunakan untuk perintah.
--proxy_address=PROXY
Menentukan nama atau alamat IP host proxy yang akan digunakan untuk terhubung ke Google Cloud.
--proxy_password=PASSWORD
Menentukan kata sandi yang akan digunakan saat mengautentikasi dengan host proxy.
--proxy_port=PORT
Menentukan nomor port yang akan digunakan untuk terhubung ke host proxy.
--proxy_username=USERNAME
Menentukan nama pengguna yang akan digunakan saat melakukan autentikasi dengan host proxy.
--quiet={true|false}
atau-q={true|false}
Untuk menyembunyikan update status saat tugas sedang berjalan, tetapkan ke
true
. Nilai defaultnya adalahfalse
.--synchronous_mode={true|false}
atau-sync={true|false}
Untuk membuat tugas dan segera menghasilkan, dengan status penyelesaian berhasil sebagai kode error, tetapkan ke
false
. Jika ditetapkan ketrue
, perintah akan menunggu hingga tugas selesai sebelum memberi hasil , dan menampilkan status penyelesaian tugas sebagai kode error. Nilai defaultnya adalahtrue
.--trace=token:TOKEN
Menentukan token rekaman aktivitas yang akan disertakan dalam permintaan API.
--use_regional_endpoints={true|false}
Di pratinjau. Untuk terhubung ke endpoint regional, tetapkan flag
--use_regional_endpoints
ketrue
dan flag--location
ke region yang ingin Anda hubungkan. Nilai defaultnya adalahfalse
.
Flag global yang tidak digunakan lagi
Flag global berikut, yang digunakan untuk menentukan flag alat command line bq dari file
tidak digunakan lagi. Untuk menentukan flag dari file, gunakan flag --bigqueryrc
.
--flagfile=PATH
Jika ditentukan, definisi flag dari file yang disediakan akan disisipkan
ke dalam
alat command line bq. Nilai defaultnya adalah ''
. Untuk informasi selengkapnya, lihat
Menetapkan nilai default untuk flag command line.
Perintah
Bagian berikut menjelaskan perintah alat command line bq, beserta flag dan argumen khusus perintahnya.
bq add-iam-policy-binding
Gunakan perintah bq add-iam-policy-binding
untuk mengambil kebijakan Identity and Access Management (IAM) untuk tabel atau tampilan dan menambahkan binding ke kebijakan tersebut, dalam satu langkah.
Perintah ini adalah alternatif untuk proses tiga langkah berikut:
- Menggunakan perintah
bq get-iam-policy
untuk mengambil file kebijakan (dalam format JSON). - Mengedit file kebijakan.
- Menggunakan perintah
bq set-iam-policy
untuk memperbarui kebijakan dengan binding baru.
Synopsis
bq add-iam-policy-binding [FLAGS] --member=MEMBER_TYPE:MEMBER --role=ROLE [--table] RESOURCE
Contoh
bq add-iam-policy-binding --member=user:[email protected] \ --role=roles/bigquery.dataViewer myDataset.myTable
Flag dan argumen
Perintah bq add-iam-policy-binding
menggunakan flag dan
argumen berikut:
--member=MEMBER_TYPE:MEMBER
Wajib. Gunakan flag
--member
untuk menentukan bagian anggota dari binding kebijakan IAM. Flag--member
diperlukan bersama dengan flag--role
. Satu kombinasi flag--member
dan--role
sama dengan satu binding.Nilai
MEMBER_TYPE
menentukan jenis anggota dalam binding kebijakan IAM. Gunakan salah satu nilai berikut:user
serviceAccount
group
domain
Nilai
MEMBER
menentukan alamat email atau domain anggota dalam binding kebijakan IAM.--role=ROLE
Wajib. Menentukan bagian peran dari binding kebijakan IAM. Flag
--role
diperlukan bersama dengan flag--member
. Satu kombinasi flag--member
dan--role
sama dengan satu binding.--table={true|false}
Untuk menampilkan error jika argumen
RESOURCE
bukan tabel atau ID tampilan, tetapkan flag--table
ketrue
. Nilai defaultnya adalahfalse
. Flag ini didukung agar konsisten dengan perintah lainnya.RESOURCE
Tabel atau tampilan kebijakan yang ingin Anda tambahkan.
Untuk informasi selengkapnya, baca referensi kebijakan IAM.
bq cancel
Gunakan perintah bq cancel
untuk membatalkan tugas BigQuery.
Synopsis
bq [--synchronous_mode=false] cancel JOB_ID
Contoh
bq cancel bqjob_12345
bq --synchronous_mode=false cancel bqjob_12345
Flag dan argumen
Perintah bq cancel
menggunakan flag dan argumen berikut:
--synchronous_mode=false
- Jika Anda tidak ingin menunggu perintah
bq cancel
selesai ,tetapkan flag global--synchronous_mode
kefalse
. Defaultnya adalahtrue
. JOB_ID
- Tugas yang ingin Anda batalkan.
Untuk informasi selengkapnya tentang penggunaan perintah bq cancel
, lihat
Mengelola tugas.
bq cp
Gunakan perintah bq cp
untuk tugas berikut:
- Membuat salinan tabel, clone tabel, atau snapshot tabel.
- Membuat clone tabel.
- Membuat snapshot tabel.
Synopsis
bq cp [FLAGS] SOURCE_TABLE DESTINATION_TABLE
Contoh
bq cp myDataset.myTable myDataset.myTableCopy
Flag dan argumen
Perintah bq cp
menggunakan flag dan argumen berikut:
--append_table={true|false}
atau-a={true|false}
Untuk menambahkan tabel ke tabel yang sudah ada, tetapkan ke
true
Nilai defaultnya adalahfalse
.Anda tidak dapat menggunakan setelan flag
--append_table=true
dan--clone=true
secara bersamaan.--clone={true|false}
Untuk membuat clone tabel, tetapkan ke
true
. Tabel dasar dapat berupa tabel standar, clone tabel, atau snapshot tabel. Tabel tujuannya adalah clone tabel. Nilai default-nya adalahfalse
; jika--clone=true
atau--snapshot=true
tidak ditentukan, tabel tujuan akan sama dengan jenis tabel yang sama dengan tabel dasar. Memerlukan flag--no_clobber
.Anda tidak dapat menggunakan setelan flag
--append_table=true
dan--clone=true
secara bersamaan.--destination_kms_key=KEY
Menentukan ID resource kunci Cloud KMS untuk mengenkripsi data tabel tujuan.
Contoh:
--destination_kms_key=projects/myProject/locations/global/keyRings/myKeyRing/cryptoKeys/myKey
--expiration=SECONDS
Jumlah detik hingga snapshot tabel berakhir masa berlakunya. Jika tidak disertakan, masa berlaku snapshot tabel akan ditetapkan ke masa berlaku default set data yang berisi snapshot tabel baru. Gunakan dengan flag
--snapshot
.--force={true|false}
atau-f={true|false}
Untuk menimpa tabel tujuan, jika ada, tanpa perlu konfirmasi, tetapkan ke
true
. Nilai defaultnya adalahfalse
; jika tabel tujuan ada, maka perintah itu meminta konfirmasi sebelum menimpanya.--no_clobber={true|false}
atau-n={true|false}
Untuk melarang penimpaan tabel tujuan, jika tabelnya ada, tetapkan ke
true
. Nilai defaultnya adalahfalse
; jika tabel tujuan ada, maka tabel itu akan ditimpa.--restore={true|false}
Flag ini tidak digunakan lagi. Untuk membuat tabel yang dapat ditulisi dari snapshot tabel, gunakan perintah
bq cp
atau perintahbq cp --clone
.--snapshot={true|false}
Untuk membuat snapshot tabel dari tabel yang ditentukan dalam argumen
SOURCE_TABLE
, tetapkan ketrue
. Tabel dasar dapat berupa tabel standar, clone tabel, atau snapshot tabel lainnya. Nilai default-nya adalahfalse
; jika--clone=true
atau--snapshot=true
tidak ditentukan, tabel tujuan akan sama dengan jenis tabel yang sama dengan tabel dasar. Memerlukan flag--no_clobber
.SOURCE_TABLE
Tabel yang ingin disalin.
DESTINATION_TABLE
Tabel yang ingin Anda timpa dengan salinan.
Untuk informasi selengkapnya tentang penggunaan perintah cp
, lihat referensi berikut:
bq extract
Gunakan perintah bq extract
untuk mengekspor data tabel ke Cloud Storage.
Synopsis
bq extract [FLAGS] RESOURCE DESTINATION
Contoh
bq extract --compression=GZIP --destination_format=CSV --field_delimiter=tab \ --print_header=false myDataset.myTable gs://my-bucket/myFile.csv.gzip
bq extract --destination_format=CSV --field_delimiter='|' myDataset.myTable \ gs://myBucket/myFile.csv
Flag dan argumen
Perintah bq extract
menggunakan flag dan argumen berikut:
--compression=COMPRESSION_TYPE
Menentukan jenis kompresi yang akan digunakan untuk file yang diekspor. Nilai yang mungkin adalah sebagai berikut:
GZIP
DEFLATE
SNAPPY
NONE
Nilai defaultnya adalah
NONE
.Untuk mengetahui informasi tentang format yang didukung untuk setiap jenis kompresi, lihat Mengekspor format dan jenis kompresi.
--destination_format=FORMAT
Menentukan format untuk data yang diekspor. Nilai yang mungkin adalah sebagai berikut:
CSV
NEWLINE_DELIMITED_JSON
AVRO
PARQUET
Nilai defaultnya adalah
CSV
.--field_delimiter=DELIMITER
Untuk ekspor CSV, tentukan karakter yang menandai batas antarkolom dalam file output. Pembatas dapat berupa karakter byte tunggal ISO-8859-1. Anda dapat menggunakan
\t
atautab
untuk menentukan pemisah tab.--print_header={true|false}
Untuk menyembunyikan baris header pencetakan untuk format yang memiliki header, tetapkan ke
false
. Nilai default-nya adalahtrue
; baris header disertakan.RESOURCE
Tabel asal ekspor data.
DESTINATION
Lokasi penyimpanan yang menerima data yang diekspor.
Untuk informasi selengkapnya tentang penggunaan perintah bq extract
, lihat
Mengekspor data tabel.
bq get-iam-policy
Gunakan perintah bq get-iam-policy
untuk mengambil kebijakan IAM untuk resource dan mencetaknya ke stdout
. Aset dapat berupa tabel, tampilan, atau
pemesanan slot.
Kebijakan ini menggunakan format JSON.
Synopsis
bq get-iam-policy [FLAGS] RESOURCE
Contoh
bq get-iam-policy myDataset.myTable
bq get-iam-policy --reservation myReservation
Flag dan argumen
Perintah bq get-iam-policy
menggunakan flag dan argumen berikut:
--table={true|false}
atau--t={true|false}
- Untuk menampilkan error jika
RESOURCE
bukan tabel atau ID tampilan, tetapkan flag--table
ketrue
. Nilai defaultnya adalahfalse
. Flag ini didukung agar konsisten dengan perintah lainnya. --reservation={true|false}
- Untuk mendapatkan kebijakan IAM reservasi, tetapkan ke
true
(Pratinjau). Nilai defaultnya adalahfalse
. Jika flag ini digunakan,RESOURCE
akan diperlakukan sebagai ID reservasi. Pemesanan dapat memiliki awalan project dan lokasi opsional:myProject:myLocation.myReservation
. RESOURCE
- Tabel atau tampilan yang kebijakannya ingin Anda dapatkan.
Untuk informasi selengkapnya tentang perintah bq get-iam-policy
, lihat
Mengontrol akses ke aset dengan IAM.
bq head
Gunakan perintah bq head
untuk menampilkan baris dan kolom tabel yang ditentukan.
Secara default, semua kolom dari 100 baris pertama akan ditampilkan.
Synopsis
bq head [FLAGS] [TABLE]
Contoh
bq head --max_rows=10 --start_row=50 --selected_fields=field1,field3 \ myDataset.myTable
Flag dan argumen
Perintah bq head
menggunakan flag dan argumen berikut:
--job=JOB or -j=JOB
- Untuk membaca hasil tugas kueri, tentukan flag ini dengan ID tugas yang valid.
--max_rows=MAX or -n=MAX
- Bilangan bulat yang menunjukkan jumlah maksimum baris yang akan dicetak saat
menampilkan data tabel. Nilai defaultnya adalah
100
. --selected_fields=COLUMN_NAMES or -c=COLUMN_NAMES
- Daftar yang dipisahkan koma yang menentukan subset kolom (termasuk kolom bertingkat dan berulang) yang akan ditampilkan saat menampilkan data tabel. Jika flag ini tidak ditentukan, semua kolom akan ditampilkan.
--start_row=START_ROW or -s=START_ROW
- Bilangan bulat yang menentukan jumlah baris yang harus dilewati
sebelum menampilkan data tabel. Nilai defaultnya adalah
0
; data tabel dimulai di baris pertama. --table={true|false}
atau-t={true|false}
- Untuk menampilkan error jika argumen perintah bukan berupa
tabel atau tampilan, tetapkan ke
true
. Nilai defaultnya adalahfalse
. Flag ini didukung agar konsisten dengan perintah lainnya. TABLE
- Tabel yang datanya ingin Anda ambil.
Untuk informasi selengkapnya tentang penggunaan perintah bq head
, lihat
Mengelola data tabel.
bq help
Gunakan perintah bq help
untuk menampilkan dokumentasi alat command line bq dalam alat tersebut.
Synopsis
bq help [COMMAND]
Flag dan argumen
Perintah bq help
menggunakan flag dan argumen berikut:
COMMAND
- Menentukan perintah alat command line bq tertentu yang ingin Anda dapatkan bantuan onlinenya.
bq insert
Gunakan perintah bq insert
untuk menyisipkan baris data berformat JSON yang dibatasi baris baru ke dalam tabel dari file menggunakan streaming insert. Jenis data dikonversi agar sesuai dengan jenis kolom tabel tujuan. Perintah ini hanya dimaksudkan untuk tujuan pengujian. Untuk melakukan streaming data ke BigQuery, gunakan metode API insertAll
.
Synopsis
bq insert [FLAGS] TABLE FILE
Contoh
bq insert --ignore_unknown_values --template_suffix=_insert myDataset.myTable /tmp/myData.json
echo '{"a":1, "b":2}' | bq insert myDataset.myTable
Flag dan argumen
Perintah bq insert
menggunakan flag dan argumen berikut:
--ignore_unknown_values={true|false}
atau-i={true|false}
- Jika ditetapkan ke
true
, BigQuery akan mengabaikan semua key-value pair yang tidak cocok dengan skema tabel, dan akan menyisipkan baris dengan data yang cocok dengan skema. Jika ditetapkan kefalse
, baris dengan data yang tidak cocok dengan skema tabel tidak akan disisipkan. Defaultnya adalahfalse
. --skip_invalid_rows={true|false}
atau-s={true|false}
- Jika ditetapkan ke
true
, BigQuery akan mencoba menyisipkan baris yang valid, meskipun ada baris yang tidak valid. Jika ditetapkan kefalse
, perintah akan gagal jika ada baris yang tidak valid. Defaultnya adalahfalse
. --template_suffix=SUFFIX or -x=SUFFIX
- Jika ditentukan, perlakukan TABLE tabel tujuan sebagai
template dasar, lalu sisipkan baris ke dalam tabel instance bernama
{destination}{templateSuffix}
. BigQuery membuat tabel instance menggunakan skema template dasar. TABLE
- Tabel tempat Anda ingin memasukkan data.
FILE
- File yang berisi data yang ingin Anda sisipkan.
Untuk mengetahui informasi selengkapnya tentang penggunaan perintah bq insert
, lihat
Streaming data ke BigQuery.
bq load
Gunakan perintah bq load
untuk memuat data ke dalam tabel.
Synopsis
bq load [FLAGS] DESTINATION_TABLE SOURCE_DATA [SCHEMA]
Contoh
bq load myDataset.newTable gs://mybucket/info.csv ./info_schema.json
Flag dan argumen
Perintah bq load
menggunakan flag dan argumen berikut:
--allow_jagged_rows={true|false}
- Untuk mengizinkan kolom opsional di akhir yang tidak ada dalam data CSV, tetapkan ke
true
. --preserve_ascii_control_characters={true|false}
- Untuk mengizinkan karakter kontrol ASCII yang disematkan dalam data CSV, tetapkan ke
true
. --allow_quoted_newlines={true|false}
- Untuk mengizinkan baris baru yang dikutip dalam data CSV, tetapkan ke
true
--autodetect={true|false}
- Untuk mengaktifkan deteksi otomatis skema untuk data CSV dan JSON, tetapkan ke
true
. Defaultnya adalahfalse
. Jika--autodetect
adalahfalse
, dan tidak ada skema yang ditentukan menggunakan flag--schema
, dan tabel tujuan ada, skema tabel tujuan akan digunakan. --clustering_fields=COLUMNS
- Daftar yang dipisahkan koma berisi empat nama kolom yang menentukan kolom yang akan digunakan untuk pengelompokan tabel.
--column_name_character_map=SCOPE
- Menentukan cakupan dan penanganan
karakter dalam nama kolom, dengan opsi untuk mengaktifkan
nama kolom fleksibel.
Memerlukan opsi
--autodetect
untuk file CSV. Untuk mengetahui daftar kemungkinan nilai, lihatload_option_list
. --destination_kms_key=KEY
- Menentukan ID resource kunci Cloud KMS untuk mengenkripsi data tabel tujuan.
--encoding=ENCODING_TYPE or -E=ENCODING_TYPE
- Encoding karakter yang digunakan dalam data. Gunakan salah satu nilai berikut:
ISO-8859-1
(juga dikenal sebagai Latin-1)UTF-8
--field_delimiter=DELIMITER or -F=DELIMITER
- Menentukan karakter yang menandai batas antarkolom dalam data.
Pembatas dapat berupa karakter byte tunggal ISO-8859-1. Anda dapat menggunakan
\t
atautab
untuk menentukan pemisah tab. --ignore_unknown_values={true|false}
- Jika ditetapkan ke
true
untuk file CSV dan JSON, baris dengan nilai kolom tambahan yang tidak cocok dengan skema tabel akan dimuat, tetapi kolom tambahan akan diabaikan. Jika disetel ketrue
untuk file Avro, Parquet, dan ORC, kolom dalam skema file yang tidak ada dalam skema tabel akan diabaikan dan tidak dimuat. --json_extension=JSON_TYPE
Menentukan jenis file JSON yang akan dimuat. Hanya berlaku untuk file JSON. Kemungkinan nilainya adalah sebagai berikut:
GEOJSON
- file GeoJSON yang dibatasi newline
Untuk menggunakan flag ini, flag
--source_format
harus ditetapkan keNEWLINE_DELIMITED_JSON
.Untuk informasi selengkapnya, lihat Memuat file GeoJSON yang dibatasi baris baru.
--max_bad_records=MAX
Bilangan bulat yang menentukan jumlah maksimum data buruk yang diizinkan sebelum seluruh tugas gagal. Nilai defaultnya adalah
0
. Maksimal, lima error dari segala jenis akan ditampilkan, terlepas dari nilai--max_bad_records
. Flag ini hanya berlaku untuk pemuatan data CSV, JSON, dan Google Spreadsheet.--null_marker=STRING
String kustom opsional yang mewakili nilai
NULL
dalam data CSV.--projection_fields=PROPERTY_NAMES
Jika Anda menetapkan
--source_format
keDATASTORE_BACKUP
, flag ini akan menunjukkan properti entity mana yang akan dimuat dari ekspor Datastore. Tentukan nama properti dalam daftar yang dipisahkan koma. Nama properti peka huruf besar/kecil dan harus merujuk ke properti tingkat atas. Anda juga dapat menggunakan flag ini dengan ekspor Firestore.--quote=CHARACTER
Menentukan karakter kutipan untuk mengapit kolom dalam data CSV. Argumen
CHARACTER
dapat berupa karakter satu byte. Nilai defaultnya adalah flag kutip ganda ("
). Untuk menentukan bahwa tidak ada karakter kutip, gunakan string kosong""
.--replace={true|false}
Untuk menghapus data dan skema yang sudah ada saat data baru dimuat, tetapkan ke
true
. Semua kunci Cloud KMS juga akan dihapus, kecuali jika Anda menentukan flag--destination_kms_key
. Nilai defaultnya adalahfalse
.Setara dengan nilai
WRITE_TRUNCATE
untukJobConfigurationLoad.writeDisposition
.--schema={SCHEMA_FILE|SCHEMA
}Menentukan jalur ke file skema JSON lokal atau daftar definisi kolom yang dipisahkan koma dalam bentuk
FIELD:DATA_TYPE, FIELD:DATA_TYPE
, dan seterusnya. Jika Anda menggunakan file skema, jangan berikan ekstensi pada file.Contoh:
--schema=/tmp/tabledef
--schema=Region:STRING,Quarter:STRING,Total_sales:INTEGER
Jika tidak ada skema yang ditentukan, dan
--autodetect
adalahfalse
, ada tabel tujuan, skema tabel tujuan akan digunakan.--schema_update_option=OPTION
Saat menambahkan data ke tabel (dalam tugas pemuatan atau tugas kueri), atau saat menimpa partisi tabel, menentukan cara mengupdate skema tabel tujuan. Gunakan salah satu nilai berikut:
ALLOW_FIELD_ADDITION
: Mengizinkan kolom baru untuk ditambahkanALLOW_FIELD_RELAXATION
: Mengizinkan kolomREQUIRED
yang melonggarkan untukNULLABLE
Ulangi flag ini untuk menentukan beberapa opsi update skema.
--skip_leading_rows=NUMBER_OF_ROWS
Bilangan bulat yang menentukan jumlah baris yang akan dilewati di awal file sumber. Nilai defaultnya adalah
0
.--file_set_spec_type=FILE_SET_SPEC_TYPE
Menentukan cara menafsirkan URI sumber.
FILE_SYSTEM_MATCH
: Memperluas URI sumber dengan mencantumkan file dari penyimpanan objek. Ini adalah perilaku default jika FileSetSpecType tidak ditetapkan.NEW_LINE_DELIMITED_MANIFEST
: Menunjukkan bahwa URI yang disediakan adalah file manifes yang dibatasi newline, dengan satu URI per baris. URI karakter pengganti tidak didukung dalam file manifes, dan semua file data yang dirujuk harus berada di bucket yang sama dengan manifes.
Misalnya, jika Anda memiliki URI sumber
"gs://bucket/path/file"
danfile_set_spec_type
adalahFILE_SYSTEM_MATCH
, maka file tersebut akan langsung digunakan sebagai file data. Jikafile_set_spec_type
adalahNEW_LINE_DELIMITED_MANIFEST
, setiap baris dalam file akan ditafsirkan sebagai URI yang mengarah ke file data.--source_format=FORMAT
Format data sumber. Gunakan salah satu nilai berikut:
CSV
NEWLINE_DELIMITED_JSON
AVRO
DATASTORE_BACKUP
(gunakan nilai ini untuk Filestore)PARQUET
ORC
--time_partitioning_expiration=SECONDS
Bilangan bulat yang menentukan (dalam detik) kapan partisi berbasis waktu harus dihapus. Waktu habis masa berlaku dievaluasi terhadap tanggal UTC partisi ditambah nilai bilangan bulat. Angka negatif menunjukkan tidak ada masa berlaku.
--time_partitioning_field=COLUMN_NAME
Menentukan kolom yang menentukan cara membuat partisi berbasis waktu. Jika partisi berbasis waktu diaktifkan tanpa nilai ini, tabel akan dipartisi berdasarkan waktu pemuatan.
--time_partitioning_type=INTERVAL
Mengaktifkan partisi berbasis waktu pada tabel dan menetapkan jenis partisi. Gunakan salah satu nilai berikut:
DAY
HOUR
MONTH
YEAR
Jenis partisi default untuk partisi berbasis waktu adalah
DAY
.--use_avro_logical_types={true|false}
Jika flag
--source_format
disetel keAVRO
, setel flag ini ketrue
untuk mengonversi jenis logika ke jenis yang sesuai (sepertiTIMESTAMP
), bukan hanya menggunakan jenis mentahnya (sepertiINTEGER
).--decimal_target_types=DECIMAL_TYPE
Menentukan cara mengonversi jenis logika
Decimal
. Setara denganJobConfigurationLoad.decimalTargetTypes
. Ulangi flag ini untuk menentukan beberapa jenis target.--parquet_enum_as_string={true|false}
Jika flag
--source_format
ditetapkan kePARQUET
, dan Anda ingin BigQuery menyimpulkan jenis logikaENUM
Parquet sebagai nilaiSTRING
, tetapkan flag ini ketrue
ini. Defaultnya adalahfalse
.--parquet_enable_list_inference={true|false}
Jika flag
--source_format
disetel kePARQUET
, flag ini menandai perlu atau tidaknya penggunaan inferensi skema untuk jenis logikaLIST
Parquet.--reference_file_schema_uri=URI
Menentukan jalur ke file referensi dengan skema tabel yang diharapkan untuk membuat tabel eksternal. Setara dengan
ExternalDataConfiguration.referenceFileSchemaUri
. Flag ini diaktifkan untuk format Avro, ORC, dan PARQUET.DESTINATION_TABLE
Tabel tempat Anda ingin memuat data.
SOURCE_DATA
URI Cloud Storage file yang berisi data yang ingin Anda muat.
SCHEMA
Skema untuk tabel tujuan.
Untuk informasi selengkapnya tentang pemuatan data dari Cloud Storage menggunakan perintah bq load
, lihat referensi berikut:
- Memuat data Avro
- Memuat data CSV
- Memuat data JSON
- Memuat data ORC
- Memuat data Parquet
- Memuat data dari ekspor Datastore
- Memuat data dari ekspor Firestore
Untuk informasi selengkapnya tentang pemuatan data dari sumber lokal menggunakan perintah bq load
, lihat hal berikut:
bq ls
Gunakan perintah bq ls
untuk mencantumkan objek dalam koleksi.
Synopsis
bq ls [FLAGS] [RESOURCE]
Contoh
bq ls myDataset
Flag dan argumen
Perintah bq ls
menggunakan flag dan argumen berikut:
--all={true|false}
atau-a={true|false}
- Untuk menampilkan semua hasil, tetapkan ke
true
. Menampilkan tugas dari semua pengguna atau semua set data, termasuk yang tersembunyi. Flag ini tidak diperlukan saat mencantumkan konfigurasi transfer atau operasi transfer yang sedang berjalan. Nilai defaultnya adalahfalse
. --capacity_commitment={true|false}
Untuk mencantumkan komitmen kapasitas, tetapkan ke
true
dan gunakan flag--location
untuk menentukan lokasi. Untuk informasi selengkapnya, lihat Melihat komitmen yang dibeli.Contoh:
bq ls --capacity_commitment=true --location='us'
--datasets={true|false}
atau-d={true|false}
Untuk mencantumkan set data, tetapkan ke
true
. Nilai defaultnya adalahfalse
.--filter="FILTER"
Filter resource yang tercantum agar cocok dengan argumen
FILTER
.Untuk set data,
FILTER
terdiri dari satu atau beberapa triple yang dipisahkan spasi dalam formatlabels.KEY:VALUE
. Jika terdapat lebih dari satu triple, maka perintah hanya akan menampilkan set data yang sesuai dengan semua triple (misalnya, perintah menggunakan operator logikaAND
, bukanOR
). Jika ingin menentukan lebih dari satu triple, apitFILTER
nilai dengan tanda kutip.Untuk memfilter berdasarkan label set data, gunakan kunci dan nilai yang Anda terapkan ke set data.
Contoh:
--filter "labels.department:marketing labels.team:sales"
Untuk konfigurasi transfer, gunakan
dataSourceIds
sebagai kunci, dan salah satu sumber data berikut sebagai nilai:
amazon_s3
- Transfer data Amazon S3azure_blob_storage
- Transfer data Azure Blob Storagedcm_dt
- Transfer data Campaign Managergoogle_cloud_storage
- Transfer data Cloud Storagecross_region_copy
- Salinan Set Datadfp_dt
- Transfer Data Google Ad Managerdisplayvideo
- Transfer data Display & Video 360google_ads
- Transfer data Google Adsmerchant_center
- Transfer data Google Merchant Centermysql
- Transfer data MySQLplay
- Transfer data Google Playscheduled_query
- Transfer data kueri terjadwalsearch_ads
- Transfer data Search Ads 360youtube_channel
- Transfer data Channel YouTubeyoutube_content_owner
- Transfer data Pemilik Konten YouTuberedshift
- Migrasi Amazon Redshifton_premises
- Migrasi Teradata
Contoh:
--filter labels.dataSourceIds:dcm_dt
Untuk operasi transfer, gunakan states
sebagai kunci dan satu atau beberapa status transfer berikut sebagai nilai:
SUCCEEDED
FAILED
PENDING
RUNNING
CANCELLED
Contoh:
--filter="states:FAILED"
Untuk tugas, gunakan states
sebagai kunci dan satu atau beberapa status tugas berikut sebagai
nilai:
RUNNING
PENDING
DONE
Contoh:
bq ls --jobs --filter="states:RUNNING" bq ls --jobs --filter="states:RUNNING,PENDING"
--jobs={true|false}
atau-j={true|false}
- Untuk mencantumkan tugas, tetapkan ke
true
. Nilai defaultnya adalahfalse
. Secara default, Anda dibatasi hingga 100.000 hasil. --max_creation_time=MAX_CREATION_TIME_MS
- Bilangan bulat yang mewakili
stempel waktu epoch Unix dalam milidetik.
Jika ditentukan dengan flag
--jobs
, flag ini hanya akan mencantumkan tugas yang dibuat sebelum stempel waktu. --max_results=MAX_RESULTS or -n=MAX_RESULTS
- Bilangan bulat yang menunjukkan jumlah hasil maksimum. Nilai defaultnya adalah 50
dan nilai maksimumnya adalah 1.000. Jika ada lebih dari 1.000 tugas, Anda dapat menggunakan flag
page_token
untuk mencantumkan semua tugas menggunakan penomoran halaman. - --
min_creation_time=MIN_CREATION_TIME_MS
- Bilangan bulat yang mewakili
stempel waktu epoch Unix
dalam milidetik. Jika ditentukan dengan flag
--jobs
, flag ini hanya mencantumkan tugas yang dibuat setelah stempel waktu. --message_type=messageTypes:MESSAGE_TYPE
Untuk mencantumkan hanya pesan log operasi transfer jenis tertentu, tetapkan
messageTypes:MESSAGE_TYPE
. Nilai yang mungkin adalah sebagai berikut:INFO
WARNING
ERROR
--models={true|false}
atau-m={true|false}
Untuk mencantumkan model BigQuery ML, tetapkan ke
true
. Nilai defaultnya adalahfalse
.--page_token=TOKEN
atau-k=TOKEN
Menampilkan daftar item, mulai dari token halaman yang ditentukan.
--projects={true|false}
atau-p={true|false}
Untuk menampilkan semua project, tetapkan ke
true
. Nilai defaultnya adalahfalse
.--reservation={true|false}
Untuk mencantumkan semua pemesanan dari project dan lokasi tertentu, tetapkan ke
true
. Nilai defaultnya adalahfalse
. Gunakan dengan flag--project_id
dan--location
.Contoh:
bq ls --reservation=true --project_id=myProject --location=us
--reservation_assignment={true|false}
Untuk mencantumkan semua penetapan pemesanan dari project dan lokasi tertentu, tetapkan ke
true
. Nilai defaultnya adalahfalse
. Gunakan dengan flag--project_id
dan--location
.--routines={true|false}
Untuk mencantumkan semua rutinitas dalam set data yang ditentukan, tetapkan ke
true
. Nilai defaultnya adalahfalse
. Rutinitas mencakup fungsi yang ditentukan pengguna persisten (persistent UDF), fungsi tabel (Pratinjau), dan prosedur yang tersimpan.--row_access_policies
Jika ditentukan, akan mencantumkan semua kebijakan akses tingkat baris pada tabel. Kebijakan akses tingkat baris digunakan untuk keamanan tingkat baris. Anda harus memberikan nama tabel dalam format
dataset.table
.--run_attempt=RUN_ATTEMPT
Gunakan dengan flag
--transfer_run
. Untuk menampilkan daftar semua upaya operasi untuk operasi transfer khusus, tetapkan keRUN_ATTEMPT_UNSPECIFIED
. Untuk mencantumkan hanya upaya operasi terakhir saja, tetapkan keLATEST
. Defaultnya adalahLATEST
.--transfer_config={true|false}
Untuk mencantumkan konfigurasi transfer dalam project dan lokasi yang ditentukan, tetapkan ke
true
. Gunakan dengan flag--transfer_location
dan--project_id
. Nilai defaultnya adalahfalse
.--transfer_location=LOCATION
Mencantumkan konfigurasi transfer di lokasi yang ditentukan. Anda dapat menetapkan lokasi transfer saat transfer dibuat.
--transfer_log={true|false}
Gunakan dengan flag
--transfer_run
. Untuk mencantumkan pesan log transfer dari proses transfer yang ditentukan, tetapkan ketrue
. Nilai defaultnya adalahfalse
.--transfer_run={true|false}
Mencantumkan operasi transfer untuk konfigurasi transfer yang ditentukan.
Contoh:
bq ls --transfer_run=true projects/myProject/locations/us/transferConfigs/12345
RESOURCE
Koleksi yang objeknya ingin Anda cantumkan. Asetnya dapat berupa set data, project, pemesanan, atau konfigurasi transfer.
Untuk informasi selengkapnya tentang penggunaan perintah bq ls
, lihat referensi berikut:
- Mengelola tugas
- Mencantumkan set data dalam project
- Membuat dan menggunakan tabel
- Mencantumkan tampilan dalam set data
- Menangani transfer
- Mencantumkan snapshot tabel dalam set data
bq mk
Gunakan perintah bq mk
untuk membuat resource BigQuery.
Synopsis
bq mk TYPE_FLAG [OTHER FLAGS] [ARGS]
Flag dan argumen
Perintah bq mk
menggunakan flag jenis yang menentukan jenis resource yang akan
dibuat, dan flag tambahan yang bergantung pada jenis resource.
TYPE_FLAG
: Setel salah satu flag berikut ke true
.
Pilihan Anda menentukan jenis resource yang akan dibuat.
--capacity_commitment
: Membeli komitmen kapasitas.--connection
: Membuat koneksi--dataset
atau-d
: Membuat set data.--materialized_view
: Membuat tampilan terwujud.--reservation
: Membuat pemesanan.--reservation_assignment
. Menetapkan folder, project, atau organisasi ke pemesanan.--table
atau-t
: Membuat tabel.--transfer_config
: Membuat konfigurasi transfer.--transfer_run
: Membuat operasi transfer untuk rentang waktu tertentu.--view
: Membuat tampilan.
Perintah bq mk
mendukung flag berikut untuk semua jenis resource:
--force={true|false}
atau-f={true|false}
- Untuk mengabaikan error jika resource dengan nama yang sama sudah ada, tetapkan ke
true
. Jika resource sudah ada, kode keluarnya adalah 0, tetapi menyetel flag ini ketrue
tidak menyebabkan perintahbq mk
menimpa resource. Nilai defaultnya adalahfalse
.
Perintah bq mk
mendukung flag tambahan, bergantung pada jenis resource
yang Anda buat, seperti dijelaskan di bagian berikut.
bq mk --capacity_commitment
Untuk membeli komitmen kapasitas, tetapkan --capacity_commitment
ke true
dan gunakan flag berikut:
--location=LOCATION
- Menentukan lokasi komitmen.
--plan=PLAN_TYPE
Menentukan jenis rencana komitmen. Harus salah satu dari nilai berikut:
ANNUAL
THREE_YEAR
Pelanggan yang menggunakan harga tetap sebelumnya juga dapat menggunakan salah satu nilai berikut:
FLEX
MONTHLY
ANNUAL
--renewal_plan=RENEWAL_TYPE
Menentukan jenis paket perpanjangan. Wajib untuk paket komitmen
ANNUAL
atauTHREE_YEAR
. Harus berupa salah satu dari yang berikut:ANNUAL
THREE_YEAR
NONE
Pelanggan yang menggunakan harga tetap sebelumnya juga dapat menggunakan salah satu nilai berikut:
FLEX
MONTHLY
ANNUAL
--project_id=PROJECT_ID
Menentukan project yang mengelola slot.
--slots=NUMBER_OF_BASELINE_SLOTS
Menentukan jumlah slot dasar pengukuran yang akan dibeli.
--edition=EDITION
Edisi yang terkait dengan komitmen kapasitas. Harus salah satu dari berikut ini
ENTERPRISE
ENTERPRISE_PLUS
Untuk informasi selengkapnya, lihat Membeli slot.
bq mk --connection
Membuat koneksi. Flag berikut didukung:
--connection_type=CONNECTION_TYPE
- Jenis koneksi, misalnya
CLOUD_SQL
untuk koneksi Cloud SQL. --properties=PROPERTIES
Parameter khusus koneksi dalam format JSON.
instanceId
,database
, dantype
harus ditentukan.Jika Anda membuat koneksi Spanner dan ingin menggunakan Data Boost, sertakan pasangan
"useParallelism":true
dan"useDataBoost":true
.--connection_credential=CONNECTION_CREDENTIAL
Kredensial koneksi dalam format JSON.
username
danpassword
harus ditentukan.--project_id=PROJECT_ID
Menentukan ID project tempat koneksi tersebut berada.
--location=LOCATION
Menentukan lokasi tempat koneksi akan disimpan.
--display_name=DISPLAY_NAME
Menentukan nama opsional yang cocok untuk koneksi.
--description=DESCRIPTION
Menentukan deskripsi opsional koneksi.
--iam_role_id=ROLE_ID
Untuk BigQuery Omni di AWS, menentukan peran IAM yang memungkinkan akses ke resource.
Gunakan format berikut:
"arn:aws:iam::AWS_ACCOUNT_ID:role/POLICY_NAME"
, dengan:- AWS_ACCOUNT_ID adalah nomor ID pengguna IAM AWS koneksi.
- POLICY_NAME adalah nama kebijakan.
Contoh:
"arn:aws:iam::0123456789AB:policy/s3-read-role"
--tenant_id=TENANT_ID
Untuk BigQuery Omni di Azure, tentukan ID tenant direktori Azure yang berisi akun Azure Storage.
CONNECTION_ID
Menentukan ID koneksi opsional untuk koneksi. Jika ID koneksi tidak diberikan, ID unik akan dibuat secara otomatis. ID koneksi dapat berisi huruf, angka, dan garis bawah.
Untuk mengetahui informasi selengkapnya, lihat Pengantar koneksi.
bq mk --dataset
Membuat set data. Flag berikut didukung:
--add_tags=TAGS
- Menentukan tag yang Anda lampirkan ke set data
baru, yang dipisahkan dengan koma. Contohnya,
556741164180/env:prod,myProject/department:sales
. Setiap tag harus memiliki nama kunci dengan namespace dan nama pendek nilai. --default_kms_key=KEY
- Menentukan ID resource kunci Cloud KMS default untuk mengenkripsi data tabel dalam set data jika tidak ada kunci eksplisit yang disediakan selama pembuatan tabel atau kueri.
--default_partition_expiration=SECONDS
- Bilangan bulat yang menentukan waktu habis masa berlaku default, dalam detik, untuk semua
partisi dalam tabel berpartisi yang baru dibuat dalam set data. Waktu habis masa berlaku
partisi ditetapkan ke tanggal UTC partisi ditambah nilai bilangan bulat.
Jika properti ini ditetapkan, nilainya akan menggantikan masa berlaku tabel default tingkat set data jika ada. Jika Anda memberikan flag
--time_partitioning_expiration
saat membuat atau memperbarui tabel yang dipartisi, masa berlaku partisi tingkat tabel akan lebih diutamakan daripada masa berlaku partisi default tingkat set data. --default_table_expiration=SECONDS
- Bilangan bulat yang menentukan masa aktif default, dalam detik, untuk tabel yang baru dibuat dalam set data. Waktu habis masa berlaku ditetapkan ke waktu UTC saat ini ditambah nilai ini.
--description=DESCRIPTION
- Menentukan deskripsi set data.
--external_source=EXTERNAL_SOURCE
- Menentukan sumber data eksternal saat membuat set data gabungan.
--label=KEY:VALUE
- Menentukan label untuk set data. Ulangi flag ini untuk menentukan beberapa label.
--location=LOCATION
atau--data_location=LOCATION
- Menentukan lokasi set data. Pilih flag
--location
; flag--data_location
adalah flag lama. --max_time_travel_hours=HOURS
- Menentukan durasi dalam jam pada periode perjalanan waktu untuk set data. Nilai
--max_time_travel_hours
harus berupa bilangan bulat yang dinyatakan dalam kelipatan 24 (48, 72, 96, 120, 144, 168) antara 48 (2 hari) dan 168 (7 hari). 168 jam adalah nilai default jika flag ini tidak ditentukan. --storage_billing_model=BILLING_MODEL
Menentukan model penagihan penyimpanan untuk set data. Tetapkan nilai
--storage_billing_model
kePHYSICAL
untuk menggunakan byte fisik saat menghitung biaya penyimpanan, atau keLOGICAL
untuk menggunakan byte logis.LOGICAL
adalah defaultnya.Jika Anda mengubah model penagihan set data, perlu waktu 24 jam agar perubahan diterapkan.
Setelah mengubah model penagihan penyimpanan set data, Anda harus menunggu 14 hari sebelum dapat mengubah model penagihan penyimpanan lagi.
Untuk informasi selengkapnya, lihat Membuat set data.
bq mk --materialized_view
Membuat tampilan terwujud. Flag berikut didukung:
--enable_refresh={true|false}
- Untuk menonaktifkan pemuatan ulang otomatis untuk tampilan terwujud, tetapkan ke
false
. Default saat membuat tampilan terwujud adalahtrue
. --refresh_interval_ms=MILLISECONDS
- Menentukan jumlah milidetik untuk interval refresh pada tampilan terwujud. Jika flag ini tidak ditentukan, interval refresh default untuk tampilan terwujud yang mengaktifkan refresh adalah 1.800.000 milidetik, yaitu 30 menit.
Untuk informasi selengkapnya, lihat Membuat dan menggunakan tampilan terwujud.
bq mk --reservation
Membuat pemesanan dengan slot khusus. Flag berikut didukung:
--target_job_concurrency=CONCURRENCY
- Menentukan jumlah target kueri yang dijalankan secara bersamaan. Nilai defaultnya adalah 0, yang berarti konkurensi akan otomatis dihitung berdasarkan ukuran pemesanan. Untuk informasi selengkapnya, lihat Menggunakan antrean kueri.
--ignore_idle_slots={true|false}
- Untuk membatasi tugas yang berjalan di pemesanan ini agar hanya menggunakan slot yang dialokasikan ke
pemesanan, tetapkan ke
true
. Nilai defaultnya adalahfalse
; tugas dalam pemesanan ini dapat menggunakan slot tidak ada aktivitas dari pemesanan lain, atau slot yang tidak dialokasikan ke pemesanan apa pun. Untuk informasi selengkapnya, lihat Slot tidak ada aktivitas. --location=LOCATION
- Menentukan lokasi reservasi.
--project_id=PROJECT_ID
- Menentukan project yang memiliki pemesanan.
--slots=NUMBER_OF_BASELINE_SLOTS
- Menentukan jumlah slot dasar pengukuran yang akan dialokasikan ke reservasi ini.
--edition=EDITION
- Edisi yang terkait dengan komitmen
kapasitas. Harus berupa salah satu dari berikut ini:
STANDARD
ENTERPRISE
ENTERPRISE_PLUS
--autoscale_max_slots=NUMBER_OF_AUTOSCALING_SLOTS
- Jumlah slot penskalaan otomatis yang ditetapkan untuk pemesanan. Nilai ini sama dengan
nilai ukuran reservasi maksimum dikurangi jumlah slot dasar pengukuran. Hanya
tersedia dengan flag
--edition
. --max_slots=MAXIMUM_NUMBER_OF_SLOTS
- Jumlah maksimum slot yang akan digunakan pemesanan. Harus dikonfigurasi
dengan tanda
--scaling_mode
(Pratinjau). --scaling_mode=SCALING_MODE
Mode penskalaan reservasi. Harus salah satu dari berikut ini
IDLE_SLOTS_ONLY
ALL_SLOTS
AUTOSCALE_ONLY
SCALING_MODE_UNSPECIFIED
Harus dikonfigurasi dengan tanda
--max_slots
(Pratinjau).
Untuk informasi selengkapnya, lihat Membuat reservasi dengan slot khusus.
bq mk --reservation_assignment
Menetapkan project, folder, atau organisasi ke pemesanan. Flag berikut didukung:
--assignee_id=ASSIGNEE_ID
- Menentukan ID folder, organisasi, atau project.
--assignee_type=ASSIGNEE_TYPE
- Menentukan jenis entity yang akan ditetapkan ke reservasi. Salah satu
dari berikut ini:
FOLDER
ORGANIZATION
PROJECT
--job_type=JOB_TYPE
- Menentukan jenis tugas yang akan ditetapkan ke pemesanan. Salah satu dari berikut ini:
QUERY
PIPELINE
ML_EXTERNAL
BACKGROUND
--location=LOCATION
- Menentukan lokasi reservasi.
--project_id=PROJECT_ID
- Menentukan project yang memiliki pemesanan.
--reservation_id=RESERVATION_ID
- Menentukan ID pemesanan.
Untuk informasi selengkapnya, lihat Menangani penetapan pemesanan.
bq mk --table
Membuat tabel. Flag berikut didukung:
--add_tags=TAGS
- Menentukan tag yang Anda lampirkan ke tabel baru, yang dipisahkan dengan koma. Contohnya,
556741164180/env:prod,myProject/department:sales
. Setiap tag harus memiliki nama kunci dengan namespace dan nama pendek nilai. --clustering_fields=COLUMNS
- Daftar yang dipisahkan koma berisi empat nama kolom yang menentukan kolom yang akan digunakan untuk pengelompokan tabel. Jika ditentukan dengan partisi, tabel akan dipartisi terlebih dahulu, lalu setiap partisi akan dikelompokkan menggunakan kolom yang disediakan.
--description=DESCRIPTION
- Menentukan deskripsi tabel.
--destination_kms_key=KEY
- Menentukan ID resource kunci Cloud KMS untuk mengenkripsi data tabel tujuan.
--expiration=SECONDS
- Menentukan masa aktif untuk tabel. Jika Anda tidak menentukan flag
--expiration
, BigQuery akan membuat tabel dengan masa aktif tabel default set data, atau masa berlaku tabel tidak akan habis. --external_table_definition=STRING
Menentukan definisi tabel untuk membuat tabel eksternal.
Untuk tabel eksternal Cloud Storage dan Google Drive:
-
--external_table_definition={PATH_TO_FILE|DEFINITION}
- Nilainya dapat berupa jalur ke file yang berisi
definisi tabel
(
PATH_TO_FILE
) atau definisi tabel inline (DEFINITION
).
- Format untuk kolom
DEFINITION
adalahSCHEMA@FORMAT=URI
. Format untuk nilai
SCHEMA
adalah daftar definisi kolom yang dipisahkan koma dalam bentukFIELD:DATA_TYPE, FIELD:DATA_TYPE
, dan seterusnya. Anda dapat menghilangkan nilaiSCHEMA
jika format data sudah terdeskripsi (seperti Avro) atau jika Anda menggunakan deteksi otomatis skema.Nilai
FORMAT
menentukan format data; salah satu dari berikut:AVRO
CSV
DATASTORE_BACKUP
(gunakan nilai ini untuk Filestore)ICEBERG
NEWLINE_DELIMITED_JSON
ORC
PARQUET
Jika Anda menentukan file definisi tabel, jangan berikan ekstensi pada file.
Contoh:
--external_table_definition=/tmp/tabledef
--external_table_definition=Region:STRING,Quarter:STRING,Total_sales:INTEGER@CSV=gs://mybucket/sales.csv
Untuk tabel eksternal Bigtable, dan tabel BigLake berdasarkan AWS dan Azure:
--external_table_definition=PATH_TO_FILE
- Nilai harus berupa jalur ke file yang berisi definisi tabel.
Untuk tabel BigLake berdasarkan Cloud Storage:
--external_table_definition=FORMAT=BUCKET_PATH@REGION.CONNECTION_NAME
:Nilai
FORMAT
menentukan format data; salah satu dari berikut:AVRO
CSV
NEWLINE_DELIMITED_JSON
ICEBERG
ORC
PARQUET
BUCKET_PATH
adalah jalur ke satu atau beberapa file di Cloud Storage yang berisi data tabel BigLake. Anda dapat menentukanBUCKET_PATH
dalam format berikut:- Untuk satu file:
gs://bucket_name/[folder_name/]file_name
. - Untuk beberapa file dalam satu bucket:
gs://bucket_name/[folder_name/]*
. Untuk beberapa file dalam beberapa bucket:
gs://mybucket1/*,gs://mybucket2/folder5/*
.Anda dapat menggunakan karakter pengganti untuk membatasi file yang disertakan dalam tabel BigLake. Misalnya, jika bucket berisi beberapa jenis data, Anda dapat membuat tabel hanya menggunakan file PARQUET dengan menentukan
gs://bucket_name/*.parquet
. Untuk informasi selengkapnya tentang penggunaan karakter pengganti, lihat Karakter pengganti URI.
- Untuk satu file:
Nilai
REGION
menentukan region atau multi-region yang berisi koneksi.Nilai
CONNECTION_NAME
menentukan nama koneksi resource cloud yang akan digunakan dengan tabel eksternal ini. Koneksi menentukan akun layanan mana yang digunakan untuk membaca data dari Cloud Storage.
Untuk tabel objek:
--external_table_definition=BUCKET_PATH@REGION.CONNECTION_NAME
:BUCKET_PATH
adalah jalur ke bucket Cloud Storage yang berisi objek yang direpresentasikan oleh tabel objek, dalam formatgs://bucket_name/[folder_name/]*
. Anda dapat menentukan beberapa bucket dengan menyediakan beberapa jalur, misalnyags://mybucket1/*,gs://mybucket2/folder5/*
.Anda dapat menggunakan karakter pengganti untuk membatasi objek yang disertakan dalam tabel objek. Misalnya, jika bucket berisi beberapa jenis data tidak terstruktur, Anda dapat membuat tabel objek hanya pada objek PDF dengan menentukan
gs://bucket_name/*.pdf
. Untuk informasi selengkapnya tentang penggunaan karakter pengganti, lihat Karakter pengganti URI.Nilai
REGION
menentukan region atau multi-region yang berisi koneksi.Nilai
CONNECTION_NAME
menentukan nama koneksi resource cloud yang akan digunakan dengan tabel eksternal ini. Koneksi menentukan akun layanan mana yang digunakan untuk membaca data dari Cloud Storage.
-
--file_set_spec_type=FILE_SET_SPEC_TYPE
Menentukan cara menafsirkan URI sumber.
FILE_SYSTEM_MATCH
: Memperluas URI sumber dengan mencantumkan file dari penyimpanan objek. Ini adalah perilaku default jika FileSetSpecType tidak ditetapkan.NEW_LINE_DELIMITED_MANIFEST
: Menunjukkan bahwa URI yang disediakan adalah file manifes yang dibatasi newline, dengan satu URI per baris. URI karakter pengganti tidak didukung dalam file manifes, dan semua file data yang dirujuk harus berada di bucket yang sama dengan manifes.
Misalnya, jika Anda memiliki URI sumber
"gs://bucket/path/file"
danfile_set_spec_type
adalahFILE_SYSTEM_MATCH
, maka file tersebut akan langsung digunakan sebagai file data. Jikafile_set_spec_type
adalahNEW_LINE_DELIMITED_MANIFEST
, setiap baris dalam file akan ditafsirkan sebagai URI yang mengarah ke file data.--reference_file_schema_uri=URI
Menentukan jalur ke file referensi dengan skema tabel yang diharapkan untuk membuat tabel eksternal. Setara dengan
ExternalDataConfiguration.referenceFileSchemaUri
. Flag ini diaktifkan untuk format Avro, ORC, dan PARQUET.--label=KEY:VALUE
Menentukan label untuk tabel. Ulangi tanda ini untuk menentukan beberapa label.
--max_staleness=INTERVAL
Menentukan apakah metadata yang di-cache digunakan oleh operasi terhadap tabel, dan seberapa baru metadata yang di-cache agar operasi dapat menggunakannya.
Berlaku untuk tabel BigLake dan tabel objek.
Untuk menonaktifkan penyimpanan metadata ke dalam cache, isi dengan 0. Ini adalah setelan defaultnya.
Untuk mengaktifkan penyimpanan metadata ke dalam cache, tentukan nilai interval antara 30 menit hingga 7 hari, menggunakan format
Y-M D H:M:S
yang dijelaskan dalam dokumentasi jenis dataINTERVAL
. Misalnya, tentukan0-0 0 4:0:0
untuk interval penghentian 4 jam. Dengan nilai ini, operasi terhadap tabel akan menggunakan metadata yang di-cache jika metadata telah diperbarui dalam 4 jam terakhir. Jika metadata yang di-cache lebih lama dari itu, operasi akan kembali untuk mengambil metadata dari Cloud Storage.--object_metadata=STRING
Tetapkan nilai flag ini ke
SIMPLE
saat membuat tabel objek.Hanya diperlukan saat membuat tabel objek.
--range_partitioning=COLUMN_NAME,START,END,INTERVAL
Menentukan opsi untuk partisi rentang bilangan bulat, seperti berikut:
column_name
adalah kolom yang digunakan untuk membuat partisi rentang bilangan bulat.start
adalah awal partisi rentang, inklusif.end
adalah akhir dari partisi rentang, eksklusif.interval
adalah lebar setiap rentang dalam partisi.
Contoh:
--range_partitioning=customer_id,0,10000,100
--require_partition_filter={true|false}
Guna mewajibkan filter partisi untuk kueri atas tabel yang disediakan, tetapkan ke
true
. Flag ini hanya berlaku untuk tabel yang dipartisi. Nilai defaultnya adalahfalse
.--schema={SCHEMA_FILE|SCHEMA
}Menentukan jalur ke file skema JSON lokal atau daftar definisi kolom yang dipisahkan koma dalam bentuk
FIELD:DATA_TYPE, FIELD:DATA_TYPE
, dan seterusnya. Jika Anda menggunakan file skema, jangan berikan ekstensi pada file.Contoh:
--schema=/tmp/tabledef
--schema=Region:STRING,Quarter:STRING,Total_sales:INTEGER
--time_partitioning_expiration=SECONDS
Bilangan bulat yang menentukan (dalam detik) kapan partisi berbasis waktu harus dihapus. Waktu habis masa berlaku dievaluasi terhadap tanggal UTC partisi ditambah nilai bilangan bulat. Angka negatif menunjukkan tidak ada masa berlaku.
--time_partitioning_field=COLUMN_NAME
Menentukan kolom yang digunakan untuk menentukan cara membuat partisi berbasis waktu. Jika partisi berbasis waktu diaktifkan tanpa nilai ini, tabel akan dipartisi berdasarkan waktu pemuatan.
--time_partitioning_type=INTERVAL
Mengaktifkan partisi berbasis waktu pada tabel dan menetapkan jenis partisi. Gunakan salah satu nilai berikut:
DAY
HOUR
MONTH
YEAR
--use_avro_logical_types={true|false}
Jika bagian
FORMAT
dari flag--external_table_definition
ditetapkan keAVRO
, flag ini akan menentukan apakah akan mengonversi jenis logika atau tidak ke dalam jenis yang sesuai (sepertiTIMESTAMP
), bukan hanya menggunakan jenis raw (sepertiINTEGER
).--parquet_enable_list_inference={true|false}
Jika bagian
FORMAT
dari flag--external_table_definition
ditetapkan kePARQUET
, flag ini akan menentukan penggunaan inferensi skema untuk jenis logika ParquetLIST
.--parquet_enum_as_string={true|false}
Jika bagian
FORMAT
dari flag--external_table_definition
ditetapkan kePARQUET
, flag ini akan menentukan apakah akan menyimpulkan jenis logikaENUM
Parquet sebagai nilaiSTRING
.
Untuk informasi selengkapnya, lihat Membuat dan menggunakan tabel.
bq mk --transfer_config
Membuat konfigurasi transfer. Flag berikut didukung:
--data_source=DATA_SOURCE
- Menentukan sumber data. Diperlukan saat membuat konfigurasi transfer. Gunakan salah satu nilai berikut:
amazon_s3
- Transfer data Amazon S3azure_blob_storage
- Transfer data Azure Blob Storagedcm_dt
- Transfer data Campaign Managergoogle_cloud_storage
- Transfer data Cloud Storagecross_region_copy
- Salinan Set Datadfp_dt
-