Metadados do cluster

O Dataproc define valores de metadados especiais para as instâncias que são executadas no seu cluster:

Chave de metadadosValor
dataproc-bucketNome do contentor de preparação do cluster
dataproc-regionRegião do ponto final do cluster
dataproc-worker-countNúmero de nós de trabalho no cluster. O valor é 0 para clusters de nó único.
dataproc-cluster-nameNome do cluster
dataproc-cluster-uuidUUID do cluster
dataproc-roleFunção da instância, Master ou Worker
dataproc-masterNome do anfitrião do primeiro nó principal. O valor é [CLUSTER_NAME]-m num cluster padrão ou de nó único, ou [CLUSTER_NAME]-m-0 num cluster de alta disponibilidade, em que [CLUSTER_NAME] é o nome do seu cluster.
dataproc-master-additionalLista de nomes de anfitriões separados por vírgulas para os nós principais adicionais num cluster de alta disponibilidade, por exemplo, [CLUSTER_NAME]-m-1,[CLUSTER_NAME]-m-2 num cluster com 3 nós principais.
SPARK_BQ_CONNECTOR_VERSION or SPARK_BQ_CONNECTOR_URLA versão ou o URL que aponta para uma versão do conetor do BigQuery do Spark a usar em aplicações Spark, por exemplo, 0.42.1 ou gs://spark-lib/bigquery/spark-3.5-bigquery-0.42.1.jar. Uma versão predefinida do conetor do BigQuery do Spark está pré-instalada em clusters da versão de imagem 2.1 e posteriores do Dataproc. Para mais informações, consulte o artigo Use o conetor do BigQuery do Spark.

Pode usar estes valores para personalizar o comportamento das ações de inicialização.

Pode usar a flag --metadata no comando gcloud dataproc clusters create para fornecer os seus próprios metadados:

gcloud dataproc clusters create CLUSTER_NAME \
    --region=REGION \
    --metadata=name1=value1,name2=value2... \
    ... other flags ...