Ejecuta la inferencia por lotes con GPUs en trabajos de Cloud Run
Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Puedes ejecutar la inferencia por lotes con el LLM Llama 3.2-1b de Meta y vLLM en un trabajo de Cloud Run y, luego, escribir los resultados directamente en Cloud Storage con activaciones de volúmenes de Cloud Run.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-23 (UTC)"],[],[],null,[]]