Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Llama 4 Maverick 17B-128E es el modelo más grande y potente de Llama 4. Utiliza la arquitectura de mezcla de expertos (MoE) y la fusión anticipada para proporcionar capacidades de programación, razonamiento y procesamiento de imágenes.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[],[],null,["# Llama 4 Maverick 17B-128E is Llama 4's largest and most capable model. It uses\nthe Mixture-of-Experts (MoE) architecture and early fusion to provide coding,\nreasoning, and image capabilities.\n\n\n[Try in Vertex AI](https://console.cloud.google.com/vertex-ai/generative/multimodal/create/text?model=llama-4-maverick-17b-128e-instruct-maas)\n\n\n[View model card in Model Garden](https://console.cloud.google.com/vertex-ai/publishers/meta/model-garden/llama-4-maverick-17b-128e-instruct-maas)"]]