UStackUStack
TPU Developer Hub icon

TPU Developer Hub

TPU Developer Hub reúne tutoriales y guías de Google Cloud para construir, entrenar y servir modelos en TPUs con vLLM, JAX y PyTorch.

TPU Developer Hub

¿Qué es TPU Developer Hub?

TPU Developer Hub es un recurso de Google Cloud que recopila tutoriales, guías, videos y documentación para desarrolladores que construyen, entrenan y sirven modelos de machine learning en TPUs de Google Cloud. Está diseñado como punto de partida central para acelerar el ciclo de vida de las TPU, desde la experimentación inicial hasta la inferencia y despliegue listos para producción.

El hub se centra en el desarrollo práctico en frameworks y ecosistemas open-source comunes, como vLLM, JAX y PyTorch, y también apunta a recursos sobre arquitectura TPU y depuración/perfilado.

Características principales

  • Centro de recursos para construir/entrenar/servir en Cloud TPUs: Enlaces curados para el ciclo de vida completo, incluyendo listas de verificación de configuración, guías de depuración, flujos de perfilado y material enfocado en serving.
  • Rutas de aprendizaje por framework: Recursos que cubren JAX (incluyendo depuración) y PyTorch (incluyendo ejecución de cargas PyTorch en TPUs con cambios mínimos de código).
  • Guía de inferencia en producción con vLLM: Materiales sobre el uso de vLLM para cargas de alto rendimiento y baja latencia, incluyendo stacks de serving TPU y recetas de la comunidad.
  • Referencias de arquitectura TPU y herramientas de rendimiento: Enlaces para aprender sobre la arquitectura TPU y cómo usar herramientas de perfilado (como XProf) para identificar y reducir cuellos de botella en pipelines de entrenamiento.
  • Flujos de entrenamiento y post-entrenamiento en TPUs: Contenido que abarca escalado de modelos/pre-entrenamiento, optimización post-entrenamiento y enfoques de fine-tuning soportados por bibliotecas y ejemplos JAX orientados a TPU.
  • Documentación oficial, recetas y notas de lanzamiento: Secciones para desarrolladores con documentación TPU, recetas de cargas reproducibles y actualizaciones sobre novedades en TPUs de Google Cloud.

Cómo usar TPU Developer Hub

  1. Comienza con lo básico de TPU si eres nuevo en TPUs, usando la lista de verificación “configura tu entorno Cloud TPU” y materiales introductorios relacionados.
  2. Elige una ruta por framework según tu carga de trabajo: sigue recursos específicos de depuración/perfilado de JAX o la guía para ejecutar PyTorch en TPUs.
  3. Avanza a temas de rendimiento y despliegue usando material de perfilado (para identificar cuellos de botella) y recursos de inferencia TPU con vLLM para flujos de serving.
  4. Usa las secciones “documentación TPU / recetas / notas de lanzamiento” para consultar detalles oficiales y reproducir cargas relevantes para tu caso de uso.

Casos de uso

  • Inicia con entornos Cloud TPU: Usa el tutorial de lista de verificación de configuración end-to-end para configurar y verificar un entorno de desarrollo TPU funcional.
  • Depura y perfila JAX en TPUs: Sigue la guía práctica sobre técnicas de depuración y perfilado para cargas JAX en Cloud TPUs.
  • Ejecuta inferencia de alto rendimiento con vLLM en TPUs: Usa guías de serving TPU y recursos enfocados en vLLM para desplegar cargas de inferencia de baja latencia y explorar recetas de la comunidad.
  • Sirve modelos de lenguaje grandes con quickstarts de inferencia TPU: Usa la guía de la API recomendadora Inference Quickstart (GIQ) para explorar métricas de rendimiento y precios para servir LLMs open-source en Google Kubernetes Engine (GKE).
  • Escala pre-entrenamiento y rendimiento de entrenamiento: Sigue materiales que describen el escalado de pre-entrenamiento de modelos en TPUs con JAX, PyTorch y Keras, incluyendo ejemplos como construir un modelo estilo GPT-2 con JAX.

Preguntas frecuentes

  • ¿Es TPU Developer Hub un producto o un hub de documentación? Funciona como una colección centralizada de recursos para desarrolladores: tutoriales, guías, videos y enlaces a documentación oficial, enfocados en TPUs de Google Cloud.

  • ¿Qué frameworks de ML cubre? El hub destaca recursos para vLLM, JAX y PyTorch, junto con herramientas y flujos del ecosistema TPU (por ejemplo, bibliotecas basadas en JAX y contenido de serving orientado a TPU).

  • ¿Incluye material para inferencia además de entrenamiento? Sí. La página incluye secciones para escalar pre-entrenamiento y entrenamiento, así como guías de inferencia en producción (incluyendo vLLM y stacks de serving TPU optimizados).

  • ¿Hay recursos para resolución de problemas de rendimiento? El hub incluye tutoriales de depuración/perfilado y contenido como perfilado con XProf para ayudar a identificar cuellos de botella en pipelines de entrenamiento.

  • ¿Dónde encuentro detalles oficiales de TPU más allá de los materiales de aprendizaje? La página dirige a secciones dedicadas para documentación TPU, recetas de cargas y notas de lanzamiento de TPU.

Alternativas

  • Documentación de Cloud TPU (referencia oficial): En lugar de un hub curado, el enfoque centrado en documentación es mejor si ya sabes qué framework/carga de trabajo estás usando y necesitas detalles de referencia.
  • Proyectos específicos de TPU por framework (ecosistema JAX o guías orientadas a PyTorch/XLA): Si trabajas principalmente en un framework, usar las guías de TPU del framework puede ser más directo que pasar por el hub más amplio.
  • Documentación y muestras de serving de inferencia en Google Cloud: Para equipos enfocados solo en flujos de serving/despliegue, las referencias centradas en serving pueden ser un camino más estrecho que prioriza pasos de integración en producción sobre temas de entrenamiento y depuración.
TPU Developer Hub | UStack