Un fabricante de chips anunció este lunes que suministrará a Google Unidades de Procesamiento Tensorial (TPU) personalizadas, además de componentes de red y otros elementos para la compañía.
Las TPU son aceleradores de inteligencia artificial diseñados específicamente para optimizar el entrenamiento y la inferencia de modelos de IA. Esta tecnología es fundamental para diversas aplicaciones, tales como la generación de código, la creación de contenido multimedia, la voz sintética, los servicios de visión, los motores de recomendación y los modelos de personalización.
Actualmente, las TPU impulsan a Gemini y a todas las aplicaciones de Google basadas en IA, incluyendo Search, Photos y Maps, las cuales atienden a más de mil millones de usuarios.
Estas unidades están diseñadas para escalar de manera rentable en una amplia gama de cargas de trabajo, que abarcan desde el entrenamiento y el ajuste fino (fine-tuning) hasta la inferencia. Asimismo, proporcionan la versatilidad necesaria para acelerar procesos en marcos de trabajo líderes como PyTorch, JAX y TensorFlow.
Para la gestión de estas cargas de trabajo a gran escala, Google integra las TPU en Google Kubernetes Engine (GKE) y permite su uso en Vertex AI, una plataforma de IA totalmente gestionada. Además, el uso del Dynamic Workload Scheduler permite mejorar la escalabilidad al programar simultáneamente todos los aceleradores requeridos.
