Publicado: noviembre 7, 2025, 4:23 pm
Google ha dado un paso clave en su estrategia de infraestructura de inteligencia artificial con el anuncio de Ironwood, su chip de séptima generación de Tensor Processing Units (TPU, por sus siglas en inglés), siendo el más potente hasta la fecha.
Dicho chip pretende redefinir el rendimiento, la eficiencia y el coste de las cargas de trabajo de inteligencia artificial para captar nuevos clientes, además, está diseñado para alimentar modelos de IA inferencial y de pensamiento a gran escala. Por lo tanto, al conectar hasta 9.216 chips en un solo módulo con velocidades de 9,6 Tb/s, Ironwood elimina los cuellos de botella de datos para los modelos más exigentes y brinda a los usuarios la capacidad de ejecutar y escalar los modelos más grandes y con mayor consumo de datos existentes.
Con este avance, Google Cloud quiere posicionarse como un proveedor de referencia y competir con los chips de NVIDIA, ya que promete una arquitectura más potente, escalable y eficiente con el chip Ironwood.
Características y disponibilidad del chip Ironwood de Google
Ironwood ofrece un rendimiento mayor, mejora su eficiencia energética, permite ejecutar distintos tipos de tareas —desde entrenamiento, inferencia hasta aprendizaje por refuerzo a gran escala con un consumo más optimizado—. Además, dispone de 1,77 petabytes de memoria HBM compartida para acelerar los tiempos de inferencia y mantener los modelos de IA más exigentes cargados en memoria, teniendo en cuenta que incorpora tecnología de conmutación óptica (OCS, por sus siglas en inglés) para redirigir el tráfico en caso de interrupciones.
Este chip estará disponible de forma general en las próximas semanas en el ecosistema AI Hypercomputer de Google Cloud, tratándose del mayor salto de rendimiento en la historia de los chips de Google.
