Publicado: abril 9, 2025, 11:00 am
La fuente de la noticia es https://www.abc.es/tecnologia/google-anuncia-agentes-ia-razonan-crean-musica-20250409140138-nt.html
Google ha pisado el acelerador en su estrategia de inteligencia artificial. En su evento Cloud Next, celebrado en Las Vegas, la compañía ha presentado una batería de novedades que sitúan a su plataforma como una de las más completas del mercado.
Ironwood es la séptima generación de su procesador especializado para IA, los conocidos TPU (Tensor Processing Unit). Este chip ha sido diseñado desde cero para tareas de inferencia, es decir, para ejecutar modelos ya entrenados. Según Google, un solo rack de Ironwood puede ofrecer 42,5 exaflops de rendimiento, 24 veces más que el superordenador más potente del mundo. Además, es hasta 30 veces más eficiente energéticamente que la primera generación de TPUs.
Google sigue ofreciendo GPUs de Nvidia a sus clientes de la nube, pero deja claro que sus TPUs no son sólo una opción más, su hardware está diseñado para competir.
Gemini 2.5 Pro: «La IA que piensa antes de responder»
En cuanto a modelos de IA, Google ha dado más detalles sobre Gemini 2.5 Pro, su modelo estrella, y ha anunciado una versión más asequible y rápida llamada Gemini 2.5 Flash, pensada para tareas más cotidianas como la atención al cliente o la creación de resúmenes de, por ejemplo, una reunión. Lo principal de estos modelos frente al resto, no es solo su precisión, sino su capacidad de razonamiento estructurado y pensamiento multietapa, una especie de «IA que piensa antes de responder».
En Vertex AI, su plataforma para desarrolladores, se han integrado también modelos creativos como Imagine para imágenes, Chirp para audio, Veo para vídeo y Lyria para música. Durante la presentación, pudimos ver una demo que generaba un vídeo desde una simple imagen de Las Vegas, se le añadía música creada por la IA y se eliminaban objetos no deseados del plano como si fuese Photoshop, pero para vídeo.
Agentes de IA
Otra de las grandes apuestas son los agentes inteligentes. Google los define como sistemas capaces de razonar, colaborar con otros agentes, aunque sean de otras empresas y ejecutar tareas complejas. Para facilitar su creación, han lanzado un ADK o Agent Development Kit, una especie de kit para montar y desplegar agentes con menos de 100 líneas de código. También se presentó Agent Space, una plataforma que permite a cualquier empleado crear su propio agente simplemente con una conversación, como si se tratase de configurar una rutina en tu asistente de voz.
En la demo de la presentación, vimos cómo un supuesto gestor bancario creaba un agente que analizaba portafolios, generaba un informe con audio y programaba automáticamente reuniones con los clientes, sin código, sólo por escrito.
Para que los agentes funcionen y se pueden conectar a herramientas y otros agentes, Google ha presentado dos nuevos protocolos, MCP o Model Context Protocol, que permite a los modelos acceder a datos en tiempo real, y A2A Agent to Agent, que facilita que los agentes de distintas plataformas puedan entenderse entre sí. Esto permitirá, por ejemplo, que un agente de Salesforce pueda hablar con otro de SAP o que los datos de una empresa estén siempre disponibles para todos sus sistemas de IA sin importar quién los desarrolló ni dónde están almacenados.
Novedades en el Workspace y ciberseguridad
Cómo no, también hay actualizaciones en Google Workspace, la suite ofimática de la compañía. La integración de Gemini ya está disponible para todos los usuarios empresariales, sin la necesidad de pagar más, con nuevas funciones como la creación automática de resúmenes de reuniones, generación de audio a partir de textos y análisis de datos con lenguaje natural en Google Sheets.
En cuanto a seguridad, Google ha presentado agentes especializados que analizan malware o alertas en tiempo real, y estará disponible en entornos on-premise a través de Google Distributed Cloud, incluso en configuraciones completamente desconectadas.