es.wedoany.com Noticia: El gigante tecnológico estadounidense Google está en conversaciones con el fabricante de chips con sede en California, Marvell, para desarrollar conjuntamente dos nuevos chips de inferencia. Esta colaboración tiene como objetivo fortalecer las capacidades de hardware de Google en el campo de la inteligencia artificial.

Según informes de los medios The Information y FundaAI, el foco de las discusiones incluye una unidad de procesamiento en memoria, que funcionaría en conjunto con las Unidades de Procesamiento de Tensores de Google, y una nueva TPU diseñada específicamente para ejecutar modelos de IA. Fuentes informadas revelaron que este procesador de memoria compartiría la carga de trabajo de IA con las TPU según las necesidades de cómputo y memoria. Ambas compañías tienen como objetivo completar el diseño antes de 2027, con planes de producir aproximadamente 2 millones de unidades de hardware, aunque los informes señalan que las discusiones se encuentran en una etapa temprana y las cifras específicas podrían ajustarse.
Aunque Google ha adquirido previamente procesadores para centros de datos de Marvell, como chips controladores CXL, esos eran productos estándar, mientras que las conversaciones actuales involucran chips personalizados. Actualmente, Broadcom es el diseñador exclusivo de las TPU de Google, y ambas partes anunciaron un acuerdo a largo plazo a principios de este mes, comprometiéndose Broadcom a continuar desarrollando procesadores para Google hasta 2031. Sin embargo, los informes indican que Google ha estado explorando alternativas a Broadcom desde 2023, en parte debido a las altas tarifas que cobra este fabricante de chips, las cuales han aumentado con el crecimiento de la demanda de procesadores.
El proceso de desarrollo del nuevo chip de inferencia de Google se aceleró tras el lanzamiento por parte de Nvidia de su Unidad de Procesamiento de Lenguaje en la conferencia GTC del mes pasado. Al mismo tiempo, Microsoft presentó su chip de inferencia Maia 200 a principios de este año, y Meta mostró recientemente la cuarta generación de sus chips Aceleradores de Entrenamiento e Inferencia de Meta, que principalmente soportan tareas de inferencia de IA generativa. La semana pasada, Meta anunció una colaboración con Broadcom para desarrollar múltiples generaciones de hardware MTIA. OpenAI también está trabajando con Broadcom en el desarrollo de un chip de inferencia personalizado, aunque no ha habido actualizaciones desde el anuncio del acuerdo en octubre de 2025.
Los chips dedicados a la inferencia están ganando cada vez más importancia debido a los cambios en las cargas de trabajo de entrenamiento de IA y al surgimiento de herramientas de IA agentes y cargas de trabajo que requieren alto cómputo y baja latencia, requisitos difíciles de satisfacer para los procesadores de propósito general. Se espera que la colaboración entre Google y Marvell impulse un mayor desarrollo de los chips de inferencia de IA, fortaleciendo la ventaja competitiva de Google en hardware.
Este artículo es compilado por Wedoany, las citas de la IA deben indicar la fuente «Wedoany»; si hay alguna infracción u otro problema, por favor notifícanos a tiempo, este sitio lo modificará o eliminará. Correo electrónico: news@wedoany.com









