El 27 de octubre, Qualcomm anunció su nueva solución optimizada para inferencia de inteligencia artificial en centros de datos: tarjetas de aceleración y racks basados en los chips Qualcomm AI200 y AI250.
La solución Qualcomm AI200 presenta una oferta diseñada específicamente para inferencia de IA a nivel de rack, con el objetivo de proporcionar un bajo costo total de propiedad (TCO) y un rendimiento optimizado para modelos de lenguaje grandes y multimodales (LLM, LMM), inferencia y otras cargas de trabajo de IA. Cada tarjeta soporta 768 GB de memoria LPDDR para lograr una mayor capacidad de memoria y menores costos.
La solución Qualcomm AI250 adoptará una arquitectura de memoria innovadora basada en cómputo cerca de la memoria (near-memory computing), ofreciendo más de 10 veces el ancho de banda de memoria mejorado y reduciendo el consumo de energía, lo que trae mayor eficiencia y rendimiento para las cargas de trabajo de inferencia de IA.
Ambas soluciones de rack utilizan tecnología de refrigeración líquida directa para mejorar la eficiencia de disipación de calor, soportan expansión PCIe, expansión Ethernet, cómputo confidencial para garantizar la seguridad de las cargas de trabajo de IA, y un consumo de energía a nivel de rack de 160 kW. Se espera que el Qualcomm AI200 y AI250 se comercialicen en 2026 y 2027, respectivamente.










