• Tecnología
  • Equipo eléctrico
  • Industria de materiales
  • vida digital
  • política de privacidad
  • oh nombre
Localización: Hogar / Tecnología / En evolución de los conjuntos de chips de centavo de datos colocan técnicas de gestión de enfriamiento, potencia y software bajo microscopio

En evolución de los conjuntos de chips de centavo de datos colocan técnicas de gestión de enfriamiento, potencia y software bajo microscopio

techserving |
1217

Cuando IBM dio a conocer el primer chipset de 2 Nm del mundo en mayo de 2021, capaz de adaptarse a 50 mil millones de transistores en un chip del tamaño de su uña, un valiente mundo nuevo parecía en el horizonte.Sin embargo, podrían pasar algunos años hasta antes de que los beneficios de 2 nm sean en cascada a las densidades de potencia del centro de datos, eficiencias y sostenibilidad.

Se rumorea que un chip Intel de 3 nm no aparecerá hasta Lunar Lake en 2024, con un chip de 17a generación para dispositivos de clientes, Nova Lake, a seguir con un impulso esperado al 50% al rendimiento de la CPU y el mayor cambio en la arquitectura desde entonces desde entonces desde entonces desde entoncesCore en 2006: aproximadamente contemporáneo con Diamond Rapids para el servidor en 2025 o por ahí.

El gigante dominante de chipking continúa jugando sus cartas lentamente, y cerca de su pecho.

Intel declinó hablar con ComputerWeekly para esta función, pero el director de investigación de tiempo de actividad, Daniel Bizo, también sugiere que las mejoras de rendimiento serán graduales en lugar de revolucionarias.

"Realmente, lo que se reduce es la naturaleza misma de la física de los semiconductores", dice Bizo."Así que este no es un fenómeno nuevo.Mejora a un ritmo más lento que la densidad física de la misma, en el lapso de una década."

A partir de 2022, se esperan un diseño de chiplet de múltiples múltiples de múltiples múltiples de envoltura de múltiples múltiples, incorporando memoria integrada, dinámica y de alto ancho de banda para una capacidad mejorada y almacenamiento de datos más cerca del procesador, que será útil para ciertas cargas de trabajo, como lasque requieren latencias más bajas, dice Bizo.

The Intel roadmap unofficially posted on Reddit in mid-2021 suggested a 10% CPU performance boost in 2022 with Raptor Lake followed by a “true chiplet or tile design" in Meteor Lake, more or less keeping pace with AMD and Apple.

El zafiro Rapids de Xeon se ha propendido para ofrecer 56 núcleos, 112 hilos y potencia de diseño térmico (TDP) de hasta 350W.Se espera que el rival clave AMD ofrezca hasta 96 núcleos y 192 hilos a hasta 400 W TDP con sus procesadores EPYC Genoa, así como capacidades mejoradas de caché, IO, PCIe Lanes y DDR5.

Por lo tanto, podría pasar algún tiempo antes de que las innovaciones del chipset por su cuenta puedan ayudar con las presiones del centro de datos.

Bizo agrega: "Cuando sigues integrando más núcleos, es difícil mantener el ritmo de la memoria.Puede agregar canales de memoria, que hemos hecho, pero se vuelve costoso después de cierto punto.Necesita tableros lógicos con mucho más cableado, o se quedará sin alfileres."

Revisar la pila de software

Los procesadores de alimentación con datos sin agregar aún más canales y módulos de memoria deberían demostrar una forma más efectiva de servir aplicaciones de ancho de banda extrema.Sin embargo, el tiempo de actividad también considera que impulsar el rendimiento y la eficiencia a través de los últimos chips, examinar y revisar la pila de software se está volviendo crucial..

“Towards the mid-2020s, upcoming chips are not really going to offer that much excitement if people are not willing really to shake up the application stack and the way they run the infrastructure," says Bizo.

“Puede obtener eficiencias si cambia sus prácticas en torno a cosas como la consolidación de la carga de trabajo y la virtualización del software, con muchas más máquinas virtuales en el mismo servidor o tal vez considerar contenedores de software."

Esa puede ser la conclusión, dice Bizo, señalando que la generación de Skylake de chips de servidor escalables que emergen de 2017, a 14 nm, consumió menos ralentí de potencia que los últimos chips hoy.

Anthony Milovantsev, socio de la consultora tecnológica Altman Solon, dice que la realidad es que estaremos firmemente en el paradigma estándar del sustrato de silicio, los transistores de CMOS y la arquitectura von Neumann en el futuro previsible.

Agrega que si bien la computación cuántica está generando actividad, los casos de uso son un pequeño subconjunto de lo que se requiere, aunque los centros de datos para albergar una máquina cuántica eventualmente se verán muy diferentes, tal vez con enfriamiento criogénico, por ejemplo.

“If they do need quantum capacity at all, normal enterprises will almost surely consume it as a service, rather than own their own," says Milovantsev.

"Más semiconductores compuestos a corto plazo tienen propiedades interesantes que permiten operaciones de velocidad de reloj más altas, pero han estado alrededor de un tiempo y hay inconvenientes significativos versus dióxido de silicio.Entonces esto seguirá siendo un nicho."

Evolving datacentre chipsets put cooling, power and software management techniques under microscope

Mejoras incrementales

Por lo tanto, Milovantsev está de acuerdo con Bizo en que es probable que la innovación de chips se base en mejoras incrementales continuas en los nodos de procesos de transistores como el 3NM, así como innovaciones como los cintas de enlace de puerta, o el uso de envases innovadores de die, como 2.5d con interpositores de silicio o verdadero apilamiento de diedes 3D.

Sin embargo, apunta a ARM/RISC para desarrollos de chips de centavo de datos para mejorar el rendimiento del precio o las cargas de trabajo HPC de nicho.Los ejemplos incluyen hiperscalers como Amazon Web Services (AWS) que se mudan a ARM/RISC con Graviton o la CPU Grace anunciada por NVIDIA para la computación de alto rendimiento (HPC).

“The net result of all this, though, is only marginal like-for-like power reduction at the chip level," says Milovantsev.“De hecho, el resultado principal es una densidad de potencia bastante más alta a medida que ataste a más transistores en pequeños factores de forma para satisfacer la necesidad cada vez mayor de la potencia de cómputo.El problema de la densidad de potencia, y por lo tanto el problema del centro de datos, solo se volverá más importante con el tiempo."

Una vez, a menos que fuera hiperscaler o un centro de datos que aloja la infraestructura como las compañías o el servicio (IaaS) o la criptominación, probablemente no necesitara las densidades de alta potencia o el enfriamiento robusto para respaldarlo.Por supuesto, las cosas están cambiando a medida que las empresas utilizan más ampliamente el análisis, los big data y el aprendizaje automático.

“High-end datacentre CPUs from Intel and AMD have historically had TDPs in the 100-200W range," says Milovantsev.“El AMD Epyc o Intel Ice Lake actual ya está por encima de 250W, e Intel Sapphire Rapids a fines de 2022 será de 350 W."

Read more about evolving datacentre chipset designs

Aconseja vincular explícitamente las aplicaciones correctas con el hardware correcto con los sistemas de enfriamiento y energía correctos en el tipo correcto de sala o instalación, aunque las unidades de negocios solicitarán cada vez más los chips con sobres de TDP más altos..

Los centros de datos deben diseñar un menú de opciones de enfriamiento examinadas para trabajar, así como cómo enrutar poderes de mayor amperaje utilizando barras colectivas modernas, además de usar las herramientas de monitoreo del servidor correctas, dice Milovantsev.

Nigel Gore, el plomo global de alta densidad y enfriamiento de líquidos en Vertiv, señala que, históricamente, los centros de datos han sido diseñados para admitir una densidad de potencia de rack de 3-5kW, pero los sistemas de alto rendimiento de hoy admiten 10-20 veces la densidad de potencia.

“The chip vendors are always talking about what is the performance per watt consumed, with every single advancement and roadmap looking for an incremental performance gain over their previous generation," says Gore."Entonces, cuando miras enfriando estos chipsets, necesitas flujo de aire y disipador térmico para poder disipar esa cantidad de calor y necesitas ver la humedad."

A menudo, hoy se está ejecutando más cerca del extremo superior de los parámetros operativos, por lo que las soluciones de enfriamiento de líquidos han estado recibiendo más tracción, particularmente en el extremo superior, con Intel ahora también considerando el enfriamiento líquido como importante para los diseños de chipset más nuevos..

Como hemos visto, esas ganancias incrementales durante varios años se ven bastante modestas.

Pero Gore también sugiere vigilar noticias sobre el módulo de acelerador similar a la GPU que está desarrollando los miembros del Proyecto de Computación Open.

“It will have a number of combinations depending on how they package the performance system," he says."Pero incluirá ASIC e interconexiones de alta velocidad para la memoria y realmente está diseñado en torno a una alta densidad y rendimiento para admitir la automatización y el aprendizaje automático.

"Puede colocar ocho de estos dispositivos en un servidor.Multiplicarlos por su medición de TDP, eso es ocho veces 700W.En un servidor, tienes 5.6kW de densidad térmica."

Aplicaciones avanzadas

Es posible que los centros de datos aún no estén admitiendo el aprendizaje automático, la inteligencia artificial y estas aplicaciones de HPC ricas y de alta gama, y están ejecutando densidades de menor potencia.Si bien no tienen una necesidad inmediata de implementar los últimos chipsets, más organizaciones pronto buscarán traer aplicaciones avanzadas, y luego tendrán esa necesidad de rendimiento, dice Gore.

“In mid-2020, we were seeing high-density racks 30-35kW," he adds."Muy rápido, después de seis meses, fue a 45kW, y este año comenzamos a ver consultores de diseño hablando sobre las densidades de apoyo de 60 kw."

Fausto Vaninetti, arquitecto de soluciones técnicas para infraestructura y software en la nube en Cisco EMEA y Russia (EMEAR), señala que, mientras esperamos nuevos diseños de chipset, un enfoque en servidores independientes o modulares con suficiente huella de la placa base para el flujo de aire y para acomodar calefacción, prestando atención a la atenciónPara los fanáticos y la eficiencia de la fuente de alimentación, puede ser útil.

Después de todo, la tecnología de la CPU está evolucionando, pero también lo son los requisitos de energía.

La aceleración y los dispositivos de uso especial también se están volviendo cada vez más comunes y requieren atención específica.Las tarjetas de GPU o los módulos de memoria persistente, por ejemplo, tienen una alta potencia de consumo y necesidades de enfriamiento, dice Vaninetti.

“Intel Xeon Platinum 8380 scalable processors have TDP of 270W, the AMD EPYC 7763 a TDP of 280W, with next-gen CPUs expected to push the envelope to 350W," he adds.“El soporte de las CPU de mayor rendimiento es fundamental para permitir una configuración equilibrada de seis a ocho GPU o grupos de memoria persistente que se adjuntaron a un servidor."

AMD’s “very high" PCIe lane count is most useful in rack servers that can attach resources, such as many NVMe drives or PCIe cards and in evolving form factors like Cisco UCS X-Series, says Vaninetti.Intel tiene algunas CPU capaces de altas velocidades de reloj más apropiadas para ciertas cargas de trabajo, agrega.

Cisco's UCS X-Series was focused on airflow and power efficiency and can still support top-end configs without “an unusable amount of power input" being required, says Vaninetti.Sin embargo, durante la próxima década, el enfriamiento líquido será una tecnología que se vuelve esencial para respaldar densidades de potencia más altas, dependiendo de las limitaciones individuales de los centros de datos, señala.

“Chassis-level or perhaps rack-level options may allow the customer to maintain their existing datacentre-level air cooling," he adds."La otra consideración importante cuando se trata de granjas de servidores y equipos relacionados es la forma en que lo administra y lo opera."