• Tecnologia
  • Equipamento elétrico
  • Indústria de Materiais
  • Vida digital
  • política de Privacidade
  • Ó nome
Localização: Casa / Tecnologia / Os chipsets de datacentre em evolução colocam técnicas de refrigeração, energia e gerenciamento de software em microscópio

Os chipsets de datacentre em evolução colocam técnicas de refrigeração, energia e gerenciamento de software em microscópio

techserving |
1309

Quando a IBM revelou o primeiro chipset de 2 nm do mundo em maio de 2021, capaz de se encaixar em até 50 bilhões de transistores em um chip do tamanho da sua unha, um mundo novo corajoso parecia no horizonte.No entanto, pode levar alguns anos até que o 2nm beneficiasse em cascata até as densidades de energia, eficiências e sustentabilidade do datacentre.

Há rumores de que um chip Intel de 3nm não aparecerá até o lago Lunar em 2024, com um chip de 17ª geração para dispositivos clientes, Nova Lake, para seguir com um impulso de 50% para o desempenho da CPU e a maior mudança na arquitetura desdeCore em 2006 - aproximadamente contemporâneo de Diamond Rapids para o servidor em 2025 ou mais ou menos.

A gigante dominante de chips continua jogando suas cartas lentamente e perto do peito.

A Intel se recusou a falar com a Computerweekly para esse recurso, mas o diretor de pesquisa de tempo de tempo Daniel Bizo também sugere que as melhorias de desempenho serão graduais e não revolucionárias.

"Realmente, o que se resume é a própria natureza da física semicondutores", diz Bizo.“Então este não é um fenômeno novo.Melhora em um ritmo mais lento do que a densidade física, ao longo de uma década.”

A partir de 2022, são esperados os chips de chips de hogrislet de várias listas de envelope de envelope de energia superior a 10 nm, incorporando memória integrada, dinâmica e de alta largura de banda para obter capacidade aprimorada e armazenamento de dados mais próximo do processador, o que será útil para determinadas cargas de trabalho, como asque requerem latências mais baixas, diz Bizo.

O Intel Roadmap publicado não oficialmente no Reddit em meados de 2021 sugeriu um impulso de desempenho de 10% na CPU em 2022 com o Lago Raptor, seguido de um “design verdadeiro de chiplet ou ladrilho” em Meteor Lake, mais ou menos ritmo com AMD e Apple.

A Sapphire Rapids de Xeon foi dada para oferecer 56 núcleos, 112 fios e potência de design térmico (TDP) de até 350w.Espera -se que a AMD da AMD principal ofereça até 96 núcleos e 192 threads em até 400W TDP com seus processadores EPYC Gênova, além de recursos aprimorados de cache, IO, pcie pistas e ddr5.

Portanto, pode demorar algum tempo até que as inovações do chipset por si mesmas possam ajudar com as pressões do Datacentre.

Bizo acrescenta: "Quando você continua integrando mais núcleos, é difícil acompanhar o ritmo da memória.Você pode adicionar canais de memória, o que fizemos, mas fica caro depois de um determinado ponto.Você precisa de placas lógicas com muito mais fiação ou ficará sem pinos.”

Revisando a pilha de software

Os processadores de alimentação com dados sem adicionar ainda mais canais de memória e módulos devem provar uma maneira mais eficaz de servir aplicativos de largura de banda extrema.No entanto, o tempo de atividade também considera que, para impulsionar o desempenho e a eficiência, através dos mais recentes chips, examinar e revisar a pilha de software está se tornando crucial.

"Em meados da década de 2020, os próximos chips não vão realmente oferecer tanta emoção se as pessoas não estiverem realmente dispostas a agitar a pilha de aplicativos e a maneira como executam a infraestrutura", diz Bizo.

“Você pode obter eficiências se alterar suas práticas em torno de coisas como consolidação de carga de trabalho e virtualização de software - com muitas outras máquinas virtuais no mesmo servidor ou talvez considere contêineres de software.”

Isso pode ser o resultado final, diz Bizo, observando que a geração de Skylake de chips de servidor escalável emergindo a partir de 2017, a 14nm, consumiu menos inatividade de potência do que os mais recentes chips hoje.

Anthony Milovantsev, sócio da consultoria de tecnologia Altman Solon, diz que a realidade é que estaremos firmemente no paradigma padrão de substrato de silício, transistores CMOS e arquitetura von Neumann para o futuro próximo.

Ele acrescenta que, embora a computação quântica esteja gerando atividade, os casos de uso são um pequeno subconjunto do que é necessário - embora os datacentros para abrigar uma máquina quântica pareçam muito diferentes, talvez com resfriamento criogênico, por exemplo.

"Se eles precisam de capacidade quântica, as empresas normais quase certamente a consumirão como um serviço, em vez de possuir suas próprias", diz Milovantsev.

“Mais curtos e semicondutores compostos têm propriedades interessantes, permitindo operações de velocidade de clock mais altas, mas eles já existem há algum tempo e há desvantagens significativas versus dióxido de silício.Então isso continuará sendo nicho.”

Evolving datacentre chipsets put cooling, power and software management techniques under microscope

Melhorias incrementais

Então, MilovantSev concorda com o BIZO que a inovação de chips provavelmente depende de melhorias incrementais contínuas nos nós do processo de transistor como 3Nm, além de inovações como Ribbonfets de Gate-All-Around, ou uso de embalagens inovadoras, como 2.5D com interpositores de silício ou empilhamento de dado 3D verdadeiro.

No entanto, ele aponta para o ARM/RISC para desenvolvimentos de chips de datacentre para melhorar o desempenho dos preços ou cargas de trabalho de nicho de HPC.Exemplos incluem hiperescaladores como a Amazon Web Services (AWS) que se mudam para o ARM/RISC com a GRACE CPU anunciada por Graviton ou NVIDIA para computação de alto desempenho (HPC).

"O resultado líquido de tudo isso, no entanto, é apenas uma redução marginal de potência do tipo como o chip", diz Milovantsev.“De fato, o principal resultado é uma densidade de potência bastante mais alta à medida que você abre mais transistores em pequenos fatores de forma para atender à crescente necessidade de poder de computação.A densidade de potência - e, portanto, o resfriamento do datacentre - o problema só se tornará mais importante ao longo do tempo.”

Uma vez, a menos que você fosse um hiperescalador ou uma infraestrutura de hospedagem de datacentre como serviço (IAAS) ou cripto.Obviamente, as coisas estão mudando à medida que as empresas usam de maneira mais ampla de análises, big data e aprendizado de máquina.

"As CPUs de datacentre de ponta da Intel e da AMD historicamente tiveram TDPs na faixa de 100-200W", diz Milovantsev.“A AMD Epyc atual ou a Intel Ice Lake já está acima de 250W, e Intel Sapphire Rapids no final de 2022 será 350W.”

Read more about evolving datacentre chipset designs

Ele aconselha explicitamente vincular as aplicações certas ao hardware certo com os sistemas de refrigeração e energia certos no tipo certo de salão ou instalação, embora as unidades de negócios estejam cada vez mais pedindo e comprando chips com envelopes TDP mais altos.

Os datacentros devem criar um menu de opções de refrigeração examinadas para trabalhar, bem como como rotear poderes de alta amora usando os barramentos modernos, além de usar as ferramentas de monitoramento do servidor corretas, diz MilovantSev.

Nigel Gore, chumbo global de alta densidade e resfriamento líquido na Vertiv, ressalta que, historicamente, os datacentros foram projetados para suportar uma densidade de potência do rack de 3-5kW, mas os sistemas de alto desempenho de hoje suportam 10-20 vezes a densidade de potência.

"Os fornecedores de chips estão sempre falando sobre qual é o desempenho por watt consumido, com todos os avanços e roteiros procurando um ganho de desempenho incremental em relação à geração anterior", diz Gore.“Então, quando você olha para resfriar esses chipsets, precisa de fluxo de ar e dissipador de calor para dissipar essa quantidade de calor e precisa observar a umidade.”

Muitas vezes, hoje está chegando mais perto da extremidade superior dos parâmetros operacionais, e é por isso que as soluções de resfriamento líquido estão recebendo mais tração, principalmente na extremidade mais alta, com a Intel agora também considerando o resfriamento líquido como importante para os designs de chipset mais novos.

Como vimos, esses ganhos incrementais por vários anos à frente parecem bastante modestos.

Mas Gore também sugere ficar de olho nas notícias sobre o módulo acelerador do tipo GPU que está sendo desenvolvido por membros do projeto de computação aberta.

"Isso terá várias combinações, dependendo de como elas empacotam o sistema de desempenho", diz ele."Mas incluirá asics e interconexões de alta velocidade para memória e é realmente projetado em torno de alta densidade e desempenho para suportar a automação e o aprendizado de máquina.

“Você pode colocar oito desses dispositivos em um servidor.Multiplique -os pela medição TDP - que são oito vezes 700W.Em um servidor, você tem 5.6kW de densidade térmica.”

Aplicações avançadas

Os datacentros ainda não estão apoiando o aprendizado de máquina, a inteligência artificial e esses aplicativos de HPC ricos e sofisticados e estão executando densidades de potência mais baixas.Embora eles não tenham uma necessidade imediata de implantar os mais recentes chipsets, mais organizações em breve estarão vendo trazer aplicativos avançados - e depois terão essa necessidade de desempenho, diz Gore.

"Em meados de 2020, estávamos vendo racks de alta densidade 30-35kW", acrescenta ele.“Muito rapidamente, depois de seis meses, foi para 45kW, e este ano começamos a ver consultores de design falando sobre apoiar densidades de 60kW.”

Fausto Vaninetti, arquiteto de soluções técnicas para infraestrutura e software em nuvem na Cisco EMEA e Russia (Emarpara fãs e eficiências da fonte de alimentação - podem ser úteis.

Afinal, a tecnologia da CPU está evoluindo, mas os requisitos de energia também.

Os dispositivos de aceleração e uso especial também estão se tornando cada vez mais comuns e exigem atenção específica.Cartões de GPU ou módulos persistentes de memória, por exemplo, têm alta necessidade de consumo de energia e refrigeração, diz Vaninetti.

“Os processadores escaláveis Intel Xeon Platinum 8380 têm TDP de 270W, o AMD EPYC 7763 A TDP de 280W, com as CPUs de próxima geração previstas para empurrar o envelope para 350W”, ele acrescenta.“O suporte a CPUs de maior desempenho é fundamental para permitir uma configuração equilibrada de seis a oito GPUs ou pools de memória persistente para serem anexados a um servidor.”

A contagem de pistas PCIe "muito alta" da AMD é mais útil em servidores de rack que podem anexar recursos, como muitas unidades NVME ou cartões PCIE e em evolução de fatores de forma como Cisco UCS X-Series, diz Vaninetti.Intel tem algumas CPUs capazes de altas velocidades de relógio mais apropriadas para determinadas cargas de trabalho, ele adiciona.

A série X da UCS da Cisco estava focada no fluxo de ar e na eficiência de energia e ainda pode suportar configurações de ponta sem "uma quantidade inutilizável de entrada de energia", diz Vaninetti.No entanto, na próxima década, o resfriamento líquido será uma tecnologia que se torna essencial para suportar mais densidades de potência - dependentes de restrições individuais de datacenter, ele aponta.

"As opções no nível do chassi ou talvez no nível do rack podem permitir que o cliente mantenha seu resfriamento de ar no nível do datacentre existente", acrescenta ele.“A outra grande consideração quando se trata de fazendas de servidores e equipamentos relacionados é a maneira como você gerencia e opera.”