Hot News

A NVIDIA estará presente no evento Hot Chips 2024, onde pretende levar suas novas propostas de eficiência energética para o mercado de servidores – impulsionada pelas GPUs Blackwell, uso de resfriamento híbrido e agentes de inteligência artificial para a produção do design de chips.
Através das soluções que estão trabalhando, a fabricante deseja ajudar os data centers a transitar para uma infraestrutura ainda mais eficiente. De acordo com a NVIDIA, servidores resfriados a ar não terão muito espaço no futuro, com novos modelos que estão construindo utilizando a função hibrida: combinando o ar e líquido.


O resfriamento líquido afasta o calor dos sistemas de forma mais eficiente do que o ar, o que também facilita a manutenção de sistemas de computação frios – mesmo em grandes workloads. Este módulo também ocupa menos espaço e consome menos energia do que os de ar, permitindo que adicionem mais racks e poder de computação.
O plano da NVIDIA é adaptar alguns servidores com design de resfriamento por ar em unidades líquidas – oferecendo uma solução rápida e mais fácil para acoplar mais capacidade aos racks existentes.
Eles também trabalham com o design de tubulação para resfriamento líquido diretamente ligado ao chip, seja utilizando unidades de distribuição de resfriamento ou submergindo por completo os servidores nos tanques de imersão. Ainda que o modelo exija gastos maiores, o consumo de energia e custos operacionais caem.


Proposta para resfriamento de servidores
O diretor de resfriamento de servidores e infraestrutura da NVIDIA, Ali Heydari, promete apresentar no Hot Chips 2024 todas estas inovações que estão realizando na questão de consumo e eficiência energética dentro do mercado de data centers.
Parte deste trabalho serve ao programa COOLERCHIPS, do Departamento de Energia dos EUA – feito para desenvolver tecnologias avançadas de resfriamento. O time de produção está usando a plataforma NVIDIA Omniverse para criar gêmeos digitais e isso ajudará a modelar o consumo e eficiência do resfriamento – otimizando os designs.
Veja mais:


Os diretores de arquitetura da NVIDIA, Ajay Tirumala e Raymond Wong, apresentarão também a primeira visão da plataforma GB200 NVL72. A proposta é mostrar como a GPU Blackwell, GPU Grace, unidade de processamento de dados BlueField, placa de interface de rede ConnectX, o NVLink, Eternet Spectrum e o switch InfiniBand Quantum trabalham juntos.
A proposta é trazer um novo padrão de desempenho em inteligência artificial e computação acelerada, de forma simultânea ao avanço que estão realizando na questão de eficiência energética. Ela tem suporte a 72 GPUs Blackwell e 36 CPUs Grace, prometendo elevar ainda mais a computação das IAs.


O NVIDIA GB200 NVL72 é uma solução multinode e trabalha com a geração de tokens de baixa latência e alto rendimento para a inferência das LLMs. De acordo com a fabricante, ele fornece até 30 vezes mais rapidez para workloads LLM e pode executar modelos com trilhões de parâmetros em tempo real.
Além disso, Tirumala e Wong também falarão mais sobre o Sistema de Quantização Quasar da NVIDIA – sistema que reúne inovações algorítmicas, bibliotecas e ferramentas de software da fabricante para servidores e o segundo motor Transformer de geração Blackwell, com suporte a alta precisão em modelos de baixa precisão.


O diretor da divisão Enterprise da NVIDIA para América Latina, Marcio Aguiar, revela que todos estes recursos servirão para impulsionar a próxima geração de IAs.
A plataforma NVIDIA Blackwell representa um marco significativo na evolução da computação acelerada, unindo o que há de mais avançado em hardware e software para impulsionar a próxima geração de inteligência artificial. Combinando múltiplos chips, como as GPUs Blackwell e as CPUs Grace, estamos estabelecendo novos padrões de desempenho e eficiência energética, permitindo que empresas em todo o mundo desbloqueiem o verdadeiro potencial da IA em escala
Marcio Aguiar


Contribuição da IA no design de processadores
Já o diretor de pesquisa em automação de design da NVIDIA, Mark Ren, apresentará na Hot Chips 2024 como os modelos de inteligência artificial são utilizados para melhorar a qualidade do design dos CPUs e a produtividade – aumentando a eficiência de processos manuais e automatizando tarefas mais extensas.
Ele falará sobre como os modelos incluem ferramentas de predição e otimização para ajudar seu time de engenharia a analisar e melhorar rapidamente os designs dos chips – assim como o uso de LLMs que podem ajudar os engenheiros a responder questões, gerar códigos e analisar problemas do formato.
Os pesquisadores da NVIDIA estão usando agentes de IA movidos por LLMs para raciocinar e agir usando ferramentas personalizadas de design de circuitos de forma autônoma – além de interagirem com os designers a aprender com um banco de dado que é alimentado pelos humanos e pelos seus próprios agentes.
Ren também fala que a NVIDIA não está apenas construindo esta tecnologia, mas que neste momento eles estão a utilizando. Mais informações devem ser apresentadas durante o Hot Chips 2024, que ocorre até o dia 27 de agosto.
#hotnews #noticias #tecnologia #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual