Estamos presenciando o surgimento de uma era completamente nova na computação.
Dentro da próxima década, o mercado de data centers, avaliado em mais de um trilhão de dólares, está prestes a se transformar, impulsionado pelo que chamamos de computação paralela extrema (EPC) ou computação acelerada.
Embora a inteligência artificial seja o principal catalisador, os efeitos reverberam por todo o stack tecnológico.
A Nvidia Corp. posiciona-se na vanguarda dessa mudança, forjando uma plataforma de ponta a ponta que integra hardware, software, engenharia de sistemas e um ecossistema maciço.
Nossa visão é que a Nvidia tem uma trajetória de 10 a 20 anos para conduzir essa transformação.
No entanto, as forças de mercado em jogo são muito maiores do que um único player.
Este novo paradigma trata de reinventar a computação desde o início: do nível do chip aos equipamentos de data center, da computação distribuída em escala aos stacks de dados e aplicativos e à robótica emergente na ponta.
Nossa pesquisa indica que cada camada do stack tecnológico — do processamento ao armazenamento, passando pelo networking e pelas camadas de software — será re-arquitetada para workloads orientados por IA e paralelismo extremo.
Acreditamos que a transição de CPUs de uso geral, x86, para clusters distribuídos de GPUs e aceleradores especializados está ocorrendo ainda mais rápido do que muitos previam.
Para mais de três décadas, as arquiteturas x86 dominaram a computação.
Hoje, o processamento de uso geral está dando lugar a aceleradores especializados.
As GPUs estão no coração dessa mudança.
Workloads de IA, como modelos de linguagem de grande porte, processamento de linguagem natural, análises avançadas e inferência em tempo real, exigem uma concorrência massiva.
O paralelismo extremo permite que uma única GPU contenha milhares de núcleos.
Mesmo que uma GPU seja mais cara no nível de pacote, em uma base por unidade de computação, pode ser muito mais barata, dado seu design massivamente paralelo.
Enquanto o armazenamento é às vezes negligenciado nas conversas sobre IA, os dados são o combustível que impulsiona as redes neurais.
A IA exige soluções de armazenamento avançadas e de alto desempenho.
Sistemas de dados de próxima geração antecipam quais dados serão solicitados por um modelo, garantindo que residam próximos aos processadores antecipadamente para reduzir a latência.
Com a chegada móvel e da nuvem na última década, vimos uma mudança no tráfego de rede de uma trajetória norte-sul (usuário para data center) para um viés leste-oeste (servidor para servidor).
Os workloads impulsionados por IA causam um tráfego massivo tanto leste-oeste quanto norte-sul dentro do data center e através das redes.
A computação acelerada impõe enormes demandas aos sistemas operacionais, middleware, bibliotecas, compiladores e frameworks de aplicativos.
Eles devem ser ajustados para explorar os recursos das GPUs.
À medida que os desenvolvedores criam aplicativos mais avançados — alguns abrangendo análises em tempo real e dados históricos — o software em nível de sistema deve gerenciar a concorrência em níveis sem precedentes.
Observamos a camada de dados mudando de um sistema histórico de análises para um mecanismo em tempo real que suporta a criação de representações digitais em tempo real de uma organização, compreendendo pessoas, lugares e coisas, bem como processos.
Aplicativos inteligentes estão surgindo que unificam e harmonizam dados.
Esses apps têm acesso em tempo real à lógica de negócios e ao conhecimento de processos.
Os aplicativos estão se tornando extensões do mundo físico, com oportunidades em praticamente todas as indústrias para criar gêmeos digitais que representam um negócio em tempo real.
A Nvidia construiu uma vantagem competitiva multifacetada que abrange hardware e software.
Demorou quase duas décadas de inovação sistemática para produzir um ecossistema integrado que é tanto amplo quanto profundo.
As GPUs da Nvidia empregam nós de processo avançados, incluindo integração de memória HBM e núcleos tensores especializados que proporcionam enormes saltos no desempenho de IA.
Notavelmente, a Nvidia pode lançar uma nova iteração de GPU a cada 12 a 18 meses.
Enquanto isso, utiliza métodos que garantem que cada die aproveitável tenha um lugar em seu portfólio, mantendo rendimentos altos e margens saudáveis.
A aquisição da Mellanox Technologies colocou a Nvidia no controle do InfiniBand, permitindo-lhe vender sistemas abrangentes de ponta a ponta para clusters de IA e chegar ao mercado rapidamente.
A integração das DPUs ConnectX e BlueField estende a liderança da Nvidia em networking ultrarrápido, um componente crítico para o escalonamento de múltiplas GPUs.
Embora a competição seja forte, nenhum desses players individualmente ameaça o domínio de longo prazo da Nvidia — a menos que a Nvidia cometa erros significativos.
O potencial de mercado é vasto o suficiente para que múltiplos vencedores possam prosperar.
Concluindo, estamos diante de um novo mercado de mais de um trilhão de dólares, impulsionado pela IA.
O data center, como o conhecemos, se transformará em um tecido de processamento paralelo distribuído, onde GPUs e aceleradores especializados se tornam a norma.
A plataforma altamente integrada da Nvidia (hardware + software + ecossistema) lidera essa transição, mas não está sozinha.
Os hiperescalares, empresas de semicondutores concorrentes e startups especializadas têm todos papéis a desempenhar em um mercado em rápida expansão.
Acreditamos que a computação paralela extrema inaugura um superciclo de vários anos (ou até de várias décadas) para investimentos em infraestrutura de data centers.