Começou na segunda-feira (18) em San Jose, na Califórnia, o maior evento anual da Nvidia: o GTC, conferência voltada para desenvolvedores. O grande foco do ano foi, é claro, a inteligência artificial, inclusive a generativa, tema sobre o qual a empresa tem se concentrado (e faturado muito) nos últimos anos.
Jensen Huang, o CEO e fundador da Nvidia, falou sobre os investimentos feitos pela companhia ao longo dos últimos anos, particularmente em arquitetura de hardware e no conjunto de APIs chamado CUDA, capazes de usar processamento gráfico em algoritmos de IA. As GPUs da Nvidia são provavelmente o pilar sobre o qual repousa grande parte do processamento dos algoritmos de IA generativa no mundo atual.
Por essa razão, o valor da Nvidia alcançou máxima histórica nas últimas semanas – muito embora especialistas apontem um gargalo entre a capacidade de produção da marca e a demanda mundial intensa por chips de processamento de inteligência artificial.
Não por acaso a Nvidia anunciou, durante o evento, uma sucessora da arquitetura Hopper, lançada há dois anos, a Blackwell. Ela promete ser até quatro vezes mais rápida (com 20 PetFLOPS de desempenho) e quase quatro vezes mais econômica em termos energéticos, com foco em processamento de IA em data centers. O primeiro produto com a nova tecnologia será o superchip GB200 Grace Blackwell, que promete ser lançado ainda em 2024.
Amazon Web Services, Dell, Google, Meta, Microsoft, OpenAI, Oracle e Tesla são algumas das empresas que devem adotar a tecnologia nos próximos meses e anos.
Mas o foco em IA generativa durante a plenária de Huang – foram dezenas de novas aplicações demonstradas, a maioria com aplicações corporativas de IA – não impediu que a empresa também anunciasse novidades para os games.
NPCs generativos
Uma demo anunciada pela Nvidia para o GTC usa as tecnologias ACE (Avatar Cloud Engine) e NeMo, e foi criada em parceria com a Inworld AI. As tecnologias ‘humanas-digitais’ podem, segundo as empresas, ser usadas em diversas indústrias para a criação de avatares realistas em aplicativos comerciais ou mesmo personagens de jogos.
A ACE é um conjunto de tecnologias pensado para que desenvolvedores possam dar “vida” a humanos digitais com animação facial e interações por IA generativa. A Audio2Face, também da Nvidia, permite reconhecimento automático de falas, então sincronizada na boca dos personagens. Também é possível fazer a conversão de texto em fala (Nvidia Riva).
Já a NeMo é uma plataforma que permite aos desenvolvedores fornecer modelos de IA generativos prontos para empresas.
A demonstração acima, chamada de “Covert Protocol”, utiliza IA treinada pela Inworld e integrada ao Riva para conversão de fala em texto, além do Audio2Face para a performance facial. A ideia é usar a tecnologia em personagens não-jogáveis de games, os NPCs, tornando as narrativas dos jogos muito mais imersivas.
A tecnologia também pode, segundo a Nvidia, ser usada em avatares para atendimento por empresas de diversos segmentos.