
A Microsoft anunciou um novo conjunto de ferramentas para tornar o desenvolvimento de aplicativos de IA menos uma dor de cabeça para as empresas. A peça central? Fundição de IA do Azure.
Esta nova oferta foi projetada para permitir que os desenvolvedores alternem entre modelos de IA da OpenAI, Mistral, Meta Platforms ou qualquer outro provedor compatível. Trata-se de flexibilidade, pura e simplesmente – algo que tem sido um problema para as empresas, à medida que o ritmo da inovação da IA ultrapassa a sua capacidade de adaptação.
Scott Guthrie, chefe de computação em nuvem da Microsoft, disse: “Cada novo modelo – mesmo que seja da mesma família – traz benefícios em termos de melhores respostas ou desempenho em algumas tarefas, mas você pode ter regressões em outras coisas”, disse ele.
Neste momento, 60.000 clientes utilizam a IA do Azure. Esse não é um número pequeno. E eles estão aproveitando os 1.700 modelos da plataforma para potencializar seus aplicativos. Mas o problema é o seguinte: esse processo é desajeitado. Os desenvolvedores perdem tempo lutando com novos modelos em vez de inovar.
Cada atualização ou novo lançamento parece começar do zero, e as empresas odeiam isso. Eles não querem destruir seus fluxos de trabalho toda vez que OpenAI ou Meta lançam algo brilhante.
É aí que entra o Azure AI Foundry. É um sistema mais simplificado que permite às empresas misturar e combinar modelos sem dores de cabeça desnecessárias. Você tem um modelo OpenAI mais antigo que funciona bem? Continue com isso.
Quer experimentar algo mais novo do Meta? Troque, veja se está melhor e mantenha o que funciona. É tudo uma questão de opções. Partes do Foundry são uma atualização do Azure AI Studio, mas os novos recursos incluem ferramentas para implantação de agentes de IA.
Apesar de oferecer mais opções, a Microsoft afirma que não está abandonando seu relacionamento estreito com a OpenAI. Guthrie foi claro: os modelos da OpenAI ainda são um grande negócio para a Microsoft. Mas às vezes as empresas precisam de alternativas e a Microsoft sabe disso. “A escolha será importante”, disse Guthrie.
Mas é claro que a IA precisa de força para funcionar, e a Microsoft sabe disso melhor do que ninguém. No ano passado, a empresa revelou seus primeiros chips de IA desenvolvidos internamente e agora dobrou a aposta com duas novas peças de hardware.
Primeiro, um microprocessador de segurança projetado para proteger criptografia e chaves de assinatura. A partir do próximo ano, todos os novos servidores nos data centers da Microsoft incluirão este chip.
Depois, há a unidade de processamento de dados (DPU), que acelera a movimentação dos dados entre redes, servidores e chips de IA. É um concorrente direto de hardware semelhante fabricado pela Nvidia, mas a Microsoft acha que sua versão é mais eficiente.
Essas DPUs são vitais para lidar com as enormes cargas de trabalho exigidas pelos modelos de IA atuais, que, como disse Rani Borkar, líder de chips da Microsoft, “estão crescendo muito”. Ela disse que cada componente de sua infraestrutura precisa funcionar perfeitamente em conjunto para manter as coisas rápidas e eficientes.
Consiga um emprego bem remunerado na Web3 em 90 dias: o roteiro definitivo