Web Summit 2025: open source, infraestrutura e velocidade: os imperativos técnicos emergentes na IA

A convergência entre modelos open source, infraestrutura de computação e velocidade de execução — três vetores que estão exigindo novas habilidades e arquiteturas de engenharia, são destaques do Web Summit 2025

Compartilhe
Web Summit 2025: open source, infraestrutura e velocidade: os imperativos técnicos emergentes na IA

*Redação AI Brasil, direto do Web Summit 2025, em Lisboa

A convergência entre modelos open source, infraestrutura de computação e velocidade de execução — três vetores que estão exigindo novas habilidades e arquiteturas de engenharia, são destaques do Web Summit 2025.

Durante o track “AI Summit” do evento, programado para explorar “Designing intelligence, disrupting society” e temas como “Beta to boom: Building AI for the enterprise”.  Um dos painéis relevantes foi o da Foundation for Science and Technology (FCT) de Portugal, mostrando sessões como “Advanced Computing Opportunities for Startups and SMEs”, onde foi anunciado que vouchers de inovação permitiriam o acesso a supercomputadores como MareNostrum 5 para desenvolver IA com escala real.

Alguns insights técnicos para profissionais de IA

  • Modelos open source ganhando vantagem: O keynote de abertura identificou os modelos chineses de IA como gratuitos e de código aberto, sugerindo que a vantagem competitiva muda de quem tem o melhor modelo para quem implementa mais rápido. Esse tipo de ambiente exige que engenheiros de IA sejam proficiente em customizar, deployar e operacionalizar modelos, não apenas consumir APIs.
  • Infraestrutura como diferencial: A discussão sobre centros de dados, latência, capacidade de escala e energia teve destaque. Conforme noticiado, os data centers globalmente consomem energia estimada em ~1,5% da elétrica mundial, e a demanda cresce ~12% ao ano.  Para o profissional de IA, isso significa projetar modelos que sejam eficientes, distribuídos e que funcionem em múltiplas regiões.
  • Velocidade de execução importa tanto quanto precisão: Um dos pontos sublinhados foi que a vantagem se deslocou da capacidade de modelagem para a capacidade de operacionalização rápida — isto é, do protótipo ao deploy com monitoramento, iterando em produção. Isso coloca pressão sobre equipes de engenharia para ter pipelines robustos de MLOps, automação de entrega e instrumentação de métricas de performance.

Boas práticas para aplicar agora

  • Construa pipelines de deploy que permitam rollback, monitoramento e retraining automático, para que modelos não fiquem obsoletos antes de atingir produção.
  • Avalie e selecione iniciativas de infraestrutura compartilhada (como supercomputação ou credits de cloud) para que o desenvolvimento não fique refém de custo elevado ou gargalo de hardware.
  • Pense em open source + customização como padrão: entenda licenças, mantenha versão própria dos modelos e ajuste para domínio da empresa ou do produto.
  • Incorpore métricas de tempo-mercado, latência e custo de execução como parte das métricas de sucesso da IA, não apenas acurácia ou recall.

Para engenheiros de IA — especialmente aqueles em contextos empresariais ou produção — o diferencial agora está em infraestrutura, open source e velocidade. Se o modelo é apenas mais um, o verdadeiro valor está em quem entrega, escala e regula.

Recomendadas para você

O que é Backpropagation: como o algoritmo impulsiona o deep learning e a IA

O que é Backpropagation: como o algoritmo impulsiona o deep learning e a IA

O backpropagation é o principal mecanismo de treinamento de redes neurais, permitindo ajustar pesos com base no erro por meio de cálculo diferencial. Popularizado nos anos 1980 e viabilizado por avanços computacionais, ele sustenta o deep learning e a maioria dos sistemas modernos de inteligência artificial.

Cezar Taurion
26 DE MARÇO
Background newsletter

Inscreva-se na nossa newslleter

Web Summit 2025: open source, infraestrutura e velocidade: os imperativos técnicos emergentes na IA | AI Brasil