
IA Sob Controle - Inteligência Artificial 238: Por que a Hugging Face não quer ser um frontier lab, com Leandro von Werra
29 snips
Apr 1, 2026 Leandro von Werra, líder de pesquisa na Hugging Face com experiência em pré e pós-treinamento de modelos open source. Conversa sobre a transformação da Hugging Face em hub aberto, por que evitam ser um frontier lab e o foco em treinar modelos menores. Aborda infraestrutura de GPUs, gargalos em avaliação e dados, o avanço dos SmallLMs e o papel crescente de dados sintéticos.
AI Snips
Chapters
Books
Transcript
Episode notes
Vantagem Competitiva De Equipes Pequenas
- Pequenas equipes de pesquisa têm vantagem de uso de GPU por pesquisador e agilidade na experimentação.
- Hugging Face tem ~96 nós H100 (~800 GPUs), dando cerca de 40 GPUs por pesquisador em times reduzidos.
Dado Sintético É Parte Central Hoje
- Dados sintéticos já dominam muitos passos de pós-treinamento e aparecem também no pré-treinamento de grandes laboratórios.
- Interações em ambientes geram traces sintéticos úteis; prompts humanos muitas vezes são a única entrada manual.
Como Surgiu O Projeto SmallLM
- SmallLM nasceu de experimentos com dados sintéticos (Cosmopedia) e combinações com dados da web (FineWeb).
- Iterações geraram SmallLM1/2/3, culminando com um 3B que alcançou estado da arte para seu tamanho.



