
IA Sob Controle - Inteligência Artificial 234: Entendendo modelos de mundo e JEPA, com Randall Balestriero, da Meta FAIR
4 snips
Mar 18, 2026 Randall Balestriero, pesquisador visitante na Meta AI/FAIR especializado em modelos de mundo e aprendizado autossupervisionado. Conversa sobre JEPA e como prevê em espaços latentes. Debate sobre sinais vs ruídos, riscos de colapso e LeGEPA para estabilidade. Discussões sobre aplicações em visão, vídeo, medicina e robótica, integração com modelos de linguagem e desafios de benchmarks e adoção.
AI Snips
Chapters
Books
Transcript
Episode notes
JEPA Foca Dinâmica Latente Em Vez De Reconstrução
- JEPA aprende representações latentes ao prever dinâmicas abstratas em vez de reconstruir todos os detalhes dos dados.
- Isso evita desperdiçar FLOPS em ruído (ex.: folhas e pássaros em frames) e favorece abstrações úteis para tarefas downstream.
Prevenção Do Colapso É O Nó Central Do JEPA
- JEPA faz predição autorregressiva no espaço latente em vez do espaço de entrada, exigindo termos anticolapso para evitar representações triviais.
- O desafio central é evitar que o encoder produza constantes que zerem a perda de predição.
JEPA Melhora Eficiência De Amostras Em Dados Ruidosos
- JEPA pode ser muito mais eficiente em amostras que modelos autoregressivos no espaço de entrada quando dados contêm ruído.
- Em visão, JEPA converge mais rápido porque não precisa modelar estocasticidade pixel a pixel.


