
NerdCast NerdTech 116 - O Futuro da Robótica e Processamento em 2026
Jan 23, 2026
Alessandro Cabelo, cofundador da Multicórtix e especialista em Linux e NPUs; Yuri Daglian, engenheiro da Intel focado em aplicações práticas de IA; Pedro Colloca, engenheiro da Intel explicando processadores e litografia. Conversam sobre Core Ultra Série 3 e eficiência energética. Debatem computação heterogênea, NPUs no Linux, IA local para robótica acessível, acessibilidade e trade-offs entre nuvem e processamento local.
AI Snips
Chapters
Transcript
Episode notes
Distribua Tarefas Entre CPU, GPU E NPU
- Use computação heterogênea para alocar tarefas entre CPU, GPU e NPU conforme forças de cada bloco.
- Aproveite frameworks como OpenVINO para portar modelos e obter maior desempenho com menos recursos.
Modelos Locais Especializados Vão Crescer
- Pequenos modelos especializados (SLMs) rodando localmente podem substituir LLMs enormes para tarefas verticais.
- Isso reduz latência, preserva privacidade e exige menos recursos nos dispositivos do usuário.
Linux Com NPU Pronta Já Funciona
- Alessandro Cabelo integrou NPU nativa em uma distribuição Linux (OpenSUSE) para democratizar IA.
- Ele descreve isso como divisor de águas que facilita rodar NPU sem instalação adicional.
