

Vida com IA
Filipe Lauar
Um podcast sobre inteligência artificial de uma forma simples. Explicando algoritmos e mostrando como ela está presente no nosso dia a dia.
Episodes
Mentioned books

Jul 4, 2024 • 14min
#87- Modelos de difusão, o algoritmo por trás do Midjourney, Dall-e e Stable Diffusion.
Fala galera, nesse episódio eu falo sobre modelos de difusão, o algoritmo por trás de todos os modelos famosos de geração de imagem como o stable diffusion, dall-e e o midjourney. No episódio eu explico o processo de difusão e também alguns quesitos tecnicos relevantes pro problema, como o ruído branco e o processo de markov.Link do grupo do wpp: https://chat.whatsapp.com/KJBSOV4IbHKIWmKudYiCehVideo de gatinho no instagram: https://www.instagram.com/mpminds_?igsh=MTloM3VtdTA0eWEwZQ==Instagram do podcast: https://www.instagram.com/podcast.lifewithaiLinkedin do podcast: https://www.linkedin.com/company/life-with-aiBlog post explicando diffusion: https://www.assemblyai.com/blog/diffusion-models-for-machine-learning-introduction/Diffusion paper: https://arxiv.org/pdf/2006.11239.pdf?ref=assemblyai.com

Jun 27, 2024 • 14min
#86- CLIP, SigLIP e JinaCLIP.
Fala galera, nesse episódio eu falo sobre 3 modelos muito importantes que usam contrastive learning, CLIP, SigLIP e JinaCLIP. Eles são modelos de embedding de text-imagem que nos permitem de por exemplo faz retrieval em text e imagem ao mesmo tempo.Link do grupo do wpp: https://chat.whatsapp.com/KJBSOV4IbHKIWmKudYiCehCLIP paper: https://arxiv.org/pdf/2103.00020SigLIP paper: https://arxiv.org/pdf/2303.15343JinaCLIP paper: https://arxiv.org/pdf/2405.20204Github of similarities and contrastive loss: https://github.com/filipelauar/projects/blob/main/similarities_and_contrastive_loss.ipynbInstagram of the podcast: https://www.instagram.com/podcast.lifewithaiLinkedin of the podcast: https://www.linkedin.com/company/life-with-ai

Jun 20, 2024 • 13min
#85- Constrastive learning e similaridade de cosseno.
Fala galera, nesse episódio eu falo sobre 2 conceitos tecnico muito importantes em Deep Learning, constrastive learning e similaridade de cosseno. Eles muito úteis pra treinar modelos de embedding ou fazer RAG.Link pro grupo do whatsapp: https://chat.whatsapp.com/KJBSOV4IbHKIWmKudYiCehÓtimo blog post sobre contrastive loss: https://lilianweng.github.io/posts/2021-05-31-contrastive/SimCLR paper: https://arxiv.org/abs/2002.05709Instagram do podcast: https://www.instagram.com/podcast.lifewithaiLinkedin do podcast: https://www.linkedin.com/company/life-with-ai

Jun 13, 2024 • 14min
#84- FineWeb, o melhor dataset pra pre-treinar LLMs.
Fala galera, nesse episódio do podcast eu falo sobre o dataset FineWeb, o melhor dataset open source de pre-treinamento existente até hoje. No episódio eu explico como eles fizeram a curadoria do dataset e um pouco dos resultados.Link pro grupo do whatsapp: https://chat.whatsapp.com/KJBSOV4IbHKIWmKudYiCehLink do blog da huggingface: https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1Instagram do podcast: https://www.instagram.com/podcast.lifewithaiLinkedin do podcast: https://www.linkedin.com/company/life-with-ai

Jun 6, 2024 • 32min
#83- LLM Copilot com Joao da Stackspot AI.
Fala galera, nesse episódio eu falo com o João Batista, Technical Product Manager da Stackspot AI. No episódio a gente falou bastante sobre o uso de LLMs como um copilot usando os próprios documentos da empresa para dar as respostas usando RAG.
A gente falou tanto de aspectos técnicos como de produto, como qual métrica de similaridade pro RAG, quantos documentos usar, como mostrar a resposta e como metrificar a qualidade.
Linkedin do Joao: https://www.linkedin.com/in/joaobatista-cordeironeto/
Linkedin da Stackspot AI: https://www.linkedin.com/company/stackspot/
Instagram do podcast: https://www.instagram.com/podcast.lifewithai
Linkedin do podcast: https://www.linkedin.com/company/life-with-ai

May 30, 2024 • 10min
#82- BitNet, Transformers com 1 bit.
Fala galera, nesse episódio eu falo de 2 papers, BitNet e 1.58 Transformers. Esses 2 papers da Microsoft apresentar uma nova receita de como treinar Transformers com apenas 1 bit, diminuindo muito o consumo de memória e energia, assim como o tempo de inferencia.
BitNet paper: https://arxiv.org/pdf/2310.11453
1.58 bit paper: https://arxiv.org/pdf/2402.17764
Instagram do podcast: https://www.instagram.com/podcast.lifewithai
Linkedin do podcast: https://www.linkedin.com/company/life-with-ai

Apr 19, 2024 • 11min
#81- Llama 3.
Episódio extra falando sobre o lançamento do Llama 3!!!

Apr 18, 2024 • 15min
#80- Layer pruning e Mixture of Depths.
Fala galera, continuando a serie de episódios sobre PEFT, nesse episoódio eu falo sobre tecnicas de otimização de inferência em LLMs.
Eu falo de layer pruning, onde a gente corta algumas camadas consecutivas da rede sem perder quase nada de qualidade do modelo.
Eu falo também sobre Mixture of Depths, uma tecnica semelhante ao Mixture of Experts, onde a gente usa um routing pra escolher quais tokens vão ser processados em qual camada da rede.
Paper MoD: https://arxiv.org/pdf/2404.02258.pdf
Paper layer pruning: https://arxiv.org/pdf/2403.17887v1.pdf
Instagram do podcast: https://www.instagram.com/podcast.lifewithai
Linkedin do podcast: https://www.linkedin.com/company/life-with-ai

Apr 11, 2024 • 15min
#79- LoRA e QLoRA.
Fala galera, esse é um primeiro episódio de uma série de episódios sobre PEFT, Parameter Efficient Fine Tuning. Nele eu falo sobre LoRA e QLoRA, que são 2 métodos muito importantes e amplamente utilizados que possibilitam o treinamento de LLMs bem mais rápido com o uso de apenas 1 GPU sem perder perfomance.
Video sobre QLoRA: https://www.youtube.com/watch?v=6l8GZDPbFn8
LoRA paper: https://arxiv.org/pdf/2106.09685.pdf
QLoRA paper: https://arxiv.org/pdf/2305.14314.pdf
Instagram do podcast: https://www.instagram.com/podcast.lifewithai
Linkedin do podcast: https://www.linkedin.com/company/life-with-ai

Mar 21, 2024 • 10min
#78- RAFT: Unindo RAG com fine tuning.
Fala galera, nesse expiódio eu falo sobre Retrieval Aware Fine Tuning (RAFT), um paper que propos uma nova técnica que utiliza tanto domain specific fine tuning quanto RAG pra melhorar a capacidade de recuperação da informação dos LLMs.
Nesse epiódio eu também falo sobre um outro paper que também tem o nome de RAFT, mas dessa vez Reward rAnking Fine Tuning, que propoe uma nova técnica para fazer RLHF mas sem os problemas de convergencia de Reinforcement Learning.
Retrieval Aware Fine Tuning: https://arxiv.org/abs/2403.10131v1
Reward rAnking Fine Tuning: https://arxiv.org/pdf/2304.06767.pdf
Instagram do podcast: https://www.instagram.com/podcast.lifewithai
Linkedin do podcast: https://www.linkedin.com/company/life-with-ai


