Vida com IA

Filipe Lauar
undefined
Jul 4, 2024 • 14min

#87- Modelos de difusão, o algoritmo por trás do Midjourney, Dall-e e Stable Diffusion.

Fala galera, nesse episódio eu falo sobre modelos de difusão, o algoritmo por trás de todos os modelos famosos de geração de imagem como o stable diffusion, dall-e e o midjourney. No episódio eu explico o processo de difusão e também alguns quesitos tecnicos relevantes pro problema, como o ruído branco e o processo de markov.Link do grupo do wpp: https://chat.whatsapp.com/KJBSOV4IbHKIWmKudYiCehVideo de gatinho no instagram: https://www.instagram.com/mpminds_?igsh=MTloM3VtdTA0eWEwZQ==Instagram do podcast: https://www.instagram.com/podcast.lifewithaiLinkedin do podcast: https://www.linkedin.com/company/life-with-aiBlog post explicando diffusion: https://www.assemblyai.com/blog/diffusion-models-for-machine-learning-introduction/Diffusion paper: https://arxiv.org/pdf/2006.11239.pdf?ref=assemblyai.com 
undefined
Jun 27, 2024 • 14min

#86- CLIP, SigLIP e JinaCLIP.

Fala galera, nesse episódio eu falo sobre 3 modelos muito importantes que usam contrastive learning, CLIP, SigLIP e JinaCLIP. Eles são modelos de embedding de text-imagem que nos permitem de por exemplo faz retrieval em text e imagem ao mesmo tempo.Link do grupo do wpp: https://chat.whatsapp.com/KJBSOV4IbHKIWmKudYiCehCLIP paper: https://arxiv.org/pdf/2103.00020SigLIP paper: https://arxiv.org/pdf/2303.15343JinaCLIP paper: https://arxiv.org/pdf/2405.20204Github of similarities and contrastive loss: https://github.com/filipelauar/projects/blob/main/similarities_and_contrastive_loss.ipynbInstagram of the podcast: https://www.instagram.com/podcast.lifewithaiLinkedin of the podcast: https://www.linkedin.com/company/life-with-ai
undefined
Jun 20, 2024 • 13min

#85- Constrastive learning e similaridade de cosseno.

Fala galera, nesse episódio eu falo sobre 2 conceitos tecnico muito importantes em Deep Learning, constrastive learning e similaridade de cosseno. Eles muito úteis pra treinar modelos de embedding ou fazer RAG.Link pro grupo do whatsapp: ⁠https://chat.whatsapp.com/KJBSOV4IbHKIWmKudYiCehÓtimo blog post sobre contrastive loss: https://lilianweng.github.io/posts/2021-05-31-contrastive/SimCLR paper: https://arxiv.org/abs/2002.05709Instagram do podcast: https://www.instagram.com/podcast.lifewithaiLinkedin do podcast: https://www.linkedin.com/company/life-with-ai
undefined
Jun 13, 2024 • 14min

#84- FineWeb, o melhor dataset pra pre-treinar LLMs.

Fala galera, nesse episódio do podcast eu falo sobre o dataset FineWeb, o melhor dataset open source de pre-treinamento existente até hoje. No episódio eu explico como eles fizeram a curadoria do dataset e um pouco dos resultados.Link pro grupo do whatsapp: https://chat.whatsapp.com/KJBSOV4IbHKIWmKudYiCehLink do blog da huggingface: https://huggingface.co/spaces/HuggingFaceFW/blogpost-fineweb-v1Instagram do podcast: https://www.instagram.com/podcast.lifewithaiLinkedin do podcast: https://www.linkedin.com/company/life-with-ai
undefined
Jun 6, 2024 • 32min

#83- LLM Copilot com Joao da Stackspot AI.

Fala galera, nesse episódio eu falo com o João Batista, Technical Product Manager da Stackspot AI. No episódio a gente falou bastante sobre o uso de LLMs como um copilot usando os próprios documentos da empresa para dar as respostas usando RAG. A gente falou tanto de aspectos técnicos como de produto, como qual métrica de similaridade pro RAG, quantos documentos usar, como mostrar a resposta e como metrificar a qualidade. Linkedin do Joao: https://www.linkedin.com/in/joaobatista-cordeironeto/ Linkedin da Stackspot AI: https://www.linkedin.com/company/stackspot/ Instagram do podcast: https://www.instagram.com/podcast.lifewithai Linkedin do podcast: https://www.linkedin.com/company/life-with-ai
undefined
May 30, 2024 • 10min

#82- BitNet, Transformers com 1 bit.

Fala galera, nesse episódio eu falo de 2 papers, BitNet e 1.58 Transformers. Esses 2 papers da Microsoft apresentar uma nova receita de como treinar Transformers com apenas 1 bit, diminuindo muito o consumo de memória e energia, assim como o tempo de inferencia. BitNet paper: https://arxiv.org/pdf/2310.11453 1.58 bit paper: https://arxiv.org/pdf/2402.17764 Instagram do podcast: https://www.instagram.com/podcast.lifewithai Linkedin do podcast: https://www.linkedin.com/company/life-with-ai
undefined
Apr 19, 2024 • 11min

#81- Llama 3.

Episódio extra falando sobre o lançamento do Llama 3!!!
undefined
Apr 18, 2024 • 15min

#80- Layer pruning e Mixture of Depths.

Fala galera, continuando a serie de episódios sobre PEFT, nesse episoódio eu falo sobre tecnicas de otimização de inferência em LLMs. Eu falo de layer pruning, onde a gente corta algumas camadas consecutivas da rede sem perder quase nada de qualidade do modelo. Eu falo também sobre Mixture of Depths, uma tecnica semelhante ao Mixture of Experts, onde a gente usa um routing pra escolher quais tokens vão ser processados em qual camada da rede. Paper MoD: https://arxiv.org/pdf/2404.02258.pdf Paper layer pruning: https://arxiv.org/pdf/2403.17887v1.pdf Instagram do podcast: https://www.instagram.com/podcast.lifewithai Linkedin do podcast: https://www.linkedin.com/company/life-with-ai
undefined
Apr 11, 2024 • 15min

#79- LoRA e QLoRA.

Fala galera, esse é um primeiro episódio de uma série de episódios sobre PEFT, Parameter Efficient Fine Tuning. Nele eu falo sobre LoRA e QLoRA, que são 2 métodos muito importantes e amplamente utilizados que possibilitam o treinamento de LLMs bem mais rápido com o uso de apenas 1 GPU sem perder perfomance. Video sobre QLoRA: https://www.youtube.com/watch?v=6l8GZDPbFn8 LoRA paper: https://arxiv.org/pdf/2106.09685.pdf QLoRA paper: https://arxiv.org/pdf/2305.14314.pdf Instagram do podcast: https://www.instagram.com/podcast.lifewithai Linkedin do podcast: https://www.linkedin.com/company/life-with-ai
undefined
Mar 21, 2024 • 10min

#78- RAFT: Unindo RAG com fine tuning.

Fala galera, nesse expiódio eu falo sobre Retrieval Aware Fine Tuning (RAFT), um paper que propos uma nova técnica que utiliza tanto domain specific fine tuning quanto RAG pra melhorar a capacidade de recuperação da informação dos LLMs. Nesse epiódio eu também falo sobre um outro paper que também tem o nome de RAFT, mas dessa vez Reward rAnking Fine Tuning, que propoe uma nova técnica para fazer RLHF mas sem os problemas de convergencia de Reinforcement Learning. Retrieval Aware Fine Tuning: https://arxiv.org/abs/2403.10131v1 Reward rAnking Fine Tuning: https://arxiv.org/pdf/2304.06767.pdf Instagram do podcast: https://www.instagram.com/podcast.lifewithai Linkedin do podcast: https://www.linkedin.com/company/life-with-ai

The AI-powered Podcast Player

Save insights by tapping your headphones, chat with episodes, discover the best highlights - and more!
App store bannerPlay store banner
Get the app