Somos uma escola de programação em Python com ênfase em Dados. Com uma única assinatura, você tem acesso total a 14 cursos sobre Dashboards, Data Science, Machine Learning, Automações, Web Scraping e Trading Quantitativo.
Conheci o canal agora, super didático, mais um inscrito. E daí, foi exatamente o que eu pensei sobre esse modelo de 405B, estou interessado mesmo é nas bitnets, você tem algum vídeo sobre?
Estava buscando saber mais sobre esse método que nem vou me atrever a escrever o nome aqui de cabeça. Rsrsrs e após ver vários vídeos inúteis apareceu o seu. Eu aqui chocada por o melhor vídeo ter sido de alguém de programação ( tipo totalmente diferente do seu assunto principal). Parabéns o melhor vídeo do RU-vid do assunto. Sem enrolar, explicando certinho a forma de pensar e tals. De verdade parabéns e muito obrigada por compartilhar dessa forma simples e prática. ❤
Ninguém consegue uma única H100. O Elon Musk já começou com 100.000 placas H100. Milhares trabalham para ele e poucos vão poder comprar uma única H100 também, praticamente todo dinheiro vai para 1 pessoa só.
acho q o hype tah passando... Espero q canais como o seu continuem, pois são muito mais "pé no chão". Cansado dessa galera virando os olhinhos, com qq noticia meia boca de IAs.😂🙂
DE INTERNET EU CONHEÇO O BÁSICO DO BÁSICO, MAS O QUE EU VI NESSE VÍDEO, NESSA AULA VÍDEO... TIPO: O CARA TÁ MORTO E VEM O "SALVADOR" E DIZ "LEVANTA-TE!" POKIM EXAGERADO? ACREDITE, NO MEU CASO NÃO! VOU PROCURAR ME ATER DOS OUTROS VÍDEOS E SE EU NÃO GOSTAR, PELO MENOS ESSE TROUXE-ME DE VOLTA A VIDA. GRATIDÃO 🙏.
FANTÁSTICO!!! CARA VC É MUITO, MAS MUITO BOM! ALGUÉM JÁ DISSE QUE VC É UM JOVEM: BONITO, INTELIGENTE E SUPER BOM NO QUE FAZ? NÃO? ENTÃO CITO EU. CARA , GRATIDÃO POR ESSE EXCELENTE VÍDEO AULA E COM CERTEZA IREI ME ESFORÇAR PARA COLOCAR EM PRÁTICA, POIS ESTOU MUITO PARADO E SUAS ORIENTAÇÕES IRÃO ME TRAZER A VIDA. SEI QUE VOU PRECISAR DE MUITA FORÇA DE VONTADE E ÂNIMO, MAS EU VOU CONSEGUIR VOLTAR A VIVER. CARA, RECEBA MEU ABRAÇO E FICO MEGA FELIZ EM VER UM IRMÃO DE COR VITORIOSO, SEI QUE NÃO FOI FÁCIL E VC VENCEU. TODOS NÓS PODEMOS VENCER INDEPENDENTE DE COR DA PELE, GÊNERO, SE É OU NÃO RELIGIOSO, IDADE, ETC. DE NOVO GRATIDÃO POR COMPARTILHAR ESSE RICO VÍDEO. AMEI ❤. NAMASTÊ 🙏.
Só falam em consequências, sem citarem os fatos que as geraram. Ora, bolas! Onde está a dificuldade de se prever a catástrofe, vendo o assoreamento absurdo dos rios, o seu represamento irresponsável por diques e represas e por aí vai... Sou mais Thiago Drumm... esse sim, mostra os fatos e suas consequências, tanto as atuais quanto as futuras, se nada for feito para resolvê-los! Vocês querem ser os figurinhas, sem ter café pra tanto! Desculpe. Minha opinião.
Cara, como eu consigo deixar meu modelo 70b de uma forma bem mais configurado eu sou leigo, uso tudo como default, queria deixar ela mais contextualizada.
Eu estava tentando configurar essa versão 405b agora a tarde na real, to com 2 GPU A40 de 48gb cada 350gb de ram e usando o openweb ui para o front, mas eu uso o llama3.1 70b de forma até satisfatória, porem ainda acho ela pouca coisa lenta, como alterei a vm hoje de manhã para pegar +1 GPU ainda não aloquei as 2 placas para trabalharem juntas.
aahah eu perdi dias tentando rodar o llama, mesmo com uma A100 não foi o suficiente. Apelei para usar online mesmo, quem quiser testar me chama aqui :)
Aaa ambos usam modelos dedicados por detras dos panos pra varias tarefas. A LLM apenas entende o que vc quer e chaveia pra outra sub ia focada. Claramene nenhum está usando o stockfish.
Cara, impressionante como vc sintetizou um mundo em poucos minutos e com uam didática fascinante, digno de um professor com anos e anos e licenciatura. Parabéns pelo trabalho! Fiz meu mestrado em IA, estudei tudo que foi mencionado e a clareza, objetividade e simplicidade que vc colocou deixou o tema acessível a todos
Na minha opinião as IAs estão no patamar de desenvolvimento semelhante a uma criança de 10 anos quando gosta muito de um assunto, domina super bem o conteúdo superficial e prático, mas possui limites evidentes quando é necessário precisão e profundidade.
@@Guiburgueir4 me refiro a questão da otimização independente do modelo, pq já testei no meu pc e mesmo modelos pequenos não são super fluidos, e as nvidia quadro são feitas pra cálculos complexos
Este é um site que apresenta testes de velocidade de inferência em diferentes GPUs: github.com/XiongjieDai/GPU-Benchmarks-on-LLM-Inference. Mas em linhas gerais, qualquer GPU é melhor do que nenhuma, dado que seu modelo caiba inteiramente nela. Abraços!
coisa inutil ,, a Meta não tá indo bem,, alem de estragar seus produtos (facebook) só lança coisa inútil,, alguém ai já comprou uma casa no mundo virtual da meta???
Infelizmente não.... e não sei se será, pois a Groq (sei lá como) é totalmente gratuita, mas um modelo de 700gb roubaria muito espaço dos demais. Aguardemos!!
Mais uma prova de que a quantidade de parâmetros não significa um ganho significativo semelhante ao tamanho… e pensando em agentes, em cadeia, o resultado final eh tão bom quanto.
Na prática, um modelo enorme desse com todas essas gpus, eu teria uma LLM melhor que o chatgpt? Além de rodar local e toda a questão de liberdade, tem como ter um PC normal e ainda rodar uma local com capacidade top de um chat gpt 4 por exemplo? Que faça buscas, vá aprendendo comigo, etc
@@coachvalente tem como você refinar o llama 8bi pra o que você precisa. Aí melhora a precisão dele. Muito parâmetro vai ter muita coisa desnecessária pro teu uso tbm.
@@luizemanoel2588 Tipo, eu quero treinar com todos os meus livros, minha personalidade, pra me ajudar em varias coisas da vida, organizacional, emocional e que tambem saiba buscar na web coisas científicas. VOce acha que da?