Тёмный
No video :(

Validação Cruzada: Aprenda de forma Simples Como Usar essa Técnica. 

Stack
Подписаться 45 тыс.
Просмотров 21 тыс.
50% 1

TODOS OS SCRIPTS e bases de dados usadas nessa aula estão disponíveis no seguinte canal do Telegram: t.me/minerando...
Entenda e aplique a técnica de Cross Validation para avaliação de Modelos de Machine Learning.
Conheça o blog Minerando Dados, um passo-a-passo para você se tornar referência na área de Data Science .
Link » minerandodados....
Deixe seu like 👍
----------------------------------------------------------------------------------------------------------
🔴 E-book Gratuito para você iniciar em Data Science do Zero:
Link » mentoria.miner......
----------------------------------------------------------------------------------------------------------
🔴 Inscreva-se no canal do Minerando Dados no RU-vid:
Link » www.youtube.co....
- - - - - - - - - - - - - - - - - - - - - - - - - - - - -
💎 Acompanhe o Minerando Dados 💎
- - - - - - - - - - - - - - - - - - - - - - - - - - - - -
• Blog » minerandodados....
• RU-vid » www.youtube.co....
• Facebook » / minerandodados
• Instagram » / blogminerando
#crossvalidation
#machinelearning
#python
#minerandodados

Опубликовано:

 

5 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 39   
@felipemartinsyoshimoto6954
@felipemartinsyoshimoto6954 2 года назад
Muito bem explicado! Linha a linha! Muito obrigado! Parabéns pela calma e paciência!
@vivo500221
@vivo500221 Год назад
Trata-se de uma explanação de excelência, que transforma um conteúdo de difícil assimilação , em um conteúdo de fácil compreensão e entendimento. Parabéns
@henriquerg2
@henriquerg2 5 месяцев назад
Muito bom, parabéns!
@joemirgiombelli8219
@joemirgiombelli8219 2 года назад
Como sempre vídeo muito claro e explicativo, parabéns pela didática!
@tonyufu2005
@tonyufu2005 3 года назад
Sempre que preciso aqui no canal suprir alguma dúvida. E sempre me surpreendo com ótimas e tranquilas explicações, como por exemplo está. Top. Parabéns !!!!
@gustavosousa4808
@gustavosousa4808 4 года назад
Muito boa a explicação, rápida, clara, prática e direta. parabéns
@Stack_tecnologias
@Stack_tecnologias 4 года назад
Que bom que gostou, Gustavo.
@janainasantos1309
@janainasantos1309 4 месяца назад
Simples e objetivo. Muito obrigada!
@julianaauzier1330
@julianaauzier1330 2 года назад
Finalmente encontrei uma explicação clara e sucinta! Muito bom, parabéns *_*
@jessica_barros
@jessica_barros 4 месяца назад
Ótima aula! Mas tenho uma dúvida - nós geramos 05 modelos, correto? Mas qual vai para a "produção"? Só encontrei um vídeo onde a professora dizia que para ter o "modelo final" deveríamos treinar o modelo utilizando todo o dataset, sem separar em treino e teste - isso é umas das abordagens possíveis ou é "regra"? Obrigada!
@fabianonbf
@fabianonbf 4 года назад
você pode setar o seed no random_state do train_test_split pra nao aleatorizar sempre
@Stack_tecnologias
@Stack_tecnologias 4 года назад
Sim, mas no ambiente em produção isso não vai adiantar. Quis mostrar que a aleatoriedade dos dados pode ser um problema.
@eritongomes8110
@eritongomes8110 Год назад
Gostei demais dessa aula
@thiagoftc4392
@thiagoftc4392 11 месяцев назад
Ensino prático e eficiente. Obrigado pelo conteúdo, ajudam muito.
@daniellealbuquerque5196
@daniellealbuquerque5196 4 года назад
Se eu fizer esse cross_val_score para toda a minha base de dados, ele lá dentro já vai separar treino e teste e depois separar os grupos da vc, mas como que eu sei quanto (%) que foi usado pra treino e teste?E se eu tiver outro conjunto de dados pra prever a partir desse modelo já gerado, como que eu vou chamar esse modelo para prever outro conjunto?
@otavio_oliveira
@otavio_oliveira 3 года назад
obrigado, me ajudou com uma questão de uma avaliação da faculdade!!
@carolinea.441
@carolinea.441 4 года назад
Obrigada pelo vídeo. Não tenho background técnico, e o conteúdo me ajudou bastante em curso de analítica que estou fazendo.
@Stack_tecnologias
@Stack_tecnologias 4 года назад
Bacana Caroline, que bom que gostou.
@edumenezesbz
@edumenezesbz 2 года назад
Para que serve o "instancia o classificador SVM" ?
@alyssonmachado4340
@alyssonmachado4340 3 года назад
Muito bem explicado!
@gefett
@gefett 3 года назад
Excelente
@lismarbritodesousa2411
@lismarbritodesousa2411 4 года назад
Parabéns! Bem didático. Achei top.
@Stack_tecnologias
@Stack_tecnologias 4 года назад
:)
@prof.michaeldiniz8813
@prof.michaeldiniz8813 4 года назад
Olá, muito bom o video. No seu exemplo com 5 folds, o cross validation gerou 5 modelos diferentes, numa situação prática, ao final do processo, eu preciso de um único modelo, qual destes 5 eu escolho ? O que teve maior acurácia ? Cálculo a média de cada parâmetro gerado pelo modelo ? Obrigado
@Stack_tecnologias
@Stack_tecnologias 4 года назад
No caso a sua acurácia será a média de todos os modelos , Michael.
@prof.michaeldiniz8813
@prof.michaeldiniz8813 4 года назад
@@Stack_tecnologias isso pra mim está bastante claro, a minha dúvida é outra. Gostaria de saber quais são os parâmetros que devo escolher para meu modelo quando for usa-los na prática. No exemplo, com 5 folds, são gerados 5 modelos diferentes, qual desses modelos eu devo usar quando de fato for fazer uso do modelo em uma situação real ?
@Stack_tecnologias
@Stack_tecnologias 4 года назад
@@prof.michaeldiniz8813 Bacana. No caso você deve rodar um teste exaustivo utilizando um conjunto de parâmetros e validando isso com um cross validation. Por exemplo, o método gridsearchCV te permite validar conjuntos de parâmetros ao mesmo tempo que utiliza cross validation para cada parâmetro do teste.
@Wesley34927
@Wesley34927 4 года назад
@@Stack_tecnologias Isso tbm sempre foi minha dúvida. Então, quando for colocar meu modelo em produção não é só escolher o melhor dos 5 treinados? Mas na essência o que o gridseach faz não escolher os melhores hiperparâmetros testar esse modelo em k fold bases de dados e retornar a saída de um único melhor modelo ou ele retorna a os hiperparâmetros médios dos modelos treinados nas k bases de dados? Desculpe a dica agora, mas não seria melhor fazer um exemplo real da validação cruzada, como se usa em projetos reais, ou detalhar mais a explicação. Por que se não fica mais do mesmo, existe mais de mil tutorias com esse mesmo exemplo, e muitos vídeos no youtube tbm com esse msm sentido. Você pode sair na frente ensinando algo que seja mais do mundo real msm. Pq se não fica mais do msm. Grato...
@josebarreira6799
@josebarreira6799 3 года назад
A finalidade do Cross Validation não é para elaborar o modelo final. Não vamos usar essas 5 instancias de modelos para realizar predições. Para isso usamos todos os dados da amostra. O objetivo do Cross Validation é model checking e não model building. Exemplo: imagine que temos dois modelos em análise: um com regressão linear e outro com redes neurais, Qual é o melhor para seu projeto ? rodamos K-fold cross validation para os dois modelos e verificamos qual modelo tem a melhor predição/performance. Assim que escolhemos o modelo com melhor performace, digamos o modelo com regressão linear, retreinamos o modelo com todos os dados, extraindo os paramentros/coeficientes do modelo. Existe uma técnica avançada denominada "bagging" que combina essas instancias de modelos em um modelo final.
@asa-zn6xh
@asa-zn6xh 2 года назад
Cross Validation so e usada em problemas de regressao?
@MHVideos13
@MHVideos13 2 года назад
bom dia professor. Se eu usasse o random state como parâmetro e preenchesse com 1,2,3, etc. resolveria o problema de aleatoriadade do modelo, ou mesmo assim ainda precisaria o usar o cross_val_score? Abs
@videnteinconsciente472
@videnteinconsciente472 2 года назад
Mas como exatamente faz isso do zero, tipo pra treinar eu preciso constantemente ficar trocando os meus dados pra reduzir o custo certo, pra conseguir a validação cuzada eu tenho fazer o processo de treino aplicar as amostras de teste, ai eu pego o erro dos testes fasso a media e jogo na regra de tres?
@KodandocomFaria
@KodandocomFaria 4 года назад
Existe a possibilidade de dar overfit com crossvalidation ? se sim como faço pra saber se meu modelo está com acuracia boa ou é overfit?
@Nay92nve
@Nay92nve 2 года назад
Gostaria de saber se é possível salvar as folds que são divididas de treinamento e o teste em suas respectivas pastas usando o k-fold? Eu estou tentando, mas ainda não consegui salvar a divisão do meu dataset que eu fiz. No meu caso, o dataset é de imagens.
@amauryribeiro1860
@amauryribeiro1860 4 года назад
perfeito
@Mauroak8
@Mauroak8 3 года назад
Teria algum script para eu fazer k-fold com base de dados de imagens.
@tonyufu2005
@tonyufu2005 3 года назад
*preciso venho
Далее
Complete Guide to Cross Validation
29:49
Просмотров 54 тыс.
How to get Spongebob El Primo FOR FREE!
01:36
Просмотров 14 млн
Saiba tudo sobre Validação Cruzada
29:40
Просмотров 4,9 тыс.
Validação cruzada (Cross-Validation) no R
19:51
Просмотров 1,5 тыс.
Machine Learning Fundamentals: Cross Validation
6:05
Cross Validation Explained!
10:55
Просмотров 3,6 тыс.