hoje 14/07/2020 tem 6 dislaike no video, eu fico pensando quem são essas figuras que fazem isso, o cara esta passando o conhecimento de graça e tem zé ruela que dá dislike, ah vão catar coquinho .
@@CleberCampos já passou pela cabeça de vocês que é impossível agradar todo mundo? uma didática que é boa pra vocês pode não ser boa pra outras pessoas, isso não quer dizer que o cara é um "Zé Ruela com inveja alheia"
Pra mim, esse vídeo foi super didático, simples e objetivo. Tudo que eu queria. O prof. da minha faculdade simplesmente copiou o exemplo do livro sem explicar nada, sozinha consegui entender os cálculos, mas faltou a explicação final, que aqui no Didática Tech foi sensacional. Nota mil!
Caros, vocês têm algum vídeo explicativo da função predict no R Studio? Como ela funciona ou se baseia? Didática de vocês sensacional. Parabéns e obrigado.
Comecei a estudar ML agora e sempre achei tudo tão complicado, mas você me mostrou que com uma boa didática da pra aprender. Muito obrigado pela aula!!
Professor, gosto muito das sua aulas mas fiquei com essa dúvida, gostaria, se possível, que o senhor me explicasse. Porque no segundo exemplo da entropia a "IM" ficou com 0,65, consequentemente o "NÃO" ficou com 0,35? Não seria o certo do "SIM" ficar com 0,80? Porque o "NÃO" com apenas 1 chance em 6 ficou com 35% das oportunidades? Um grande abraço e parabéns!
Oi João, aqui no canal vamos postando vídeos periodicamente, mas se você quiser acelerar, temos essas aulas prontas e detalhas em nosso curso de machine learning, módulo II: didatica.tech/curso-de-machine-learning-2-com-python/
Uma dúvida, eu posso criar um algoritimo para prever as outras combinações, nesse caso, vimos que a função tem o ganho de informação 1, porém podemos perceber que caso houvesse uma combinação diferente, por exemplo, alto, perto e desinteressante, poderia ocorrer um target SIM, é possível o algorítimo prever algo que ele não treinou?
4 года назад
Sim Jean, essa é a ideia. Na vida real os dados são imperfeitos e o algoritmo irá dar o seu melhor palpite.
estou bem interessado no curso, mas minha dúvida é: o curso vai do basico ao avançado, ou quando eu terminar o curso precisarei fazer outro para poder implementar maching learning em sistemas reais?
4 года назад
O curso é bastante prático, mostramos vários usos de caso em datasets reais
Terminei o ensino médio agora, e não deixei de notar que esse sistema de classificação é bem parecido com o que se vê em química, quando temos que descobrir quais as concentrações de substâncias que quando alteradas, modificam também velocidade, pra assim definir a fórmula da velocidade de reação, pelo que observei é mesma lógica certo ?
Professor, e quando nossas informações são todas quantitativas? por exemplo colunas de preços, porcentagens e área... Como poderia aplicar esse conceito para descobrir os nódulos pai e filhos?
3 года назад
Oi Marcio, nós mostramos isso no curso Módulo I: didatica.tech/curso-de-machine-learning-online-com-python/
professor,em um video na web vi um cara ensinando mas sem calcular o peso, calcular GI sem peso ta certo?
4 года назад
Existem outras formas de se calcular o ganho de informação, mas que chegam no mesmo resultado. Se o método usado não for equivalente ao mostrado nesse vídeo, aí sim estaria errado
Pensam em disponibilizar o curso completo (pago) em alguma plataforma como udemy?
5 лет назад
Olá Gilian, o curso completo já está disponível em nosso site. Segue o link: didatica.tech/cursos-machine-learning-diferenciados-pela-didatica-aprendizado/
Se o ganho de informação da variável função não tivesse sido 1, ou seja, se os dados não tivessem ficado bem classificados usando apenas essa variável, como ficaria a construção da árvore? Essa parte não ficou clara pra mim.
Alguém percebeu que o único fator real de decisão era se o trabalho era interessante ou não? Sabendo disso, o que fazemos com os dados? Eliminados as duas primeiras variáveis ou organizamos de outra maneira?
4 года назад
Nesse caso poderia eliminar sim. Mas em problemas reais, dificilmente uma única variável conseguirá explicar tudo sozinha
Na verdade na física a entropia não está muito longe disso. Quando estudamos física estatística a entropia é definida por essa fórmula mas a probabilidade está relacionado aos microestados possíveis no sistema.
Caracas, aula sensacional! Pra treinar, eu estou tentando fazer um exercício parecido no python, mas descobri que tem algo que não tá dando certo. Eu quero contar, em uma coluna específica, os dados que contenham a palavra 'Sim'. Só que quando uso count() ele conta quantos itens tem em toda coluna. Já tentei fazer algo do tipo tabela.count('Sim') mas não tá dando certo. Enfim, rodei a playlist mas não encontrei. Se alguém puder me dar uma luz onde estou errando, serei grato**2: import pandas as pd dicio = {'':['Europa','Asia','EUA','Austr','Russia'], 'Custo':['Baixo','Alto','Alto','Alto','Baixo'], 'Interesse':['Medio','Medio','Alto','Alto','Medio'], 'Clima':['Frio','Frio','Frio','Calor','Frio'], 'Status':['Nao','Nao','Sim','Sim','Nao']} tab = pd.DataFrame (dicio) print (tab) Et_ps = tab ['Status'].count('Sim')
4 года назад
Oi Wesley, Você pode contabilizar todos os valores da coluna usando tab ['Status'].value_counts() Ou ainda contabilizar um termo específico tab['Status'].groupby('Sim').count()
@ Não funcionou, deu erro. Mas eu consegui fazer da seguinte forma: tab2 = tab["Status"] tab3 = tab2[tab['Status'] == 'Sim'].count() Provavelmente não é a mais eficiente haha
Parabéns pelo vídeo amigo. Tenho algumas críticas e espero que as leve pelo lado construtivo pois gostei bastante da iniciativa. Só achei que as explicações sobre entropia e ganho de informação poderiam ser mais técnicas e organizadas, pois você começou mostrando como calcular o ganho de informação sem nem ao menos dizer pra quê servia (nesse sentido gostei mais do vídeo do Sandeco). Também acho que o exemplo escolhido poderia ser melhor, no sentido de ter pego um exemplo onde fosse necessário calcular um próximo nó na árvore (não apenas já parando na primeira camada, devido a ter alguns detalhes). Vocês dizem prezar pela didática mas confesso que fiquei um pouco decepcionado pois o ensino em termos de entendimento real do assunto (e não apenas fazer mecanicamente sem explicar bem a teoria) deixou a desejar (ao menos pra esse conteúdo de decision tree) . Confesso também que fiquei um pouco receoso em comprar o curso completo pensando em ter esse mesmo viés
5 лет назад
Oi Marinalvo, obrigado pelo comentário. Em relação ao exemplo escolhido, fiz questão de pegar uma árvore pequena (uma camada) porque é o primeiro contato do aluno com o conceito de árvore de decisão, portanto um exemplo conciso, onde fosse possível ver tudo do início ao fim sem precisar gastar horas analisando a árvore seria uma boa forma de assimilar a informação, digerir, para depois continuar. Nas aulas subsequentes eu dou seguimento nesse assunto (quanto abordamos DT em problemas de regressão, eu faço outra camada). Quanto ao fato de explicar o que seria o ganho de informação antes de começar a calcular, eu pensei sobre isso antes de gravar a aula, porém concluí que seria difícil explicar o conceito sem que o aluno soubesse o que significava entropia, e este conceito - por sua vez - só seria bem explicando mostrando um cálculo e um gráfico. Ou seja, havia uma interdependência entre eles, uma explicação "resumida" antes de começar os cálculos acabaria ficando subjetiva e um pouco "vazia". Talvez no seu caso (que aparentemente já tinha certo background por ver outros vídeos), uma explicação prévia servisse bem, mas sinceramente acho que um aluno médio ficaria desencorajado. Eu comentei isso logo que mostrei as fórmulas, prometendo que depois de calcular iria explicar os conceitos, e de fato fiz isso. Foi uma estratégia incomum, porém enxerguei essa necessidade. Sobre o "entendimento real do assunto", que vai além dos cálculos, eu peço desculpas se deixou a desejar, mas sinceramente essas explicações holísticas a respeito da matemática do algoritmo são, de certa forma, subjetivas. Digo isso pois a própria definição dos algoritmos de machine learning - muitas vezes - não é pautada do conceito chave para depois desenvolver a matemática, e sim no contrário (experimentação, testes e ajustes empíricos primeiro, depois uma "tentativa" de explicação do conceito). Eu diria que esta é a natureza atual dessa ciência, e inclusive esse ponto tem sido matéria de muita discussão e crítica entre cientistas, pela falta de provas rigorosas de conceitos em aplicações (o machine learning atual é muito mais empírico do que técnico, cientificamente falando). Já que estamos falando de ganho de informação, esse paper foi um dos maiores responsáveis pela difusão dessa técnica mostrada na aula: hunch.net/~coms-4771/quinlan.pdf, mas podemos ver que não há uma explicação clara e objetiva sobre o que é esse "ganho de informação" em um sentido mais técnico. É quase que um nome para uma fórmula, e sua compreensão sobre a fórmula é que trará a explicação. Eu tentei passar no vídeo minha compreensão sobre a fórmula. Já assisti algumas aulas de universidades como MIT e Oxford sobre algoritmos de machine learning e confesso que também fico frustrado com a falta de profundidade na explicação das ideias/conceitos. Enfim, sem querer me inocentar da responsabilidade de explicar, existe muito espaço para desenvolvimento nesse aspecto mais técnico além da matemática. Abraços