Ótima aula. Obrigado! A seguir umas dúvidas, que agradeço se puder responder :) Preâmbulo das dúvidas: O modelo clássico lista uma série de probabilidades indexadas e depois cabe descobrir aquela que melhor se adequa aos dados, tarefa essa que exige que fixemos o sentido de "melhor se adequar", como fez ao selecionar o critério de máxima verossimilhança. Já o modelo Bayesiano fixa uma probabilidade naquele espaço dos parâmetros (a tal "priori"), logo pensa que o parâmetro será escolhido pela natureza naquela forma aleatória (fixada) a fim de gerar os dados, mas em posse dos dados podemos fazer uma engenharia reversa e depreender qual foi o parâmetro que a natureza sorteou, isto é, depreender mediante uma nova probabilidade (a tal "posteriori") onde esteve o valor sorteado. Dúvida 1: nessa altura (perto do 12:34) você começa a falar sobre estimar theta, apresentando vários possíveis critérios (máxima verossimilhança, valor esperado, mediana)... mas qual o propósito? O modelo Bayesiano não quer escolher o theta... É a natureza quem o escolhe. O que ganhamos em descobrir qual theta a natureza escolheu em um experimento específico que ela performou (visto que noutra instância desse mesmo experimento ela deveria vir a escolher outro)? Regredindo a pergunta: qual o ponto do Bayesiano, além de ser divertido, em olhar para a posteriori? Dúvida 2: O critério de escolha (moda, média, mediana etc) integra o modelo clássico/Bayesiano ou soma-se a ele? Dúvida 3: Você disse algumas vezes que o Bayesiano não deve considerar o dado antes de escolher o prior. Mas disse que podemos embeddar os dois modelos Bayesianos (suponho até que todos daquela família) num clássico e escolher (eg, usando máxima verossimilhança) qual melhor se adequa aos dados. Bem, o modelo escolhido dessa forma não seria um Bayesiano que considerou os dados? Então qual o real problema em o Bayesiano considerar os dados antes fixar o prior? O próprio estatístico clássico não pode/deve olhar os dados antes de fixar a família de probabilidades do seu modelo? Não entendo bem essas questões. Sei que são várias perguntas 😅, mas, se puder/quiser responder, pode responder as poucos tbm. Agradeço antecipadamente!
Todas as perguntas são extremamente pertinentes e interessantes. Estou um pouco ocupado com outras atribuições, mas vou tentar responder uma a uma na sequencia assim que eu tiver tempo. Dúvida 1: Muitos Bayesiano consideram o theta fixo mesmo e o mecanismo aleatório representa apenas a incerteza dele sobre os valores possiveis de theta. Essa incerteza é representada em forma de probabilidade (o clássico usa possibilidade, vou falar disso no próximo vídeo). Ou seja, a natureza da incerteza probabilística sobre theta não vem da natureza, vem da incerteza do analista. " Regredindo a pergunta: qual o ponto do Bayesiano, além de ser divertido, em olhar para a posteriori?" A posteriori para o Bayesiano é a incerteza dele atualizada pelos dados.
Dúvida 2: O critério de escolha (moda, média, mediana etc) integra o modelo clássico/Bayesiano ou soma-se a ele? O critério de escolha pode ser obtido via teoria da decisão (minimização de uma função de perda). Por exemplo, a média a posteriori é obtida minimizando a perda quadrática.
Dúvida 3: "Bem, o modelo escolhido dessa forma não seria um Bayesiano que considerou os dados? Então qual o real problema em o Bayesiano considerar os dados antes fixar o prior? O próprio estatístico clássico não pode/deve olhar os dados antes de fixar a família de probabilidades do seu modelo? Não entendo bem essas questões." É uma questão de principios. O Bayesiano raíz não viola o princípio da verossimilhança, pois seguindo alguns Bayesiano, "coisas horríveis podem ocorrer". Então os Bayesianos raíz preferem não violar esse princípio. O clássico pode se quiser, se não quiser não viola. O clássico tem mais amplitude de ação e pode simplesmente ignorar o principio da verossimilhnaça e adotar outros. O Bayesiano está mais restrito a principios mais rigidos.
@@ACienciadaEstatistica Sobre a resposta para 3: Hmmm faz sentido. Afinal, se a teoria Bayesiana serve para transformar a priori em a posterior via dados, não deve caber ao "olho do Bayesiano" fazer isso e perverter o processo... Como o clássico não parte dessa "filosofia", não é "anti-ético" ele olhar os dados antes haha obrigado!
@@ACienciadaEstatistica Sobre a resposta para 1: Isso foi extremamente elucidador. Típico fato da "atitude" que não fica escrito na matemática. Ajudou bastante, valeu!
Obrigado pela aula! Excelente e muito claro! :) Só ma pergunta um tanto besta - Porque o termo "hierárquico", quando se fala do Modelo Clássico Hierarquico? Tem a ver com o fato de existir "aninhamento", ou seja, dentro do modelo clássico hierárquico tem outras funções dentro dele? E sobre a ideia de variável "latente" lambda que exerce influencia na probabilidade. Ela é latente para o agente que faz o experimento ou ela é considerada latente também na "Natureza", como um parâmetro? Obrigado mais uma vez!
Obrigado pelas palavras. O termo hierárquico foi utilizado para denotar a estrutura do modelo. Como eu disse, eu poderia ter chamado por outro nome. A variável Y é latente no sentido de não ser observável. Ela é como o efeito aleatório em um modelo misto. Ela tbem serve para ajudar a modelar alguma variabilidade extra.
@@ACienciadaEstatistica Obrigado pelo esclarecimento! A dica de considerar latente da mesma forma como um efeito aleatório foi mto boa! Então, nesse caso, o termo "latente" seria um tanto diferente da variável latente/fator (tau) como visto na psicometria certo?
Essa variável latente é muito parecida com o traço latente da psicometria. Dependendo do jeito que se modela, essa v.a. pode ser interpretada dessa forma. Em geral eles colocam um efeito aleatório para explicar uma variável aleatória de interesse. Esse efeito aleatório pde ser interpretado de várias formas.