Тёмный

Como fazer web scraping com python em sites dinâmicos // O site muda toda hora 

Codifike
Подписаться 22 тыс.
Просмотров 74 тыс.
50% 1

Web scraping é uma coleta de dados da web, de sites, onde usamos scripts e programas para coletar ou raspar as informações destes sites e que poderão ser usadas para futuras análises.
💊Quer explodir sua mente!: encurtador.com.br/fhDT8
Para nosso video vamos fazer um web scraping em python comparar preços de cadeiras gamers, coletando as informação da web e depois vamos salvar as informações em um arquivo csv usando python pandas
Nosso web scraping python utilizará a linguagem python além de bibliotecas poderosas de extração de informação como beautiful soup e requests e pandas vamos percorrer diversas páginas para encontrar as informações que desejamos.
📑Código Fonte:
github.com/fab...
📔Livro: Web Scraping com Python: Coletando Mais Dados da web Moderna
amzn.to/2RZ2weB
🔦Iluminação
amzn.to/3xYjOJn
📸Camera logitech
amzn.to/3tyvWNC
#webscraping #python #raspagemdedados

Опубликовано:

 

28 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 301   
@nokkreload
@nokkreload 3 месяца назад
Excelente vídeo com exemplo da vida real. Estou cansado de ver vídeo no YT e em cursos da galera mostrando exemplos direcionados... sei que webscaping é algo complicado de ficar fazendo ou mostrando por questões legais. Mas o conteúdo é educacional, ninguém em sã consciência irá fazer 5 milhões de requisições num treinamento. Obrigado por compartilhar seus conhecimentos conosco. Ganho um inscrito.
@Codifike
@Codifike Месяц назад
Obrigado
@rhanierevieira
@rhanierevieira 11 дней назад
muito bom e bem explicado , de facil entendimento para quem esta começando.
@n0b0dy07
@n0b0dy07 5 месяцев назад
Top demais, não conhecia esse beautiful soup mas pelo que entendi, diferente do Selenium ele não precisa de um driver que avisa pro chrome que está sendo automatizado
@rafaelg8238
@rafaelg8238 2 года назад
Ótimo vídeo, parabéns. Sugestão para o próximo: webscraping com método post, de algum site que precise selecionar filtros e depois exportar em csv ou xlsx.. obs: sem utilizar o selenium
@Codifike
@Codifike 2 года назад
Ótima sugestão! Mas usando o Selenium 😉
@iruzikyaraujo730
@iruzikyaraujo730 3 месяца назад
Vídeo muito bom! Poderia falar um pouco sobre os problemas legais do web scraping? Gosto muito de fazer, mas sempre fico com medo de ter algum problema, mesmo fazendo poucas requisições por minuto
@emPrata
@emPrata 2 года назад
Excelente os vídeos... me ajudou em muitas coisas.... Mas um problema que não consegui resolver é que o campo que eu quero está com a tag dentro com um document.write("
@GregoryGustavo
@GregoryGustavo 2 года назад
Pra achar a quantidade era melhor Split(' ')[0]
@victorandrade6149
@victorandrade6149 2 года назад
Ajudou muito, eu estava penando para achar laço e estava apanhando ainda mais por está usando em um site de chamado.
@gkekam03
@gkekam03 2 года назад
surreal a forma que você entrega o conteúdo, muito obrigado, facilitou muito Um grande professor!
@Codifike
@Codifike Год назад
Que bom que gostou
@jonathansebastiao1
@jonathansebastiao1 2 года назад
Muito Bom Fabricio, gracas a seu outro video consgui fazer um web scraping. Gastei ums 2 dias, mas o codigo rodou. Não sou programador, mas me lancei nesse desafio de aprender uma linguagem esse ano. Valeu, sucesso.
@Codifike
@Codifike 2 года назад
Que bom Jonathan
@PHCareli
@PHCareli Год назад
Pro pessoal que está recebendo o erro → AttributeError: 'NoneType' object has no attribute 'get_text'. Pode ser necessário alterar o header da request (variável "headers").
@hywrisilva2667
@hywrisilva2667 Год назад
como?
@vitorruppel4868
@vitorruppel4868 Год назад
falou falou e nao falou nada
@PHCareli
@PHCareli Год назад
Oh, o YT deletou meu comentário, mas procurem por "How Headers Are Used to Block Web Scrapers and How to Fix It" (é o título de uma matéria de um site mostrando alguns exemplos) ou algo do tipo, os primeiros sites devem conter variações e explicações do que pode ser adicionado no header para simular outro dispositivo.
@victorcoelho2216
@victorcoelho2216 Год назад
O correto é 'User-Agent' vê se é isso, no meu caso era
@Oquadrinheiro
@Oquadrinheiro 12 дней назад
​@@vitorruppel4868Ele explicou como faz. Nos é que não temos conhecimento pra entender
@robeliobonfim256
@robeliobonfim256 Год назад
Boa noite. Também sou iniciante, mas consegui aprender facilmente . Parabéns pela excelente didática.
@Codifike
@Codifike Год назад
Que bom que ajudou
@ONGSuporteUnionMundial
@ONGSuporteUnionMundial Год назад
muito bom, Sou teu fan agora em !!!!! Poderia criar um video usando o scrapy!!!
@Codifike
@Codifike Год назад
Boa sugestão!
@guilhermegodoi7628
@guilhermegodoi7628 2 года назад
Show de bola Fabrício ! Tô inscrito
@Codifike
@Codifike 2 года назад
Valeu obrigado
@marciocardoso8414
@marciocardoso8414 2 года назад
Parabéns to estudando esse tema pra fazer uns frela na upwork porém ainda tenho medo que fazer mas valeu to aprendendo bastante com seu material
@Codifike
@Codifike 2 года назад
Bons estudos!
@EdmilsonBelem1608
@EdmilsonBelem1608 6 месяцев назад
Até agora tudo certinho, aula maravilhosa
@diogosilva3728
@diogosilva3728 2 года назад
Top de mais , muito obrigado , teria como fazer um video buscando precos de passagem aereas ? seria pedir muito ? abracos e sucesso
@Codifike
@Codifike 2 года назад
Boa sugestão!
@TatiLks
@TatiLks Год назад
Excelente! Obrigada por compartilhar seus conhecimentos de forma tão clara!
@Codifike
@Codifike Год назад
Eu q agradeço por ter assistido.
@rafaelkoga112
@rafaelkoga112 Год назад
Top demais! Parabéns pela vídeo aula, super didático!
@Codifike
@Codifike Год назад
Obrigados
@dilson_muniz
@dilson_muniz Год назад
O rei do WebScraping👏👏👏👏
@Codifike
@Codifike Год назад
😁
@whyakari
@whyakari 2 года назад
muito obrigado pôr compartilhar seu conhecimento com o público.
@Codifike
@Codifike 2 года назад
😉👍
@gersonkilderys1
@gersonkilderys1 Год назад
amigo muito bom seu vídeo 👏👏.... faz webscrapy em site feito em javascript.😊😊
@ricardolemos971
@ricardolemos971 Год назад
Parabéns! Ótimo conteúdo, excelente iniciativa Resolvi testar, criei o Código com o mesmo exemplo, conferi linha a linha a sintaxe. mas ocorre um erro. na linha site = requests.get(url, headers=headers) name 'headers' is not defined. Did you mean: 'headers'? pensei em declarar essa variável, mas não funcionou. Poderia dar uma luz sobre este erro?
@nandomatoos
@nandomatoos Год назад
Conteúdo sensacional. Muito Obrigado!!
@RafaelElmiroAdministrativo
@RafaelElmiroAdministrativo Месяц назад
Boa tarde, tudo bem? Adorei o conteúdo do vídeo, parabéns! Eu fiquei com uma dúvida somente no final. eu consigo exportar as informações de forma organizada para ele cair diretamente no Google sheets?
@pydata2.0
@pydata2.0 7 месяцев назад
neste caso do exemplo o site tem este elemento que mostra a quantidade de produtos, o que facilitou na lógica para encontrar a qtde de páginas. E nos casos em que o site gera centenas de páginas mas nao tem este elemento indicando a qtde de itens?
@marcelox51
@marcelox51 2 года назад
Boa tarde galera. Fui executar o programa igual o professor no momento 9:29 do vídeo. Porém, o meu código retornou o seguinte erro: Traceback (most recent call last): File "C:\Users\marce\PycharmProjects\webscrapping\scrapping.py", line 13, in qtd_itens = soup.find('div', id='listingCount').get_text().strip() AttributeError: 'NoneType' object has no attribute 'get_text' O que devo fazer para soluciona-lo?
@Codifike
@Codifike 2 года назад
Oi Marcelo quer dizer que ele não encontrou o elemento que vc esta procurando no caos o listingcount
@marcelox51
@marcelox51 2 года назад
Muito obrigado pelo retorno. Neste caso, como eu faço pra conseguir retornar o valor que está na div que tem o id listcount? Imprimi a variável soup e o HTML dentro dela tá menor.
@viniciusrubia3656
@viniciusrubia3656 2 года назад
O meu também deu esse erro e não achei nada para solucionar
@Codifike
@Codifike 2 года назад
@@viniciusrubia3656 Inspeciona novamente o html o id ou a div pode ter mudado de nome
@caiquefontes2435
@caiquefontes2435 2 года назад
Fala marcelo, Provavelmente isso aconteceu pq na hr do computador acessar o site foi bloqueado. Experimente dar um print na variável "soup" do codigo do video. e veja se o terminal mostra a estrutura html ou uma linha de texto. se mostrar um linha de texto, o site esta bloqueando seu acesso. Tente realizar a tarefa em outro site, atualizar a versao do navegador ou trocar de navegador.
@fillipeoliveira4927
@fillipeoliveira4927 2 года назад
Parabéns pelo vídeo, Fabricio você tem decorado em mente cada função dessas biblioteca ? Eu sinceramente não consigo codificar sozinho sem ver algum video, tu tem alguma dica para melhorar isso ?
@Codifike
@Codifike 2 года назад
Oi Filipe, tenho uma ideia pois ja usei, mas eu codifico com a documentação de um lado e o stackoverflow do outro 😉
@robsonalexandre3205
@robsonalexandre3205 Год назад
Sou iniciante, mas consegui aprender alguns conceitos importantes. Mas gostaria de elevar o nível do código, mas não sei como. Gostaria de permitir o usuário entrar com uma busca de parte do texto, depois procurar no DF as informações compatíveis com o texto buscado e por fim, retornar o menor valor da busca dele. Nem sei como começar isso!!!!
@Lumbrejacky
@Lumbrejacky 11 месяцев назад
Ótima aula!
@vitorlourenco8784
@vitorlourenco8784 2 года назад
+1 inscrito, like
@drogariaspaisfilhos4669
@drogariaspaisfilhos4669 2 года назад
incredible possibilities to those who master it. I am almost done with my first track, but there is so much more to discover and learn. TNice tutorials
@GiovanniJardel
@GiovanniJardel Год назад
cara o video em si muito bom mas voce faz uma explicação muito rapida onde algumas partes sempre tenho que voltar no video para poder acompanhar
@julianomateus2935
@julianomateus2935 14 дней назад
consegue fazer um código em python para extrair os numeros de qquer uma das loterias do site da CAIXA?
@grlking333
@grlking333 14 дней назад
ola boa tarde tou querendo fazer um script/bot voce pode me ajudar nisso ?
@victoriagomes6153
@victoriagomes6153 2 года назад
Oláa, preciso muuuito de ajuda! Tenho que fazer o levantamento das lojas da drogaria raia mas quando coloco qtd_itens = soup.find('p', class = "count-containe inlin").get_text().strip() aparece : AttributeError Traceback (most recent call last) in () 1 #'pager inline' ----> 2 qtd_itens = soup.find('p', {"class": "count-containe inline"}).get_text().strip() AttributeError: 'NoneType' object has no attribute 'get_text'
@Codifike
@Codifike 2 года назад
Isso acontece quando ele não encontra o nome da classe que está procurando e por isso ele não consegue extrair o texto de um valor vazio no caso o NoneType.
@jacquesddoug9880
@jacquesddoug9880 2 года назад
achei uma outra solução tenta ai: tag = soup.find('p', class = "count-containe inlin") qtd_itens = tag.text
@matancadeporco
@matancadeporco Год назад
@@jacquesddoug9880 não consigo desta maneira
@eduardo7184
@eduardo7184 Год назад
Como referenciar uma url para um site que é preciso logar? Ao tentar coletar os dados de uma classe, da tela inicial de login e não da tela atual
@beuge91
@beuge91 Год назад
Muito bom. :D
@Fabiopereira_cps
@Fabiopereira_cps 4 месяца назад
muito bom. adorei
@emerson51802
@emerson51802 2 года назад
Em alguns sites que executa alguns elementos em tempo de execução com o ajax, essa forma não vai funcionar muito bem, poderia fazer um vídeo explicando sobre essas paginas que executam uma parte do html em ajax , eu contornei esse problema com o selenium para abrir o site antes de fazer o request, mas ficou um pouco lento o programa, teria outra solução?
@Codifike
@Codifike 2 года назад
Vou tentar ver se vejo alguma solução para isso
@emerson51802
@emerson51802 2 года назад
@@Codifike show, já aproveito para agradecer, pois aprendi muitas coisas em python assistindo seus video
@neto_x
@neto_x Год назад
Tenta obter os dados via endpoint, da uma olhada na aba network do devtools
@lucascesar7795
@lucascesar7795 2 года назад
Aula excelente irmão! Eu tenho uma dúvida.. eu conseguiria fazer esse mesmo procedimento no mercado livre ? Mas aí os dados que eu gostaria de extrair seria de um produto específico, e iriam além do título e do preço. Eu gostaria de extrair título, preço, a quantidade de vendas que o anuncio tem, o estoque de cada vendedor, a reputação de cada vendedor, o nome do vendedor e o tipo de anúncio (se ele é clássico, Premium, clássico com frete grátis, Premium com frete grátis...). Para esses dados além do título e do preço, acredito eu que o Pyton além de analisar a capa de cada anúncio, ele teria que entar em anúncio por anúncio, e verificar essas condições.
@Codifike
@Codifike 2 года назад
Consegue , e só ir buscando as informações que vc quiser
@fallthred
@fallthred Год назад
como eu faço esse calculo quando a pagina nao tem o valor de paginas a amostra, só tem la em baixo um mostrar mais que quando clica carrega mais itens sem atualizar a pagina. Eu consigo a quantidade de pagina vendo pelas propriedades onde fica o mostrar mais, como faço pra colocar esse valor que esta na tag mostrar mais pra deixar automatizada a contagem de paginas? min 11:10
@Codifike
@Codifike Год назад
Neste caso , acredito q a informação já esteja pronta em um arquivo separado. Para saber como fazer assista esse meu vídeo ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-myHHRAXxhmk.html
@ewertonbrw
@ewertonbrw Год назад
linda didática!
@Codifike
@Codifike Год назад
Obrigado
@Gi851
@Gi851 2 года назад
O web scraping possibilita baixar arquivo vetorial como mapas, lotes de quadras etc de um site de intranet?
@silaspaesnomarketing
@silaspaesnomarketing 2 года назад
Parabens pelo vídeo.... uma dúvida,.. eu conseguiria fazer a parte do web scraping com o selenium apenas? vi outros vídeos uma junção do BS com selenium, e não consigo entender pq usam os dois. se puder me esclarecer, agradeço desde já
@Codifike
@Codifike 2 года назад
Ate pode fazer com o selenium. Mas o bs tem alguns métodos que são maia fáceis de usar
@AmandaGomes-eg3op
@AmandaGomes-eg3op Год назад
eu no caso estou precisando raspar o numero atual da roleta simultaneamente assim que muda em cada rodada. este código que vc fez da pra fazer esta raspagem em tempo real e enviar pro meu BOT ?
@alexandreferreira4126
@alexandreferreira4126 Год назад
Opa Fabrício e amigos, seria possível pegar fotos + descrição + comentário, com todos esses arquivos já ensinados no vídeo?
@Codifike
@Codifike Год назад
Sim, vice precisa descobrir as tags onde estão o q vc quer buscar e se tem um padrão q possa ser usado aa expressão regular e seguir o q fizemos no video
@alexandreferreira4126
@alexandreferreira4126 Год назад
@@Codifike top, muito obrigado pelo retorno de verdade
@gastrofy_
@gastrofy_ Год назад
Super Obrigado!!!!!!!!!!!
@Codifike
@Codifike Год назад
Disponha!
@LilMarqueZ997
@LilMarqueZ997 2 года назад
Top mano
@Codifike
@Codifike 2 года назад
Obrigado Michel
@luizantonioarruda6583
@luizantonioarruda6583 2 года назад
estou com um erro conforme mensagem abaixo. AttributeError Traceback (most recent call last) Untitled-1.ipynb Célula: 1 in () 12 site = requests.get(url, headers=headers) 13 soup = BeautifulSoup(site.content, 'html.parser') ---> 14 qtd_itens = soup.find('div', id='listingCount').get_text().strip() 16 index = qtd_itens.find(' ') 17 qtd = qtd_itens[:index] AttributeError: 'NoneType' object has no attribute 'get_text' poderia esclarecer porque está apresentando um problema no get_text() ?
@elias_jef
@elias_jef Год назад
Opa, Luiz! Esse erro que dizer que ele não achou a tag, pode ser por 2 motivos: 1 - Você adicionou a tag de maneira errada e por isso ele não localizou; 2 - Você pode ter tomado um "block" do site, e essa tag não vai retornar mais, pra verificar se foi um block tenta printar a url toda do site, no exemplo do video, você daria um: print(soup)
@marloncruz6330
@marloncruz6330 4 месяца назад
De passagem aerea ia ser massa.
@bruhlickd
@bruhlickd Год назад
Como fazer isso agora no Airbnb? Está dando tudo errado para mim. O tempo todo aparece esse erro: "AttributeError: ResultSet object has no attribute 'find'. You're probably treating a list of elements like a single element. Did you call find_all() when you meant to call find()?" Além do mais não consigo usar ".get_text()" com ".find_all". Aparece o erro: "AttributeError: 'NoneType' object has no attribute 'get_text'" O que estou fazendo de errado?
@Codifike
@Codifike Год назад
O erro esta dizendo que o objeto que vc criou é uma lista pois o find_all pega todo os elementos, por isso vc não vai conseguir extraior o texto usando get_text de uma lsita. precisa passar a lista pelo for paraa ter apenas 1 item e assim conseguir usar o get text
@bruhlickd
@bruhlickd Год назад
@@Codifike Obrigado. Outra coisa, no link url da página do airbnb não tem espaço para iterar a página (ao menos não sei localizá-lo). COmo faço? Este é o link: url_pag = f'www.airbnb.com.br/s/Italia/homes?tab_id=home_tab&refinement_paths%5B%5D=%2Fhomes&flexible_trip_lengths%5B%5D=one_week&price_filter_input_type=0&price_filter_num_nights=31&query=Italia&place_id=ChIJA9KNRIL-1BIRb15jJFz1LOI&date_picker_type=calendar&checkin=2023-03-09&checkout=2023-04-09&adults=1&source=structured_search_input_header&search_type=autocomplete_click&federated_search_session_id=96f3bbad-217c-47f6-8a94-a314fb66400b&pagination_search=true&cursor=eyJzZWN0aW9uX29mZnNldCI6MSwiaXRlbXNfb2Zmc2V0IjoyMCwidmVyc2lvbiI6MX0%3D'
@LuMedeiross
@LuMedeiross Год назад
Show
@spacexrl
@spacexrl 2 года назад
Show hein!, como eu poderia fazer pra ele me printar o link de cada anuncio junto com o nome e o preço?
@Codifike
@Codifike 2 года назад
Teria q pesquisar mas acho q tem um comando q faz isso
@MrEsqueletonxX
@MrEsqueletonxX Год назад
No caso esse link que vc armazenou na variável url não está explicitamente como Allow ou Desallow em robots.txt da Kabum, vc poderia ter o seu ip bloqueado no site se continuar fazendo essa raspagem de dados? Pergunto isso pq gostaria de fazer web scraping em sites de imobiliária pra pegar imóveis de uma determinada região só que os dados que quero pegar em um determinado link não consta se é permitido ou não então fica nesse limbo. Utilizando um time.sleep e outros recursos como uso de VPN manteria essa prática mais segura?
@Codifike
@Codifike Год назад
O sleep evita muitas requisição por segundo
@leotech3151
@leotech3151 Год назад
como seria o processo em uma pagina de buscas, porem as informacoes exibidas sao limitadas e para eu ter aceso aas informacoes que preciso, tenho que abrir o link...
@mateusj.5781
@mateusj.5781 11 месяцев назад
Não tem muito segredo. É só identificar o passo a passo que você faz manualmente para acessar cada informação e depois automatizar isso com o Python. Se na página de busca você precisa pesquisar algo, é só apontar para o input de pesquisa, inserir o texto nele e dar o submit para fazer a pesquisa, quando abrir a outra página com a âncora (link) que você precisa clicar, é só apontar para ela e usar o comando de click().
@leotech3151
@leotech3151 11 месяцев назад
@@mateusj.5781 a mente entendeu e processou.. so falta a mente transferir pro codigo kkk...
@felipenogueira3938
@felipenogueira3938 4 месяца назад
consigo extrair notícias de um site de tributos (Legislação) e usar o GPT para interpretar?
@felipenogueira3938
@felipenogueira3938 4 месяца назад
@codifike, conseguiria fazer um vídeo nessa pegada?
@Codifike
@Codifike 4 месяца назад
@@felipenogueira3938 Podemos tentar :)
@carlosvictor9796
@carlosvictor9796 Год назад
Meu código está retorna o erro 403 depois do request mesmo passando um User-Agent, o que pode ser? Já testei em outros sites e funciona perfeitamente
@anaclarasantos9295
@anaclarasantos9295 Год назад
Estava vendo web scraping em php e o cara disse que as vezes os sites usam bloqueadores! Talvez possa ser o seu caso
@yanaugusto5117
@yanaugusto5117 Год назад
o meu deu esse erro. attributeerror 'str' object has no attribute 'items'
@Codifike
@Codifike Год назад
ele não achou a tag que esta procurando
@wilsonribeiro3541
@wilsonribeiro3541 2 года назад
Boa tarde, Tentei realizar em outro site e deu o error 403? Como posso solucionar esse error de acesso?
@Codifike
@Codifike 2 года назад
Esse site para q vc não tem.aceaso a ele
@DanielBezerra1874523472645224
Queria tbm pegar os valores a prazo
@Showdegools
@Showdegools Год назад
você consegue extrair o celular do anunciante no OLX desse jeito?
@Codifike
@Codifike Год назад
Acho que sim, verifique nas tag
@BookFatos
@BookFatos Год назад
Não sei nada de pyton, é possivel fazer em react.js?
@Codifike
@Codifike Год назад
Acho que dá para fazre em js
@julioscarcelli5931
@julioscarcelli5931 10 месяцев назад
Olá tive o mesmo problema fiz a video aula na hora de rodar apareceu esse erro : preco = produto.find('span', class_=re.compile('priceCard')).get_text().strip() ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ AttributeError: 'NoneType' object has no attribute 'get_text' Ele esta trazendo o nome da marca, mas usando : preco = produto.find('span', class_=re.compile('priceCard')).get_text().strip() ele não traz o preço :/ e ja verifiquei no html da pagina, ainda esta como priceCard a classe, como isso é possivel? kkkk
@Codifike
@Codifike 10 месяцев назад
Dá uma olhada no nome da pagina pois acho que mudou
@julioscarcelli5931
@julioscarcelli5931 10 месяцев назад
@@Codifike então já conferi inclusive peguei a página que você mandou agora pouco em outro comentário, fui no site conferi também, porém ele não acha a a classe priceCard
@Codifike
@Codifike 10 месяцев назад
@@julioscarcelli5931 No final de semana vou tentar checar isso
@julioscarcelli5931
@julioscarcelli5931 10 месяцев назад
@@Codifike bacana muito obrigado por responder !
@Darkz000r
@Darkz000r 10 месяцев назад
O que eu achei até agora é o seguinte: o soup não consegue enxergar a span priceCard porque ela não consegue nem enxergar a div mãe que é a availablePriceCard. O nome realmente vem normal, mas o que está após o nome e antes do botão 'comprar' ele não vê, talvez seja algo dinâmico demais para o soup. Não vi nada no robots.txt que esteja barrando, também utilizei 3 user agents diferentes.
@TiagoGomes-pk3fb
@TiagoGomes-pk3fb 2 года назад
Teria como fazer isso somente com selenium?
@neto_x
@neto_x Год назад
Acho que tem cara. O ruim do Selenium é quando os sites muda a estrutura, vc tem que ficar fazendo manutenção no código sempre que isso ocorre. Vc pode usar o modo headless para não pesar no processamento.
@gabrielnity
@gabrielnity Год назад
Você tem curso de web scraping?
@Codifike
@Codifike Год назад
Oi Gabriel, tenho não. Até pensei em fazer mas não sei se vai ter público.
@paulorossi7510
@paulorossi7510 Год назад
@@Codifike tem, e tem muito, muito top a aula
@MatheusHenrique-wz9nm
@MatheusHenrique-wz9nm 26 дней назад
teria como dar um scrap em todas as fotos no site da oboticario? todos os produtos
@blinquedu2
@blinquedu2 Месяц назад
ja era os kra mudaram a estrutura do site esse codigo ja n funfa
@Codifike
@Codifike Месяц назад
Você tem que analisar a nova estrutura e adaptar
@blinquedu2
@blinquedu2 Месяц назад
@@Codifike cara obrigado vi o video aqui e consegui, irmao essa primeira versao do codigo parou de funfar eu quase quebrei meu notebook de raiva pq n estava funcionando
@davis5941
@davis5941 Год назад
Teria como pegar um texto especifico em java script ? agfsi skajshoak sçlaokjhs lajshpaoij tipo assim so que pegar apenas um nome
@sushi2517475
@sushi2517475 Год назад
compartilha o link aqui quem sabe
@wellingtoncesar9767
@wellingtoncesar9767 2 года назад
Vc tá usando seu proxy mesmo ou tá mascarado o proxy?
@Codifike
@Codifike 2 года назад
Olá não estou mascarando não
@wellingtoncesar9767
@wellingtoncesar9767 2 года назад
@@Codifike quando vc faz request dessa forma com header carrega página toda? Pq as vezes alguns sites são muito js e a página não vem todos os dados html usando isso resolve ou só selênio mesmo ?
@Codifike
@Codifike 2 года назад
@@wellingtoncesar9767 quando é só JS tem outro maneira de fazrr
@Codifike
@Codifike 2 года назад
@@wellingtoncesar9767 vou ver se consigo fazer um.video sobre isso
@CJ-kj6uc
@CJ-kj6uc 2 года назад
O cara parece o Thomas Shelby
@thiagotorres4151
@thiagotorres4151 2 года назад
kkkkkkkkkkkkk
@rafaelfurlan105
@rafaelfurlan105 10 месяцев назад
Alguem consegue me ajudar por favor, estou com dificuldades após entrar em um site WMS com login e senha, minha situação Eu ja programei ele para abrir uma nova pagina google com o Link do WMS e preencher login e senhar normalmente ok Ai ele entra em uma pagina especifica do WMS que eu quero, e eu preciso de uma informação que esta dentro de uma "div" porem eu não estou conseguindo nem copiar nem extrar as informações, alguem pode me ajudar ?
@Codifike
@Codifike 10 месяцев назад
Tem que verificar se esta pagina está sendo renderizada via javascript
@matheusnogueiraribei
@matheusnogueiraribei 2 года назад
Fala Fabrício muito show cara! Poxa tô numa labuta aqui meu amigo, estou tentando agrupar dados históricos de notícias de ações mas tá difícil cara, não acho uma fonte que consiga puxar uma quantidade significativa de dados. Seria muito legal com vídeo com esse tema de como criar um dataset com as notícias de ações para Sentimental analisys
@Codifike
@Codifike 2 года назад
Olá Matheus, legal,gostei da ideia vou tentar pesquisar e se conseguir faço um vídeo sobre.
@everton4400
@everton4400 Год назад
Quando o site não tem a quantidade de itens nem de itens por pagina, como a paginação?
@Kuzz7777
@Kuzz7777 Год назад
Cara estou tentando fazer isso só que está dentro de um Teria como eu fazer dessa forma ou tem outra solução?
@zholdanimelyrics4276
@zholdanimelyrics4276 Год назад
depois de fazer web scraping com selenium e se arrepender aqui estou eu transformando meu codigo q usa selenium pra bs4
@n0b0dy07
@n0b0dy07 5 месяцев назад
A única coisa que eu mudaria seria colocar um regex do preço removendo o R$, eu não sei se o beautiful soup consegue trazer um array igual os find_elements do Selenium mas se sim daria pra trazer só pelo nome da classe pai daí não teria que lidar com os ids das filhas
@DaveJunior
@DaveJunior Год назад
teria como criar um jeito de ele ficar analisando produtos que entram em promoção em sites como amazon e magazine luiza para eu enviar em lista pra clientes e assim ganhar dinheiro como afiliado?
@Codifike
@Codifike Год назад
Tem sim. Alias o primeiro vídeo da play list de web scraping fala exatamente sobre isso
@PedroBazzarella
@PedroBazzarella 2 года назад
Fala Fabrício. Show o video. Curti! Uma biblioteca que acho bem legal é o Scrapy.
@Codifike
@Codifike 2 года назад
Fala Pedro. Obrigado. Sim , Scrapy é legal, mas so usei 1x
@gfsouza86
@gfsouza86 5 дней назад
duas perguntas: - sem baixar o chomedriver eu não consigo realizar o login em sites? - e se a resolução do usuário for diferente?
@Codifike
@Codifike 3 дня назад
o chromedrive é usado pelo selenium para simular o navegador. Quanto a resolução, não entendi a pergunta.
@hitiban
@hitiban 2 года назад
Thanks so much for your thoughtful and detailed videos! On to the soft!
@dexty_u6503
@dexty_u6503 Год назад
Muito obrigado mano, te achei parecido com o Thomas Shelby mas isso é so um detalhe hahaha bela aula, Tmjj !!!
@stevenobrega
@stevenobrega 2 года назад
# Excelente tutorial, foi o melhor que encontrei depois de dias de busca na internet! Parabéns pela didática e obrigado pela informação! Ganhou mais um seguidor!!
@Codifike
@Codifike 2 года назад
Obrigado
@jeffersonmoreira1817
@jeffersonmoreira1817 2 года назад
Muito bom. Como eu consigo buscar uma informação que fica atualizando a cada segundo? Ex: Quero buscar os preços das ações do ibovespa e passar para o excel, mas em tempo real para colocar essas informações num dashboard. Consegue me dar uma ajuda?
@Codifike
@Codifike 2 года назад
Pode fazer isso diretamente usando a Api do yfinance, neste caso não precisa de webscrapping. Da uma olhada nos vídeos sobre mercado financeiro
@HenriqueSouza2000
@HenriqueSouza2000 Год назад
Pra mim já falhei no tutorial aos 1:05 , pq deu "Conda executable path is empty"
@Codifike
@Codifike Год назад
Oi Henrique , instalou o anaconda na sua máquina?
@dnz8792
@dnz8792 2 года назад
Vídeo top, obrigado! Estou começando hoje a pesquisar sobre web scraping porque quero fazer uma aplicação. Me deparei com uma dúvida que no vídeo é resolvido alterando o valor da página na URL. No meu caso eu estou tentando percorrer a lista e acessar a página com informações do produto, nesse caso eu teria que clicar em cada elemento para criar uma lista das URLs de cada produto? Eu também preciso "ficar de olho" em cada página desses produtos, porque as informações deles são atualizadas de segundos em segundos, alguma ideia de como fazer isso? Estou pesquisando algum caso parecido (acredito que eu encontre em algum vídeo de bolsa de valores, etc), mas se tiver alguma técnica que já saiba que possa compartilhar para eu pesquisar já me ajuda muito! (Obs.: caso minha dúvida seja idiota é porque eu não tenho experiência com desenvolvimento web, muito menos python kkk aprendendo tudo junto)
@jv2556
@jv2556 Год назад
Seguindo esse modelo, como eu faria pra conseguir fazer essa análise e por exemplo ele conseguir pegar o link apenas de produtos que tenham o texto cashback e o valor?
@Codifike
@Codifike Год назад
Vc teria que verificar a tag onde esta o texto cashback, e trazer isso em uma variável e se está variável estiver vazia pular para o outro produto, se estiver preenchida popular com os dados do produto.
@fabio-w8n
@fabio-w8n 6 месяцев назад
a cola estar do lado kkk mas ficou bem
@PabloFreestylebr
@PabloFreestylebr 2 года назад
sempre da esse erro "ImportError: cannot import name 'BeautifulSoup' from 'bs4'" ja tentei de tudo até alterar pra BeautifulSoup4 ele fala que o erro esta em: from bs4 import BeautifulSoup
@emersonnascimento1514
@emersonnascimento1514 2 года назад
Sensacional,.. Seu conteúdo gratuito bateu d+++ num determinado conteúdo pago q tem aqui no YT,..
@Codifike
@Codifike 2 года назад
Obrigado Emerson
@alanjoffre02
@alanjoffre02 Год назад
Parabéns pela didática e conteúdo. Mais um inscrito!
@Codifike
@Codifike Год назад
Obrigado
@ricardoalmeida7607
@ricardoalmeida7607 2 года назад
Thanks, man
@misael_guedes
@misael_guedes 2 года назад
Eu quero fazer um projeto onde cada anuncio representa uma venda, existe uma forma onde consigo automatizar a informação de venda?
@mathewhanna6186
@mathewhanna6186 11 месяцев назад
estou com meu codigo todo certo porém eu fiz em uma pagina que não precisava mudar de página, fiz tudo certo, mas não volta nenhum resultado para mim, alguém pd me me ajudar?
@thallesgama8827
@thallesgama8827 11 месяцев назад
Fantástico, estava batendo cabeça demais pra resolver uns exercícios aqui ajudou demais!!
@simon_riley_br
@simon_riley_br 2 года назад
E os sites que possuem a segurança do cloudfare?
@Codifike
@Codifike 2 года назад
Esse é complexo, já esbarrei neste problema e ainda não encontrei uma solução.😔
@simon_riley_br
@simon_riley_br 2 года назад
@@Codifike Tome um café ☕
@_pedrocsta
@_pedrocsta 5 месяцев назад
A página que estou extraindo carrega os itens conforme vai rolando a página, qual seria a solução?
@Codifike
@Codifike 5 месяцев назад
Tem um vídeo na playlist de web scraping que fala exatamente disto. Dá uma olhada lá 👍
@midoriyarc5731
@midoriyarc5731 4 месяца назад
to com problemas com a mesma coisa que você, estou tentando coletar dados da olx
@pedrocorreia5713
@pedrocorreia5713 2 года назад
Estou fazendo o mesmo código em outro site. No looping, a url está retornando as demais páginas, mas o conteúdo nome, preço e etc está sendo da primeira pagina apenas.
@thiagotorres4151
@thiagotorres4151 2 года назад
opa eai, to querendo fazer isso usando a biblioteca do playwright, é o mesmo processo de requests? ou muda alguma coisa, se puder responder agradeço ❤️
@thiagotorres4151
@thiagotorres4151 2 года назад
por exemplo, faço login no site, ai na entrada dele tem assim "permitir notificações", porém o codigo xpath dela muda toda hora, por exemplo: ('xpath=//*[@id="mount_0_0_jH"]/div/div[1]/div/div[2]/div/div/div[1]/div/div[2]/div/div/div/div/div/div/div/div[3]/button[2]').click() ('xpath=//*[@id="mount_0_0_Bi"]/div/div[1]/div/div[2]/div/div/div[1]/div/div[2]/div/div/div/div/div/div/div/div[3]/button[2]')
@thiagotorres4151
@thiagotorres4151 2 года назад
ele muda só uma parte, mas não consigo fazer o mesmo jeito q vc fez ali, será q tem outro jeito de conseguir?
@Codifike
@Codifike 2 года назад
Não conheço essa lib
@marcobigode
@marcobigode 6 месяцев назад
e como faz uma busca no site todo não só na parte de cadeiras
Далее
Kenji's Sushi Shop Showdown - Brawl Stars Animation
01:55
11 ming dollarlik uzum
00:43
Просмотров 319 тыс.
This is How I Scrape 99% of Sites
18:27
Просмотров 80 тыс.
The Biggest Mistake Beginners Make When Web Scraping
10:21
The Easiest Way to Build Websites
10:56
Просмотров 493 тыс.
Como fazer Web Scraping utilizando Python e Selenium?
23:51
Kenji's Sushi Shop Showdown - Brawl Stars Animation
01:55