Тёмный

Web scraping com python // Coletando dados em sites e salvando em arquivo 

Codifike
Подписаться 21 тыс.
Просмотров 63 тыс.
50% 1

Web scraping é uma coleta de dados da web, de sites, onde usamos scripts e programas para coletar ou raspar as informações destes sites e que poderão ser usadas para futuras análises.
💊Quer explodir sua mente!: encurtador.com.br/fhDT8
Para nosso video vamos fazer um web scraping em python comparar preços de placas de vídeo, coletando as informação da web e depois vamos salvar as informações em um arquivo csv.
Nosso web scraping utilizará a linguagem python além de bibliotecas poderosas de extração de informação como beautiful soup e requests e vamos percorrer diversas páginas para encontrar as informações que desejamos.
📑Código Fonte:
github.com/fabrimatt/webscrap...
📔Livro: Web Scraping com Python: Coletando Mais Dados da web Moderna
amzn.to/2RZ2weB
🔦Iluminação
amzn.to/3xYjOJn
📸Camera logitech
amzn.to/3tyvWNC
#webscraping #python #raspagemdedados

Опубликовано:

 

17 май 2021

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 223   
@Codifike
@Codifike 2 года назад
Olá Pessoal , para pegar o parâmetro do headers do User Agent digite o comando: my user agent na barra de endereço do seu navegador. Além disso o código fonte está nas descrições.
@igorbrenno1459
@igorbrenno1459 3 года назад
Canal só com assunto TOp, com aplicações bem práticas no PYTHON do dia dia,necessidades diárias e tal. Sou fã número 1 do seu canal, já divulguei nas minhas redes sociais. Parabéns pelo conteúdo. Continue assim...
@gustavozanetti4984
@gustavozanetti4984 Год назад
muito de cara, exatamente isso que procurava
@paulopc77
@paulopc77 Год назад
Excelente trabalho, só sucesso.... parabéns!
@andriuslopes6377
@andriuslopes6377 2 года назад
Parabéns pelo vídeo. Codificação simplificada, bem explicada e abordando as necessidades reais do web scraping.
@Codifike
@Codifike 2 года назад
Obrigado Andrius
@gaxsouza
@gaxsouza 2 года назад
Explicação clara e com ótima didática. Parabéns!!!
@Codifike
@Codifike 2 года назад
Valeu Guilherme obrigado
@pensando_positivo
@pensando_positivo 2 года назад
Melhor vídeo sobre o assunto..que didática
@Codifike
@Codifike 2 года назад
Muito obrigado Roberto 😄👍
@geanr
@geanr Год назад
Muito bom, vale ouro aulas assim.
@Codifike
@Codifike Год назад
Obrigado
@thisys1
@thisys1 Год назад
Massa de mais, gratidão pelo video
@Codifike
@Codifike Год назад
Obrigado
@darkhunter9625
@darkhunter9625 Год назад
Tutorial muito bom amigo, bem didático :) Valeu !
@Codifike
@Codifike Год назад
Valeu 😀
@diegolaandi
@diegolaandi 2 года назад
Mano já ganhou mais um inscrito, muito obrigado por compartilhar seu conhecimento, já tava pra desistir kkkk
@Codifike
@Codifike 2 года назад
Valeu Diego, obrigado
@zepequeno1828
@zepequeno1828 Год назад
Perfeito, eu pagaria por essa aula facilmente
@Codifike
@Codifike Год назад
Obrigado se quiser pode fazer uma doação no botão valeu.
@ulissescurvello1802
@ulissescurvello1802 2 года назад
Muito bom!!!
@marciobelchior7690
@marciobelchior7690 2 года назад
Excelente vídeo
@Codifike
@Codifike 2 года назад
Obrigado Márcio
@silvioifam
@silvioifam 2 года назад
Show to aprendendo bs4
@Codifike
@Codifike 2 года назад
Essa é a intenção
@fillipeoliveira4927
@fillipeoliveira4927 2 года назад
Se eu não inserir o Headers não da certo ?
@celioissof2943
@celioissof2943 Год назад
Ola. Se for uma informacao em que a pagina busca em uma base de dados e mostrada tambem funciona?
@leticiamelodasilva3861
@leticiamelodasilva3861 7 месяцев назад
Obrigado
@Codifike
@Codifike 7 месяцев назад
Que bom que gostou
@clebersalles5379
@clebersalles5379 3 месяца назад
Excelente, professor! O Sr. Poderia fazer um vídeo para prospectar Instagram encontrado no Google Pesquisas? Usa do esse método?
@clenio_moura
@clenio_moura 2 года назад
Uma pergunta aqui, se o site que raspar não tiver essa estrutura de tags html, apenas alguns , e , qual seria a melhor opção raspar esses dados?
@Codifike
@Codifike 2 года назад
Oi Clenio, todos site tem as marcações em HTML , então é analisar qual tag está a informação que você precisa
@jeffersonmaciel6680
@jeffersonmaciel6680 3 года назад
Indica algum curso ou livro para aprofundar o conhecimento na área. Seus vídeos são excelentes.
@Codifike
@Codifike 3 года назад
Oi Jefferson, deixei um link nas descrições com um livro muito bom. Abraços
@0ortiz229
@0ortiz229 2 года назад
vc pode ensinar web scraping orientado a objetos ?
@valdemirochaves
@valdemirochaves 5 месяцев назад
Muito bom mesmo. Ótima didática. Parabéns! Porém, confesso que o gerundismo me deixou agoniado. Mas pode ser um problema meu mesmo.
@Codifike
@Codifike 5 месяцев назад
obrigado, e vou me policiar da próxima vez
@leandromartins301
@leandromartins301 2 года назад
Ótimo vídeo, merece muitos likes. Pode usar o pandas para salvar o arquivo formatado?
@Codifike
@Codifike 2 года назад
Oi Leandro, muito obrigado. Com certeza pode, teria q instalar o pandas, salvar as informações em um dataframe e depois exportar
@michellemarques6804
@michellemarques6804 2 года назад
Conteúdo top! Parabéns. Eu preciso extrair dados de um site, para preencher uma planilha já existente, e ela tem algumas fórmulas.. Quando eu colar esses dados nessa planilha, as fórmulas somem?
@Codifike
@Codifike 2 года назад
Acredito que não, se colocar nas células corretas, as formulas vão continuar funcionando
@atiradordeteia-brasil2752
@atiradordeteia-brasil2752 Год назад
Note: Divs mudaram, site mudou. Erros na execução do code.
@ChefThi
@ChefThi 2 года назад
Obrigado pela aula! Você sabe dizer se consigo coletar dados de um website que usa json pra criptografar o html?
@Codifike
@Codifike 2 года назад
Acredito que sim, mas teria que ver a estrutura primeiro
@paulorossi7510
@paulorossi7510 Год назад
Alguém pode me indicar um bom curso de web scraping?
@igormoreira1901
@igormoreira1901 Год назад
Amigo, eu gostaria de fazer a mesma aplicação, porém queria ler uma conversa comigo mesmo no whatsapp coletar informações diárias e salvar cada mensagem em uma linha de um arquivo scv. É possível?
@ChrisG59
@ChrisG59 Год назад
você poderia ter explicado oque cada linha faz, incluindo os recursos do bs4... não conheço essa biblioteca, tô tendo contato com ela agora
@Codifike
@Codifike Год назад
Oi Chris no vídeo eu tentei fazer isso.😆
@edirlopeslima7556
@edirlopeslima7556 Год назад
Boa tarde Fabricio, primeiramente gostaria de agradecer pelo excelente conteudo, tá de parabéns!!! uma obs, no seu exemplo vc mostra como iterar entre as paginas, porem, vi que as placas estão se repetindo, veja no final do video o item da linha 1 e 17 são os mesmos, ou seja, pelo que percebi esta trazendo as informações somente da pagina 1, qual seria a solução para esse problema?
@Codifike
@Codifike Год назад
Vou verificar
@yangabrielyg
@yangabrielyg Год назад
@@Codifike tá acontecendo isso no meu código tbm
@leandersonsilva6482
@leandersonsilva6482 2 года назад
A iteração não funciona mais :( o site mudou, e o código URL não segue mais a lógica.
@fpsm0unt
@fpsm0unt 10 месяцев назад
AttributeError: 'NoneType' object has no attribute 'get_text', ALGUEM SABE O QUE PODE SER?
@LucasSantos-gw6rf
@LucasSantos-gw6rf Год назад
Fabrício, boa noite! Como vai? Seria possível iterar nos links "Href" que direcionam para outras páginas, pegar algum dado voltar pra lista e clicar no próximo "href" e assim sucessivamente até o final da página? Desde já agradeço por compartilhar o conhecimento.
@Codifike
@Codifike Год назад
Sim, isso seria mais um webcrawler. Não é tão simples, e estou pensando em fazer uma video sobre isso
@therayzin5427
@therayzin5427 Год назад
Muito bom amigo, só uma dúvida eu consigo extrair dados de um site onde eu preciso efeturar login?
@Codifike
@Codifike Год назад
Consegue sim. Tem um vídeo na play list de webscraping aqui no canal que fala exatamente disso.
@user-fk9kn9ec6p
@user-fk9kn9ec6p Год назад
Olá amigo obrigado pela aula !!! Mas preciso além de entrar no site, preciso ciclar nos detalhes e extrair as informações de lá. Existe a possibilidade de fazer isso com vários itens com loop?
@Codifike
@Codifike Год назад
Ja fiz isso em outro vídeo aqui no canal
@silvalealdev
@silvalealdev 2 года назад
É possível ver a quantidade de download no Mediafire com este método?
@firewolftutoriais
@firewolftutoriais 2 года назад
Como colocar um título para as colunas? consegui fazer este procedimento para analisar preços de aluguéis em Portugal, quero jogar isso pra dentro do meu banco de dados com um ETL e ir salvando isso semanalmente em um DW numa tabela DIMENSAO, parabens pelo conteudo
@Codifike
@Codifike 2 года назад
Que Irado.
@laedsonbarbosa7169
@laedsonbarbosa7169 2 года назад
Fabrício, é possível coletar em um site que precisar ter acesso com login e senha?. tipo. quero coletar dados de um site meu, onde mostra quantidade de pessoas que se cadastrou.
@Codifike
@Codifike 2 года назад
Sim,mas teria q passar o.user e senha no código.
@RuanLeitte
@RuanLeitte 2 года назад
OPa! tudo beleza? Cara, me tira uma duvida. Eu acompanho um site , onde a cada acompanhamento eu preciso extrair o resultado que aconteceu em X evento. Eu venho fazendo o acompanhamento em duas situações, no inicio do evento e no final, simplesmente pq o site não possui registro do que aconteceu. Minha questão atualmente: Eu venho fazendo isso de forma manual, o que é bem desgastante e ao mesmo tempo ineficiente, pq eu preciso dormir ou tenho alguns afazeres ao longo do dia e isso quebra a alimentação do "banco de dados". Você teria alguma ideia de como eu posso otimizar essa extração,? Eu já pensei em fazer captura de tela. Porém, eu teria muitas horas de vídeo. fico agradecido!
@Codifike
@Codifike 2 года назад
Você pode deixar agendado a extração no agendador de tarefa do windows www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwiu8fm5h9vyAhWo3eAKHZ0OCs4QFnoECAMQAQ&url=https%3A%2F%2Fwww.windowscentral.com%2Fhow-create-automated-task-using-task-scheduler-windows-10&usg=AOvVaw3nOl-8T9Z67cKMd_jYFAED
@danielaluisiodossantos3909
@danielaluisiodossantos3909 Год назад
Boa tarde, muito bom o video, será que eu consigo puxar e-mails de sites que consultamos e-mails com vazamento de dados?
@Codifike
@Codifike Год назад
É possível sim. Só tem q saber o q buscar
@danielaluisiodossantos3909
@danielaluisiodossantos3909 Год назад
@@Codifike Nesse caso utilizando os parametros parecidos como do video será que daria certo? pq eu tenho as referencias desses sites ( sei quais são os sites)
@Codifike
@Codifike Год назад
@@danielaluisiodossantos3909 Acredito que sim
@danielaluisiodossantos3909
@danielaluisiodossantos3909 Год назад
@@Codifike Obrigado tentarei realizar isso vlw pelo video
@miaugamer9036
@miaugamer9036 2 года назад
Imagina criar um bot que ele verifica o preços de um certo tipo de produto varias vezes ao dia e caso ele chegue em um valor predefinido ele compra automaticamente, seria genial pra ganhar vantagem.
@Codifike
@Codifike 2 года назад
Sim, é possível 😉
@jonaspinto3489
@jonaspinto3489 10 месяцев назад
meio atrasado aqui mas o meu codigo da o seguinte erro "import requests ModuleNotFoundError: No module named 'requests' " já instalei o modulo via pip, já mudei o interpretador e etc......
@fabricio4145
@fabricio4145 8 месяцев назад
Ta usando ambiente virtual? Pesquisa "pip list" para ver se ele foi instalado no seu ambiente.
@rikeh3587
@rikeh3587 2 года назад
Muito boa aula. Estou usando python 2.7 devido compatibilidade com meu sistema. Fiz um scrapping para pegar o preço do dólar e salvar em arquivo csv a cada 3 minutos. Além do preço, coloquei para salvar a data e horário: 2021-09-14 09:44:32 R$5,21. Fiz também 1 script para cada produto que quero acompanhar o preço na kabum. Monitor WAtercooler Pasta térmica Para cada produto fiz uma pasta e dentro da pasta o script main.py Basicamente só altero a url e nome do arquivo para salvar csv. Cada script da kabum salva num arquivo csv a data hora preco (se for oferta: quantidade restante). Não consegui pegar o tempo restante da oferta com o beautifulsoup4, preciso pesquisar mais. Então ficou assim as pastas e arquivos: 02-kabum_monitor_gigabyte_g27f main.py kabum_monitor_gigabyte_g27f.csv 03-kabum_wtc_corsair_h100x main.py kabum_wtc_corsair_h100x.csv run_scripts.py Dúvida: Como eu poderia fazer um scrip que rode os outros scripts clicando apenas 1vez no RUN do vscode?
@Codifike
@Codifike 2 года назад
Oi Rike, ficou muito legal. vc pode chamar o script usando o comando : python 'caminho/do/seu/script/programa.py'
@rikeh3587
@rikeh3587 2 года назад
@@Codifike já tentei de algumas formas pelas pesquisas que fiz. Estou usando python 2.7 devido compatibilidade com meu sistema atual(Windows 7). Já tentei rodar python 3, mas sem sucesso. Em run_scripts.py fiz como você comentou: python '02-kabum_monitor_gigabyte_g27f/main.py Cliquei em RUN no vccode e aparece um erro de Sintaxe inválida
@Codifike
@Codifike 2 года назад
@@rikeh3587 tenta assim os.system("script.py 1")
@rikeh3587
@rikeh3587 2 года назад
@@Codifike acabei de achar essa solução na net. Foi o que funcionou. Mas só funciona se o run_scripts.py estiver na mesma pasta do main.py
@Codifike
@Codifike 2 года назад
@@rikeh3587 Show
@ronicesararaujo2141
@ronicesararaujo2141 2 года назад
Boa noite amigo, show de bola suas explicaçoes. Tenho um caso que primeiro preciso abrir um browser google chrome e depois colocar uma url e por ultimo preciso colocar um login e senha e por ultimo preciso coletar os dados da pagina. voce tem um exemplo disto?? desde ja agradesco.
@Codifike
@Codifike 2 года назад
Oi Roni, tenta algo do tipo no inicio do script: # url url = 'www.wsj.com/news/latest-headlines?mod=wsjheader' driver = webdriver.Chrome(ChromeDriverManager().install(), options=chrome_options) driver.get(url) # login sign_in_link = driver.find_element_by_link_text('Sign In') sign_in_link.click() username = WebDriverWait(driver, 10).until(EC.element_to_be_clickable((By.ID, 'username'))) password = WebDriverWait(driver, 10).until(EC.element_to_be_clickable((By.ID, 'password'))) username.send_keys(os.getenv('username_news')) password.send_keys(os.getenv('password_news'))
@JoyceDaPenhaQueiroz
@JoyceDaPenhaQueiroz 2 года назад
quero saber como pego as informações da blaze e catalogo em meu site. pra ficar arquivado, sabe me dizer. tenho um site wordpress
@Codifike
@Codifike 2 года назад
Oi Joyce , a primeira coisa é analisar o html para verificar o que deseja utilizar. Depois verificar os identificadores como class e ids
@iltonrotta
@iltonrotta Год назад
ótimo vídeo. Tem como coletar a imagem de cada produto, para aparecer na planilha também?
@Codifike
@Codifike Год назад
Teria que pegar a url da imagem depois e depois baixar mais ou menos assim:i images = soup.select('div img') images_url = images[0]['src'] images_url downloading the image:- import requests img_data = requests.get(images_url).content with open('netflix.jpg', 'wb') as handler: handler.write(img_data)
@iltonrotta
@iltonrotta Год назад
@@Codifike obrigado
@fenixcanal
@fenixcanal 2 года назад
quando eu digito Class no meu pycharm ele não aparece opções oque pode ser ?
@Codifike
@Codifike 2 года назад
Oi Fenix, acho que o class tem que ser em minúsculo. Abraços
@GamesTops91
@GamesTops91 Год назад
sera se da pra pegar de resultados tipo da loteria e filtrar todos pra fazer probalidades de jogos futuros?]
@Codifike
@Codifike Год назад
Com certeza
@zeneto2157
@zeneto2157 Год назад
Colega. Fiz este tuto maravilhoso seu. Acontece que os nomes das classes do pichau mudaram e quando soup.find('div', class_'MuiGid-container...') não acha nada .. tem um nome nojento de grande e não sei se posso usar caracteres coringas (tipo * ou %) ... Como resolver ??
@Codifike
@Codifike Год назад
Na playlist de webscrapping tem uma vídeo que mostra como fazer isso com divs que mudam a toda hora se liga neste vídeo aqui: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-VGroXCEaBiA.html
@jhonattasilva2804
@jhonattasilva2804 Год назад
Cara você mandou MUITO nessa aula! Eu apenas percebi que na hora de fazer o scrapping tem alguns preços que ele n tá pegando, simplesmente PULANDO os preços, mesmo que existentes no site, sabe dizer o porque?
@Codifike
@Codifike Год назад
Obrigado
@jhonattasilva2804
@jhonattasilva2804 Год назад
@@Codifike Consegue tirar minha dúvida sobre essa pergunta que fiz? Obrigado.
@javascript7779
@javascript7779 2 года назад
Travei no logo no inicio, onde consigo o headers? Nesse seu caso como conseguiu?
@Codifike
@Codifike 2 года назад
Olá pode digitar no seu browser my user agent, vai aparecer o header do seu browser, Abraços
@igorcvarga
@igorcvarga 5 месяцев назад
quando eu coloco "lote = lotes [0]" (lote pq no meu código faz mais sentido) aparece "indexError: list index out of range" pq isso acontece?
@Codifike
@Codifike 5 месяцев назад
Pode ser porque sua variável lotes está vazia
@vitorribas2829
@vitorribas2829 10 месяцев назад
Estou fazendo um teste na kabum, em numero de páginas não tem um a"class" para a ultima página, como posso resolver?
@fabricio4145
@fabricio4145 8 месяцев назад
Não existe nenhuma outra tag? No caso Class_ é um atributo que recebe o nome da tag. Pelo q eu entendi.
@brunoramos7128
@brunoramos7128 2 года назад
Muito obrigado pelo vídeo, muito didático. Entretanto, estou tendo algumas dificuldades com o código. Estou tentando aqui no dia 09/10/2021, fiz todos os passos iniciais sem problemas, mas quando eu abro o inspect do site, aparecem dados bem diferentes dos seus. Não aparece como class "product-line", mas sim algo como "MuiGrid-root MuiGrid-item MuiGrid-grid-xs-6 MuiGrid-grid-sm-6 MuiGrid-grid-md-4 MuiGrid-grid-lg-3 MuiGrid-grid-xl-2". Assim, tentei várias classes aqui pra preencher o class_ do placas, mas o vetor sempre acaba ficando vazio, fazendo com que não seja possível buscar o placas[0], uma vez que ele não existe. Será que você conseguiria me ajudar nisso? Thanks.
@Codifike
@Codifike 2 года назад
Oi Bruno, os sites mudam muito. Pode ser que tenha alterado o nome da class. Mas pelo nome "grid' parece que vc está em outro elemento
@shaiennyferreira9179
@shaiennyferreira9179 2 года назад
Eu preciso extrair os dados das normas publicadas no site do banco central do Brasil, porém essa busca de normas dentro do site já possui um sistema de filtro. Queria saber como eu posso estar utilizando o Web Scraping nesse caso, porque não há uma página específica, nem numeração e etc..
@Codifike
@Codifike 2 года назад
Neste caso seria usando o selenium que permite interação com o browser
@gabrielbarbosa4048
@gabrielbarbosa4048 Год назад
A informação que eu quero está dentro de uma tag script, tem alguma diferença?
@Codifike
@Codifike Год назад
script é para inserir , programas geralemte css ou javscript.
@wendygomes2167
@wendygomes2167 3 года назад
você tem alguma dica pra quem quer trabalhar com geocodificação usando Python? com meu código atual só consigo codificar uma base pequena de dados e queria aperfeiçoar isso
@Codifike
@Codifike 3 года назад
Oi Wendy, tem umas bibliotecas que ajudam, uma delas é essa aqui : geocoder.readthedocs.io/
@wendygomes2167
@wendygomes2167 3 года назад
@@Codifike ótimo! obrigada
@FutureImports
@FutureImports 2 года назад
Esse código teu ainda funciona? Eu estava tentando fazer um scraping na Pichau mas notei que o nome da classe está mudando a cada acesso.. Nesse caso é possível fazer scraping?
@Codifike
@Codifike 2 года назад
Oi Jonatahn , o código está ok. Dei uma olhada rapida e não vi nenhuma alteração na class
@Rafael-vk4yp
@Rafael-vk4yp 3 года назад
Onde ele pegar a informação Headers?
@Codifike
@Codifike 3 года назад
Olá Rafael pode digitar no seu browser my user agent
@luanoronha3068
@luanoronha3068 2 года назад
pensei que ninguém ia perguntar!!
@cbjrforever
@cbjrforever 2 года назад
Não sei por qual motivo, mas to tentando executar o código na parte de puxar a marca e o valor, tem hora que puxa e tem hora que da esse erro, como corrigir isso? "c:/Users/BOT-SCRAP/scraper.py" Traceback (most recent call last): File "c:/Users/BOT-SCRAP/scraper.py", line 13, in placa = placas[0] IndexError: list index out of range
@lucasdev3214
@lucasdev3214 2 года назад
você está tentando acessar um indice que não existe
@cbjrforever
@cbjrforever 2 года назад
@@lucasdev3214 consegui fazer em outros sites, mas no site que eu estava fazendo o DOM altera a cada vez que carrega.
@joaocamposbggg
@joaocamposbggg 9 месяцев назад
Tambem da para fazer em sites de apostas
@hugoflok
@hugoflok 8 месяцев назад
obrigado pela informação, amigo
@andersonV4
@andersonV4 2 года назад
O código não funciona mais. Dar esse erro: AttributeError: 'NoneType' object has no attribute 'get_text'
@Codifike
@Codifike 2 года назад
Isso porque provavelmente a classe q vc está pesquisando mudou. Os sites mudam de tempos em tempos
@godofredoferreiraneto7077
@godofredoferreiraneto7077 Год назад
Olá, tem como eu fazer uma busca de qualquer site que eu queira trazendo três colunas no excel , product name, upc code e price?
@Codifike
@Codifike Год назад
Tem sim. Segue os passos que fiz no vídeo, a diferença vai ser a URL e o nome das tags. Agora tem sites q tem bloqueio e tem sites que as tags são dinâmica. Para as tag dinâmicas fiz um vídeo sobre como fazer o scrapping. Está no canal
@godofredoferreiraneto7077
@godofredoferreiraneto7077 Год назад
@@Codifike Obrigado
@gabrielhbueno1
@gabrielhbueno1 Год назад
Olá! Como eu faria se a fonte fosse um arquivo html do meu pc?? Estou tendo esse erro: "No connection adapters were found"
@Codifike
@Codifike Год назад
Acho que neste caso vc pode usar assim: stackoverflow.com/questions/55568381/scraping-the-html-file-saved-in-local-system
@igorandreasguimaraes
@igorandreasguimaraes 2 года назад
Fiz meu propio web scraping e todos os meus dados estão sendo salvos em uma mesma linha, ao inves de uma linha embaixo da outra além deles virem triplicados. pode me ajudar?
@Codifike
@Codifike 2 года назад
tenta colocar atag de separação de linha /n
@kaique005
@kaique005 2 года назад
Queria um desse para consultar o preço no compras paraguai, mais eu tenho 180 links salvos ja, e queria que usasse os links salvos ja na planilha, e me retornasse os valores atualizados. Teria algum codigo assim? Porque não faço ideia como implementar no "range"
@gutosap88
@gutosap88 2 года назад
consigo fazem em excel isso kaique se posso te ajudar por um valor simbolico
@kaique005
@kaique005 2 года назад
@@gutosap88 quanto seria esse simbolico ?
@lucasmoreira437
@lucasmoreira437 Год назад
Tenho uma dúvida, exeplo, tenho uma div com a classe "elemento-x" e dentro desse div, tenho uma ul, e algumas li, como faço pra pegar os valores, desses li Consultei a documentação do bs4, más continuo perdido
@lojaplumo
@lojaplumo Год назад
copiando o xpath
@lucasmoreira437
@lucasmoreira437 Год назад
@@lojaplumo vaaleu mano, resolveu aqui
@danielbezerradossantos4446
@danielbezerradossantos4446 2 года назад
Muito bom. Mas se o objetivo fosse acessar o HB da Clear(web browser) e selecionar: ativo (ex: PETR4F), tipo de operação(compra/ venda), tipo de ordem (a mercado), quantidade de papéis, preço (tipo de ordem a mercado não é informado o preço) e fazer o envio do pedido (envio do formulário)? Seria web scraping também?
@Codifike
@Codifike 2 года назад
Oi Daniel, neste caso não é scrapping, o que vc quer é automatizar o processo de compra de vendas de ações. Na teoria é possível, mas não sei se teria alguma barreira tipo capctha .
@danielbezerradossantos4446
@danielbezerradossantos4446 2 года назад
@@Codifike Obrigado pela resposta rápida. No acesso normal, temos duas senhas, uma para logar na página da Clear e outra na boleta de negociação para enviar as ordens de operação (esta última, pode ser colocada uma única vez e clicando em salvar a boleta fica habilitada para emitir as próximas ordens. Não tem capctha no acesso padrão para operação da boleta. Novamente, obrigado pela atenção e pelo conteúdo de qualidade que este canal disponibiliza.
@centraldacomedia6901
@centraldacomedia6901 2 года назад
Acho que no seu caso a selenium já serve
@Codifike
@Codifike 2 года назад
@@centraldacomedia6901 é verdade.
@danielbezerradossantos4446
@danielbezerradossantos4446 2 года назад
@@centraldacomedia6901 valeu, obrigado
@canaldogaelkids
@canaldogaelkids 3 года назад
Como fazer para q cada página fique em uma sheet diferente?
@Codifike
@Codifike 3 года назад
Oi Vitor, para esse video eu coloquei tudo em um arquivo txt. Mas você poderia usar o excel e a cada iteração escrever em um sheet mais ou menos assim: sheet1 = book.add_sheet('Sheet1', cell_overwrite_ok = True) sheet2 = book.add_sheet('Sheet2', cell_overwrite_ok = True) sheet1.write (linha, 0) sheet2.write (linha, 0)
@paulopaiva3596
@paulopaiva3596 2 года назад
e possivel fazer com site onde fazemos logim?
@Codifike
@Codifike 2 года назад
Sim, vc pode colocar o usuario e senha em um dicionario e passar no request.post(url_site, dicionario)
@BrasilHexaNews
@BrasilHexaNews Год назад
E quando existem várias divs encadeadas, uma dentro da outra, como faço pra buscar a informação?
@Codifike
@Codifike Год назад
Neste caso, tem que ir navegando com os comandos parentes do beautiful soup
@geanr
@geanr Год назад
class ou id ou name, é bom saber html5 antes de mexer com dados da Web
@isaquetal
@isaquetal 2 года назад
não deu nem pro começo, esse headers me ferrou, precisava saber oque era isso
@ozeassantosn
@ozeassantosn 2 года назад
digite o comando: my user agent na barra de endereço do seu navegador.
@isaquetal
@isaquetal 2 года назад
@@ozeassantosn obrigado!!!
3 года назад
Como coloca esse auto complite q tem no sei VS? Sou novato. Obrigado
@Codifike
@Codifike 3 года назад
Olá JPP, instalando os plug-ins Python para vscode. Veja esse tutorial rschalch.github.io/configurando-vscode-para-python.html
3 года назад
@@Codifike Obrigado!
@helbertbatista687
@helbertbatista687 4 месяца назад
estou fazendo em um site especifico, o nome do produto deu certo mas o valor fica dentro de um box R$ 918 como posso fazer?
@helbertbatista687
@helbertbatista687 4 месяца назад
detalhe importante o class do
@joaoarthurfalcao6581
@joaoarthurfalcao6581 2 месяца назад
Ao invés de usar div, use 'span', class_="nome da classe"
@RL-hx1iu
@RL-hx1iu 2 года назад
Deu falha exceção lançada , ‘NoneType’ object hás attribute’ get_text’ Na variável última página, poderia me ajudar
@Codifike
@Codifike 2 года назад
Olá, o código está no meu github da uma olhada e verifica se foi algo.
@RL-hx1iu
@RL-hx1iu 2 года назад
@@Codifike qual seu contato, preciso de um serviço seu
@Codifike
@Codifike 2 года назад
@@RL-hx1iu tem no nosso site nas descrições
@diegooliveira7940
@diegooliveira7940 2 года назад
Onde pegou esse código do headers?
@Codifike
@Codifike 2 года назад
Para pegar o parâmetro do User Agent digite o comando: my user agent na barra de endereço do seu navegador. Além disso o código fonte está nas descrições.
@diegooliveira7940
@diegooliveira7940 2 года назад
Achei! Tentei pegar seu contato mas não localizei na descrição. Tem whatsapp ou telegram?
@Codifike
@Codifike 2 года назад
@@diegooliveira7940 contato@codifike.com.br
@Javaluciana
@Javaluciana 7 месяцев назад
Qual é o software que vocês está usando? Ele é gratuito?
@Codifike
@Codifike 7 месяцев назад
Apenas a linguagem de programação python
@luismicioneiro1193
@luismicioneiro1193 2 месяца назад
é o vscode, e sim, é
@viniciusdossantosnunes3973
@viniciusdossantosnunes3973 2 года назад
onde acha esse headers embaixo do url ?
@Codifike
@Codifike 2 года назад
Olá Vinicius pode digitar no seu browser my user agent, vai aparecer o header do seu browser, Abraços
@viniciusdossantosnunes3973
@viniciusdossantosnunes3973 2 года назад
@@Codifike Obrigado
@lucasmendonca9915
@lucasmendonca9915 2 года назад
Como q eu pego o header ?
@alyssa9580
@alyssa9580 2 года назад
Tbm to cm dificuldade nisso
@Codifike
@Codifike 2 года назад
Está fixado nos comentários o comando para pegar o header.😉
@joycesantana8709
@joycesantana8709 Год назад
Olá, boa tarde! Parabéns pelo conteúdo! Estou tentando criar uma espécie de looping. Estou automatizando o upload de arquivos que geram uma espécie de status, e a sequência é basicamente essa: carregar todos os arquivos de uma pasta e pegar esses status gerados e transferir para uma planilha de Excel. Porém estou tendo dificuldades na execução, de montar uma lógica que faça isso de forma ordenada, um por um.
@Codifike
@Codifike Год назад
Oi Joyce coloca o codigo
@andrefelype4211
@andrefelype4211 2 года назад
O html mudou queria entender pq meu codigo não funciona alguém me ajuda por favor
@Codifike
@Codifike 2 года назад
Oi Andre, tem sites que mudam o DOM para evitar scrapping
@andrefelype4211
@andrefelype4211 2 года назад
@@Codifike nossa que chato , me ajuda tem cm vc me dizer se é o caso desse site
@leandersonsilva6482
@leandersonsilva6482 2 года назад
simplesmente não da mais certo, pqp viu, o site da pichau mudou e a partir do get_text, não vai
@Codifike
@Codifike 2 года назад
Tem sites que ficam alterando o DOM a cada request
@leandersonsilva6482
@leandersonsilva6482 2 года назад
@@Codifike isso, acabei descobrindo que o pichau utiliza um número limitado, resolvi com um simples repeat de verificação até aparecer as tags indicadas!
@leandersonsilva6482
@leandersonsilva6482 2 года назад
@@Codifike obrigado pela resposta!
@lucasvinicius-sn4ih
@lucasvinicius-sn4ih 2 года назад
Boa noite amigo, excelente video ! Eu gostaria de criar um robo automatizado para analisar roletas de um site de aposta e configurar minhas estratégias, exemplo básico: 02 cores na roleta, assim que sair uma sequência de 4x a mesma cor ele apostar na outra.... enfim algo do tipo, tem alguma matéria sobre isso? Consigo fazer pelo python ??
@lucasferreira3360
@lucasferreira3360 2 года назад
tô aqui tentando fazer o mesmo kakakakak
@caio7740
@caio7740 2 года назад
@@lucasferreira3360 conseguiu?
@PDCINSANO
@PDCINSANO 2 года назад
Tenho planos para esse projeto estou estudando tenho experiência em PYNTON HTML css Java PHP , sql
@RickWizzie
@RickWizzie Год назад
Copiei o código disponibilizado, troque o user agent, e dá esse erro: AttributeError: 'NoneType' object has no attribute 'get_text' , alguém sabe como resolver? Obrigado!
@Codifike
@Codifike Год назад
Não esta conseguindo achar a tag que está procurando
@RickWizzie
@RickWizzie Год назад
@@Codifike eu encontrei o xpath dele, existe a possibilidade de procurar pelo xpath ao invés da classe? Muito obrigado por me responder, agradeço muito!
@Codifike
@Codifike Год назад
@@RickWizzie pode usar o xpath
@RickWizzie
@RickWizzie Год назад
@@Codifike nem com o xpath vai, o site q estou tentando fazer isso, ele não tem páginas, vc vai descendo com o scroll e ele vai carregando mais itens, não sei se isso tem a ver, mas não acha o texto nem por classe e nem pelo xpath, então será q o site é alimentado por api? Obrigado novamente pela ajuda!
@Codifike
@Codifike Год назад
@@RickWizzie Diria que muito provavelmente é api. Tem vídeo aqui no canal que mostro como fazer requsisição para api e retornar um dic. procura na playlist webscraping
@angeo10
@angeo10 2 года назад
poderia compartilhar seu arquivo?
@Codifike
@Codifike 2 года назад
código fonte está nas descrições.
@angeo10
@angeo10 2 года назад
@@Codifike obrigado!
@joaopedrobarbosa2814
@joaopedrobarbosa2814 Год назад
oxi, esse headers faz oq
@Codifike
@Codifike Год назад
Diz ao browser q o acesso é seguro
@cafelimonadovoadoraliennin8108
No caso eu dei uma adaptada no código pq tava precisando para pegar outro tipo de informação e precisei ajustar e refazer algumas coisas. No final da alguns problemas como por exemplo "NameError: name 'BeatifulSoup' is not defined", esse é o principal problema, os outros são sempre com erros de digitação meu mesmo. Como eu posso resolver isso?
@Codifike
@Codifike Год назад
Está digitado errado é BeautifulSoup
@cafelimonadovoadoraliennin8108
@@Codifike obrigado
@eniltonsp
@eniltonsp 3 года назад
Web scraping como esse não é ilegal?
@Codifike
@Codifike 3 года назад
Oi Enilton, Até onde eu sei não. Os dados são de conhecimento público. Abraços
@RL-hx1iu
@RL-hx1iu 2 года назад
Qual seu contato amigo?! Poderia me passar? Obrigado
@Codifike
@Codifike 2 года назад
Contato na descrição
@geanr
@geanr Год назад
A vida do dev é ecnontrar o código com menos erros kk..
@Codifike
@Codifike Год назад
🤣
@ddtankblack7281
@ddtankblack7281 2 года назад
irmao tu passou o parametro headers mas nao falou nd, como eu vou fazer isso em casa? do vento?
@Codifike
@Codifike 2 года назад
Olá para pegar o parâmetro digite o comando: my user agent na barra de endereço do seu navegador.
@marcosferreiraoff
@marcosferreiraoff 2 года назад
poderia ter diminuido o explorer pra gente ver o codigo todo. foda.
@Codifike
@Codifike 2 года назад
O código fonte está nas descrições.
@isaquecrazy
@isaquecrazy Год назад
tentei mas aqui só dá erro, sempre retorna [] e eu nem passei do (placas = soup.find_all) usando um outro site
@isaquecrazy
@isaquecrazy Год назад
Alguém sabe o porque? estou aprendendo python
@Codifike
@Codifike Год назад
Pode ser que o site que vc esta usando mude o nome das classes
@isaquecrazy
@isaquecrazy Год назад
@@Codifike testei varios diferentes, sempre a mesma coisa... n quero desistir...
@Daniel-zg1df
@Daniel-zg1df 3 года назад
Muito bom!!!
@Codifike
@Codifike 3 года назад
Obrigado Daniel
Далее
Webscraping com python usando API
14:45
Просмотров 8 тыс.
If Statement in Python
10:08
Просмотров 12
A Simpler Way to See Results
19:17
Просмотров 98 тыс.
This Zsh config is perhaps my favorite one yet.
17:24
Просмотров 150 тыс.