Тёмный

Estratégias que NÃO TE ENSINAM para trabalhar com dados GIGANTES no PYTHON 

Asimov Academy
Подписаться 60 тыс.
Просмотров 23 тыс.
50% 1

Conheça a trilha Python para Data Science e Machine Learning,:
asimov.academy/trilha-data-sc...
Saber utilizar o Pandas adequadamente para processar arquivos gigantes é uma habilidade que apenas cientistas de dados avançados dominam.
Ao longo dos últimos 10 anos trabalhei aplicando Data Science no desenvolvimento de estratégias de investimento e precisava lidar com arquivos absurdamente pesados... tabelas que somadas chegavam a 50TB... e para realizar simulações adequadamente, aprendi uma série de técnicas diferentes. Neste vídeo compartilho algumas delas.

Наука

Опубликовано:

 

6 фев 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 54   
@F4RL3Y
@F4RL3Y 5 месяцев назад
Excelente! Estou construindo um projeto para operar no mercado e meu market data possui 13 milhões de linhas, vai me ajduar demais!!!!
@denisbrunomoraisneves2471
@denisbrunomoraisneves2471 4 месяца назад
Essa aula ensina muito mais que uns cursos completo por ai viu, parabens!!
@dedeoliveira82
@dedeoliveira82 5 месяцев назад
Impressionante essa estratégia de ajustar os tipos de dados que sao lidos como object! Em um dataframe aqui de exercicios que estava fazendo originalmente fora lido com 63 MB. Após simplesmente ajustar os tipos de dados de 05 colunas o tamaho do dataset foi reduzido para 29 MB. Um ganho (reduçao) de 46%. Muito obrigado por esta videoaula.
@IsraelJMCarvalho
@IsraelJMCarvalho 5 месяцев назад
Fantástico, incrível e surpreendentemente útil... São vídeos assim que mudam radicalmente algumas práticas e costumes que temos.
@gilissantos6532
@gilissantos6532 4 месяца назад
Ótimo conteúdo como sempre, um assunto extremamente importante, tipo de dados para processamento, otimizar tempo porque é uma coisa valiosa demais para perder.
@tcbandeira
@tcbandeira 4 месяца назад
Poxa isso sim que é aula pratica de verdade! O rigado mestre!
@geovanidias5825
@geovanidias5825 5 месяцев назад
Show de bola! Excelente vídeo. Parabéns e sucesso!
@AsimovAcademy
@AsimovAcademy 5 месяцев назад
Fico feliz que tenha gostado! Abraços, Geovani!
@diegovaler5204
@diegovaler5204 5 месяцев назад
excelente explicação
@bcavalcante
@bcavalcante 3 месяца назад
Muito bom! Obrigado.
@AsimovAcademy
@AsimovAcademy 3 месяца назад
Nós que agradecemos. Sucesso!
@HENRIQUECANDINHO
@HENRIQUECANDINHO 5 месяцев назад
Muito bom!
@laurenceribeiro
@laurenceribeiro 5 месяцев назад
Ótimo vídeo! Estou lendo um livro chamado: “Python para Análise de Dados”, e coincidentemente hoje mesmo estava lendo um capítulo sobre os tipos de arquivos que o Pandas lê e apareceu esse formato de arquivo Apache Parquet. Muito bom 👏🏻👏🏻👏🏻
@Ragnarok906
@Ragnarok906 4 месяца назад
Qual o nome do livro?
@laurenceribeiro
@laurenceribeiro 4 месяца назад
@@Ragnarok906 Python para Análise de Dados - 3ª edição do Wes McKinney.
@GilsonFabiano
@GilsonFabiano 5 месяцев назад
Bacana, tem vídeos no canal sobre essa análise de trades in time e livro de ofertas?
@weversonmachado5333
@weversonmachado5333 3 месяца назад
Ótimo!
@SkySesshomaru
@SkySesshomaru 5 месяцев назад
Caralho, esse vídeo foi FODA. Muito maneiro mesmo.
@AsimovAcademy
@AsimovAcademy 5 месяцев назад
Fico feliz que tenha te ajudado! Abração!!
@samuelmartins82
@samuelmartins82 5 месяцев назад
Seria possível, com o pandas, particionar os dados em diretórios, como fazemos com o PySpark ? Por exemplo, se um df tiver dados de 3 anos diferentes, as partições seria 1 diretório pra cada ano + 1 diretório pra cada mês.
@AsimovAcademy
@AsimovAcademy 5 месяцев назад
Oi, Samuel, é possível sim, é um processo bem tranquilo. Para ser sincero, eu não conheço nenhuma forma de fazer isto nativamente no Pandas (uma função dele que faça isto para você), mas eu costumava fazer exatamente isto que você descreveu através de um for loop que iterava sobre meses e anos do DataFrame. e exportava meus dados de negociações da bolsa em diversas pastas. Não dá nem 10 linhas de código. Abraços!
@fabioa8059
@fabioa8059 10 дней назад
Não faz sentido fazer isso. Existem outras libs específicas para tratar big data com máquinas fracas como o dask e o Polars. Se você quiser pode até usar depois pandas mas faz muito mais sentido continuar usando essas ferramentas ao invés de pandas que nem paraleliza
@Casdias
@Casdias 12 дней назад
Como você configurou o seu pycharm pra visualizar as execuções assim!?
@canaljesusnazareno
@canaljesusnazareno 5 месяцев назад
Puts, dica de ouro! Adiantou 01 ano de estudo em poucos minutos rsrsrs
@AsimovAcademy
@AsimovAcademy 5 месяцев назад
Fico feliz que tenha ajudado! Abraços!!
@marcosgomes3140
@marcosgomes3140 5 месяцев назад
Pra quem tem o mínimo de noção em python, acho que nem desenhando ficaria tão claro. 🤣🤣👏🏼👏🏼👏🏼👏🏼
@AlmirBispo-CSV-Comp-DB
@AlmirBispo-CSV-Comp-DB 4 месяца назад
Existe um banco tipo newsql/ nosql especializado em CSV
@SrPedroS
@SrPedroS 5 месяцев назад
Muito bom! Tem algum vídeo de como criar esse terminal interativo?
@AsimovAcademy
@AsimovAcademy 5 месяцев назад
Oi, Pedro, tem sim! Neste vídeo eu explico o passo a passo: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-ol_S9G0nCNE.html&ab_channel=AsimovAcademy Abraços!
@folcloremacabro
@folcloremacabro Месяц назад
Como se executa no terminal interativo?
@antoniocferreira7337
@antoniocferreira7337 5 месяцев назад
Fui instalar o pandas, direciona para o site para instalar o Anaconda que tem varias libs. Quando eu copio o pandas.py e importo o pandas começa a pedir outras dependencias da lib e quanto mais eu copio no diretorio que estou testando, mais dependencia surge, tem como resolver isso? Ou tem outra forma de instalar/usar o pandas no python?
@Daxiannn
@Daxiannn 4 месяца назад
Bom dia. Sabe me dizer se é possivel combinar dados de ativos ou tirar o spread de ativos e criar um gráfico sintético com a combinação desses ativos e acompanhar em tempo real com Python? Por exemplo juros de 10 anos dos EUA (us10y) -(subtração) pelo juros da alemanha de dez anos(de10y) e gerar um gráfico
@AsimovAcademy
@AsimovAcademy 4 месяца назад
Olá! É possível, sim, desde que tenha acesso a market data.
@RodrigoGallaro
@RodrigoGallaro 4 месяца назад
Top demais os vídeos! Consegue um cupom de desconto pra quem está pensando em assinar o curso no site?
@AsimovAcademy
@AsimovAcademy 4 месяца назад
Olá, Rodrigo! Fale com um de nossos consultores pelo WhatsApp wa.me/555197100833 Iremos ajudá-lo a encontrar a melhor solução!
@F4RL3Y
@F4RL3Y 5 месяцев назад
Uma dúvida, estou utilizando o sqlite3 pois o desempenho para leitura dos dados é significativamente maior do que o mysql. Considera que seria recomendável utilizar esse .parquet neste caso? O sqlite3 foi apenas uma maneira que encontrei ir guardando e organizando os dados através de arquivos.
@AsimovAcademy
@AsimovAcademy 5 месяцев назад
Sugiro fazer o teste. Extraia os dados da sua base sql, salve em parquet e faça uma comparação no tempo de leitura. Melhor sempre validar antes de fazer grandes mudanças.
@denisbrunomoraisneves2471
@denisbrunomoraisneves2471 4 месяца назад
Alguma outra forma para importação mais rapida de importar SQL? tenho usado o chunk, existe alguma outra forma?
@AsimovAcademy
@AsimovAcademy 4 месяца назад
Olá, Denis! Isso depende de várias questões (qual banco SQL usa, como é o ambiente dele, onde o banco é hospedado etc.).
@Fabricio-rm4hj
@Fabricio-rm4hj 5 месяцев назад
Muito bom, onde encontro esse dataset? gostaria de reproduzir esse estudo.
@brunodiasvibe
@brunodiasvibe 5 месяцев назад
Site kaggle
@AsimovAcademy
@AsimovAcademy 5 месяцев назад
Oi, Fabricio. Infelizmente peguei este dataset no Kaggle há bastante tempo e perdi sua origem. Mas existem muitos datasets semelhantes lá produzirão o mesmo resultado. Este aqui é um exemplo: www.kaggle.com/datasets/giovamata/airlinedelaycauses Abraços!
@BassAtoZ
@BassAtoZ 5 месяцев назад
Excelente vídeo! Experimento isso na prática com os datasets do ENEM. Normalmente para fazer a leitura sem estourar a memória, faço testes de ler partes (seleciono) de linhas ou colunas do dataset. Vou experimentando até chegar a capacidade máxima de memória. Carregar o dataset inteiro estoura a memória. Alguma sugestão de como conseguir um dataset grande otimizando a memória. Não conseguiria aplicar essas duas técnicas que mostrou, sem carregar o dataset inteiro. Em minha máquina ou nas máquinas virtuais (colab) da Google, não consigo carregar um dataset completo para leitura e aplicar essa técnica. Sugestões são bem vindos!!! Absss ❤
@muriloeziliano5353
@muriloeziliano5353 5 месяцев назад
Tu poderia passar o link do kaggle pra tentar acompanhar o teu código?
@AsimovAcademy
@AsimovAcademy 5 месяцев назад
Oi, Murilo. Infelizmente peguei esse dataset no Kaggle há bastante tempo e perdi sua origem. Mas existem muitos datasets semelhantes lá produzirão o mesmo resultado. Este aqui é um exemplo: www.kaggle.com/datasets/giovamata/airlinedelaycauses Abraços!
@medeirosvig
@medeirosvig 4 месяца назад
onde eu consigo esse arquivo de exemplo?
@AsimovAcademy
@AsimovAcademy 4 месяца назад
Olá! Infelizmente peguei esse dataset no Kaggle há bastante tempo e perdi sua origem. Mas existem muitos datasets semelhantes lá que produzirão o mesmo resultado. Este aqui é um exemplo: www.kaggle.com/datasets/giovamata/airlinedelaycauses Abraços!
@giovanesilveiradasilveira994
@giovanesilveiradasilveira994 5 месяцев назад
👋👋👋
@anselmomendes9585
@anselmomendes9585 4 месяца назад
13:53
@freddoliveira
@freddoliveira 3 месяца назад
.
@infogenuino
@infogenuino Месяц назад
Porque o python não mostra todo conteudo da planilha? tenho um planilha de 41 mil linhas, onde tem dados de idade, começa na idade 17, quando chega no 36, ai pula 89, fica aparecendo só os risquinhos, exemplo abaixo, 33 1833 36 1780 35 1759 ... 89 2 91 2
@fabioa8059
@fabioa8059 10 дней назад
Porque gasta memória ram. Se quiser visualizar tudo é melhor trabalhar com Excel
Далее
"Ninguém precisa de Python se souber Excel"
12:36
Просмотров 24 тыс.
Каха и калЪян
00:46
Просмотров 170 тыс.
УНИТАЗ В ЛЕСУ?? #shorts
00:24
Просмотров 803 тыс.
Como usar o GPT com seus próprios dados?
27:42
Просмотров 63 тыс.
This Is Why Python Data Classes Are Awesome
22:19
Просмотров 795 тыс.