Cara, você deveria ter 1 milhão de inscritos já. Que conteúdo de qualidade viu.. Simples, objetivo e didático. Obrigado por compartilhar essas novidades de IA e Python. Ativando o sininho aqui..
Muito obrigado!! É por comentários assim que nos motivamos para seguir produzindo conteúdo assim! Pode ter certeza que vamos nos puxar pra elevar essa barra cada vez mais. Abração!
Os modelos stable diffusion trabalham de forma diferente do padrão, antes de usar tem que fazer algumas ajustes para ter uma boa qualidade, já que o objetivo do modelo é gerar imagens rápidas com menos etapas. Geralmente as pessoas usam esse modelo quando não tem placa de vídeo ou um computador muito bom. Eu gosto de usar bastante o fooocus, lá é possível fazer diversas funções como faceswap, trocar objetos e outros.
Muito top esta sequencia de videos/tutoriais para rodar localmente. Seria muito bom dar a mesma sequencia para criação de videos, voz (com personalização) e músicas.
Melhores resultados e o máximo de desempenho apenas usando NVIDIA. Por mais que os Macs com M1e M2 executem bem, não tem comparação. Usando GPU AMD é muito meia-boca. Somente CPU então, nem se fala.
Cara, legal demais, vou baixar e brincar um pouco, falando nisso... Vocês usam alguma ia especifica para cria~ção de criativos? Ou mesmo, alguma que se integre ao photoshop?
Dica na sua pergunta, "larga escala" não esclarece requisitos importantes para sua pergunta como quantidade demanda por período ou mesmo a urgência vs a fidelização da imagem com o prompt.
Em relação ao penúltimo vídeo que postou e possível baixar os modelos maiores em um SSD externo? Tenho hardware mas não tenho espaço no meu disco local kkkk quando jogo o comando do ollama para baixar o modelo ele não finaliza o download por falta de espaço no disco principal
Oi, Cris! É possível sim. Vou deixar aqui abaixo algumas anotações pessoais que tenho sobre o assunto. Estão em inglês, mas acredito que deem para entender: ## **Where are models stored?** - macOS: ~/.ollama/models - Linux: /usr/share/ollama/.ollama/models - Windows: C:\Users\\.ollama\models **How do I set them to a different location?** If a different directory needs to be used, set the environment variable OLLAMA_MODELS to the chosen directory. Refer to the section above for how to set environment variables on your platform. ``` launchctl setenv OLLAMA_MODELS "/Volumes/EXTERNALSSD" launchctl getenv OLLAMA_MODELS launchctl unsetenv OLLAMA_MODELS ```
@@AsimovAcademy Perfeito! Consegui rodar tranquilamente, estou quebrando a cabeça pra controlar o Computador por voz usando o Whisper agora. Ansioso pros próximos vídeos 😅
Eu tenho uma dúvida caso alguém possa ajudar ficarei grato, como eu poderia fazer para direcionar o processamento dos dados pela minha gpu, observando o gerenciador de tarefas do windows me parece que está sendo encarregado tudo para a ram, sim meu conhecimento sobre programação é um pouco limitado, ainda estou aprendendo mas consegui fazer tudo rodar por aqui, diga-se de passagem vídeo excelente!
Fala meu amigo, bom dia. Eu consegui executar e rodar na UI dele mas ao tentar integrar e usar a API, quando clico em Image Generation on dentro do settings do Open WebUI recebo a mensagem de erro: Something went wrong :/ Invalid URL '/sdapi/v1/sd-models': No scheme supplied. Perhaps you meant /sdapi/v1/sd-models?, dei uma pesquisada vi algumas coisas mas nada resolveu. Tenho um mac m3 max. Se já passou por isso e conseguir ajudar. Valeu e parabéns pelo excelente conteúdo, também já sou aluno da Asimov Academy.
fala alexandre! firmeza? Ta fazendo as trilhas de IA da Asimov? Já tenho noçao boa em python, desenvolvo alguns agentes no crewAI mas gostaria de algo mais direcionado. Recomenda a Asimov Academy?