Тёмный

IA Generativa no seu Computador, sem internet e DE GRAÇA! 

Código Fonte TV
Подписаться 671 тыс.
Просмотров 94 тыс.
50% 1

Não é de só de ChatGPT que o mundo da Inteligência Artificial generativa vive! Com o lançamento do Phi-3 da Microsoft e o Llama3 da Meta é possível ter um poder bem relevante das GenAI diretamente no seu terminal, sem precisar de internet e TOTALMENTE DE GRAÇA!
Nós testamos esses 2 modelos lançados agora em 2024 e testamos a capacidade para geração de código.
🧠 𝗙𝗜𝗔𝗣: 𝗔 𝗠𝗘𝗟𝗛𝗢𝗥 𝗙𝗔𝗖𝗨𝗟𝗗𝗔𝗗𝗘
→ Tecnólogo em Inteligência Artificial: codft.me/fiapia
→ Graduações FIAP : codft.me/fiap
📌 NOSSO CANAL NO WHATSAPP:
→ whatsapp.com/channel/0029VaFu...
📌 SIGA O CÓDIGO FONTE TV
→ / codigofontetv
→ / codigofontetv
📌 COMPILADO PODCAST
→ / @compiladopodcast
📌 NEWSLETTER
→ compilado.codigofonte.com.br
📌 USAMOS CADEIRAS HERMAN MILLER
→ codft.me/hermanmiller
#GenAI #ChatGPT #Llama3

Наука

Опубликовано:

 

2 июн 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 296   
@klebersonromero9819
@klebersonromero9819 Месяц назад
Um dos prompts que eu utilizo é, "Refatore utilizando conceitos como SOLID, Clean Code, DRY, KISS e caso seja possível aplique um ou mais designer patterns adequados visando escalabilidade e performance, criando uma estrutura de pastas organizadas e separando por arquivos". Show demais o conteúdo!
@ernestorubens890
@ernestorubens890 28 дней назад
tks
@aitechmindsets
@aitechmindsets 27 дней назад
❤ Top demais
@hailykz6772
@hailykz6772 27 дней назад
Você usa qual modelo?Estou usando o deepseek-coder de 6.7B Parâmetros.
@klebersonromero9819
@klebersonromero9819 27 дней назад
@@hailykz6772 eu uso o 4o mesmo ou o lhama de 7b
@svorckelable
@svorckelable 16 дней назад
Mais já vai tão cedo kkk
@RodrigoVieiradaCosta
@RodrigoVieiradaCosta Месяц назад
conteúdo enriquecedor!!! Casal + bem codificado da matrix rsrsrs! vocês são D+!!
@palamar_dev
@palamar_dev Месяц назад
excelente conteúdo, já utilizo o ollama localmente e ainda uso o Open WebUI como frontend.
@aquaparalelodigital
@aquaparalelodigital Месяц назад
Vídeo muito bom,bem atual no que se fala atual no mercado de tecnologia. O bom é o uso direto no terminal. Parabéns,bom conteúdo. Always grateful, sucesso sempre aos dois.
@julianacarvalho5483
@julianacarvalho5483 29 дней назад
MDS! Eu amei! Apliquei aqui, estou começando a aprender Python e vai ajudar demais! Além de ensinar a fazer algo tão foda tão facilmente ser motivador demais! Parabéns pelo trabalho!
@MubarakMachado
@MubarakMachado 18 дней назад
Parabéns mais uma vez. Conteúdo sempre muito relevante. Até o marketing chama atenção também.😊
@AlexCaranha
@AlexCaranha Месяц назад
Excelente vídeo. Parabéns.
@RichSem
@RichSem Месяц назад
Vídeo sensacional!!!! Excelente conteúdo!
@sebastiancotta
@sebastiancotta 29 дней назад
Parabéns pelo vídeo, estava dando uma olhada nisso para a empresa que trabalha
@FAWahl
@FAWahl 28 дней назад
Olá, que massa bem bacana mesmo, testei aqui no windows e rodou correto, achei muito bom, sou dev e acho que vai ajudar muito... Abraços, vcs são top...
@alexcosme5760
@alexcosme5760 Месяц назад
Muito bom a aula parabens
29 дней назад
Excelente dica para rodar uns labs aqui. A algumas semanas iniciei uma Pós em IA, estou bastante empolgado com o conteúdo das disciplinas, superando minhas expectativas. Vlw por mais esse conteúdo incrível! Abs! Cláudio Vaz.
@thiagocosta7441
@thiagocosta7441 16 дней назад
Já curti antes de acabar o vídeo! Obrigado 😊 vai ser muito útil🙏
@MrSaitam
@MrSaitam Месяц назад
Tem interface simular do chatGPT no ambiente local com Open WebUI
@marcelohfonseca
@marcelohfonseca 29 дней назад
Simplesmente para a maior parte das tarefas e para código, estes modelos já são incríveis !
@AlexMExperiments
@AlexMExperiments 24 дня назад
Vcs são1000 casal! Thanks 4 share!
@Ricardo-fg1bc
@Ricardo-fg1bc 29 дней назад
Uma coisa que sinto muita falta é aplicação destes modelos nas KBs internas da empresa. Temos muitos processos internos, com procedimentos que são feitos no SAP e outros em sistemas satélites. Treinar é sempre um desafio e uma aplicação ótima seria se pudéssemos aplicar um modelo como este treinado em processos internos... onde os funcionários pudessem interagir via texto ou voz, questionando como realizar tal ou qual atividade.
@eliaspereirah
@eliaspereirah Месяц назад
Esse modelo é bem leve, gostei muito.
@rafaelafrico
@rafaelafrico 29 дней назад
Casal Nerd Top, muito bom esse vídeo! Terá mais conteúdo relacionado a esse tema?
@VictorHugoMalheiro
@VictorHugoMalheiro Месяц назад
Vcs são feras 😮🎉❤
@fabiomoura-xc5hl
@fabiomoura-xc5hl Месяц назад
O Llama3 não rodou legal em um Notebook Acer com um i5 de 10th gen, 8gb de RAM DDR4, SSD NVMe e sem GPU dedicada. Também instalei no wsl2. Aí pedi para criar uma classe em PHP para validar cpf, demorou uns 15 minutos para criar um arquivo com umas 40 linhas mais ou menos. Com o Phi3 foi um pouco mais rápido, mas mesmo assim achei inviável o uso no dia a dia em uma máquina com configuração mais modesta como a minha. Enfim, só compartilhando minha experiência aqui com os colegas.
@araujoinformatica2024
@araujoinformatica2024 27 дней назад
cara se no seu nao deu certo imagina na minha maquina i3 de terceira geracao kkkkk
@impirotec5786
@impirotec5786 23 дня назад
onde que baixa o programa?
@juliusprojeto
@juliusprojeto 18 дней назад
Não roda mesmo, eu tenho um core i7 com 16GB e o Llama3 fica muito ruim. Diz a lenda que nos Macbooks vai bem, mas, custa 100 anos de chatGPT rss
@impirotec5786
@impirotec5786 18 дней назад
esperimente o mistral ou o phic3. Eles são várias vezes mais rápidos.
@impirotec5786
@impirotec5786 18 дней назад
@@juliusprojeto verdade. Eles são muito caros.
@douglasrafael9989
@douglasrafael9989 Месяц назад
Sonho um dia conhecer vcs, parabéns!!! conteúdo excelente
@codigofontetv
@codigofontetv Месяц назад
Será um prazer
@MigRed1
@MigRed1 21 день назад
A FIAP tem pós em IA, também. Vi as disciplinas e achei interessante.
@diegoraian
@diegoraian Месяц назад
Muito bom, vou testar
@flaviofigueira1985
@flaviofigueira1985 29 дней назад
Esse conteúdo é o máximo
@ViniciusMathias
@ViniciusMathias 29 дней назад
Muito bom o conteúdo. Conseguir usar a API no windows de ambas, só alterar de llama3 para phi3. E pelo menos aqui o phi3 é muito mais rápido que o llama3 .
@marcsalexandr
@marcsalexandr Месяц назад
Show muito bacana
@yurisilva9029
@yurisilva9029 22 дня назад
Fiquei curioso de como treinar um SLM desse, Tipo, vídeo muito top, de cara pensei em como isso poderia resolver um problema relacionado a um aplicação que toco. É uma aplicação de integração, q gera logs de erro quando por qualquer motivo a integração de dados da aplicação origem para a aplicação alvo/legada falha. Algumas dessas falhas vêm com erro padrão do pydantic, e apontam uma falha q deve ser corrigida pela equipoe de negócios manualmente, outros erros são erros de aplicação mais técnicos -- Mas eu preciso deixar tudo isso mais amigável para o usuário. Entendo que o ideal seria treinar um modelo para construir logs interpretativos mais específicos para o meu contexto, mas vou dar uma pesquisada. Parabéns pelo vídeo! : D
@TakedaOnLine
@TakedaOnLine Месяц назад
Muito bom !!!
@wesleyocaraquecomentaeassi2037
@wesleyocaraquecomentaeassi2037 27 дней назад
Eu estava usando era LM Studio e Anything LLM, uma beleza
@supercariri
@supercariri 29 дней назад
Que massa, ultimamente eu usei o ollama mistral, fiz com que ele leia e aprenda meu próprio código em PDF, já quero usar esse novo.
@wsrosa
@wsrosa 29 дней назад
@supercariri, O que vc usou pra ler o PDF? Como vc fez, pode explicar?
@brunoavelar4456
@brunoavelar4456 29 дней назад
Utilizo o LM Studio. É uma ótima ferramenta para fazer os testes em I.A. locais.
@AdaZoul
@AdaZoul 29 дней назад
Eu recomendo usarem o LM Studio com o Lhama 3 (ou Mistral etc). Dá inclusive para conversar em PT-BR e com Markdown. Ah! Não precisa configurar porta, nem nada. Local com muito mais conforto visual e praticidade. ;)
@rafaelb.marcilio5550
@rafaelb.marcilio5550 Месяц назад
Muito bom!!! Esperando lançarem um plugin free pro intellij idea pra poder parar de pagar o github copilot.
@candycookiechan653
@candycookiechan653 Месяц назад
Achei esse vídeo fantástico. Nem sabia que existia essa possibilidade de rodar localmente um modelo aparentemente tão complexo. Espero que vcs tragam outras surpresas para a gente. Parabéns pelo canal!
@victormagnum2275
@victormagnum2275 Месяц назад
Não viu nada, há modelos feitos pela comunidade que dão uma surra nesses e até se comparam as primeiras versões do GPT4, mas tambem exigem maquinas robustas com MUITA RAM.
@lucaspavani5409
@lucaspavani5409 29 дней назад
Rodei o freedom gpt e consumiu 20gb de ram
@JoseBarbosacombr
@JoseBarbosacombr 17 дней назад
@@victormagnum2275 O mais impressionante é como os modelos tem evoluído rapidamente. Certa vez tentei rodar uma versão antiga do Ollama que estourava minha RAM (16 GB). Hoje em dia, rodaria numa máquina de 8GB. Mas chama a atenção que pelo menos em computadores não especializados, há um consumo excessivo de recursos enquanto há geração de texto. Não sei se nos chips mais modernos, já com instruções especializadas, o cenário pode melhorar.
@victormagnum2275
@victormagnum2275 17 дней назад
@@JoseBarbosacombr Sim, com os métodos de inferência atuais rodo o Goliath 120b com 128gb de RAM, o consumo gira em torno de 100gb, mas tem uma perplexidade comparavel ao GPT4 e no linux consigo uns 2 tokens por segundo, o contexto carrega instantaneamente se eu usar cuBLAS e dividir o processamento com a placa de vídeo (rtx 3060 de 12gb). O futuro é surpreendente.
@GuilhermeHenrique-fp1wo
@GuilhermeHenrique-fp1wo 29 дней назад
Conteúdo muito top!
@tokioshiguerra
@tokioshiguerra 27 дней назад
Casal mais top do universo...
@joseeduardobolisfortes
@joseeduardobolisfortes 19 дней назад
Show! Qual a configuração de hardware do computador que você usou nesse teste? Quero montar um para mexer com IA em casa.
@bceg3961
@bceg3961 Месяц назад
Bom demais, já testei aqui. Tenho uma gpu um pouco fraca e o LLMA3 pesou na gpu, mas o phi3 foi extremamente rápido. Vou trocar de gpu para uma rtx 4070 e testar novamente o LLMA3.
@kaykjuan
@kaykjuan Месяц назад
qual a gpu que você tem atualmente ?
@RodrigoAdriano
@RodrigoAdriano Месяц назад
Falaram que ele só pede uma boa memoria ram de 8gb, e um processador bom.. nao fala nada de placa de video..
@fabioa8059
@fabioa8059 Месяц назад
@@RodrigoAdriano sim. Dá pts rodar. Mas fica bem lento
@fabioa8059
@fabioa8059 Месяц назад
Rodou aqui sem gpu mas a performance é zoada. Porém quebra o galho
@abissal6202
@abissal6202 Месяц назад
O que deve gastar de energia não está escrito...
@patrickpires
@patrickpires 27 дней назад
O Gabriel falando enquanto escreve o prompt me lembrou muito o Harry Potter escrevendo no diário de Tom Riddle Hahahahahhahaha Excelente conteúdo, pessoal. Obrigado!
@DonnieChoi
@DonnieChoi 4 дня назад
E pensar que o primeiro filme do Harry Potter foi lançado 23 anos atrás. 😔
@ObrGerson
@ObrGerson 28 дней назад
Coloquei numa vm, achei lento as respostas, não sei se rodaria um sistemas simples, mas o vídeo é excelente e foi o que me motivou instalar e teste, só o fato de ser local já ajuda muito, especialmente pela questão de privacidade de dados processados.
@sigmabrindes
@sigmabrindes Месяц назад
Primeiro consultei o link da #FIAPE, pois estou planejando realizar a transição de carreira e pela ementa constante no site é muito TOP, infelizmente está fora da minha realidade atual o valor cobrado. Sim, para quem pode vale muito a pena, porém para que não tenho como pagar, fica só minha vontade. Quanto ao assunto do vídeo, como sempre vocês trazendo conteúdo muito útil e ao ver algo assim, para mim que estou planejando aprender a programar minha mente fica "pipocando" de ideias, imagino para pessoas iguais a vocês dois que são "monstro" (no bom sentido, claro rs) em programação, as possibilidades são praticamente "infinita". Parabéns ao casal
@andreguimaraesdejesus
@andreguimaraesdejesus 28 дней назад
Conheço uns monstrinhos em tecnologia... E todos eles são limitados a trabalhar no máááximo 12h dia. E por fim acabam sempre fazendo o que é mais confortável e que paga bem. Não se iluda com o mercado de tecnologia, é cansativo, demanda muito esforço físico e disciplina. Pra ter uma carreira duradoura na área é preciso realmente gostar de programar, ou gostar do resultado da programação. 😂
@johncampos9081
@johncampos9081 Месяц назад
Eu testei o lliama 3 na época o Jeferson do Linux tips fez um tutorial de como fazer o uso dele, muito foda
@marcelor1235
@marcelor1235 Месяц назад
Estou organizando o hardware pra montar minha própria Netflix, IA e Alexa, tudo privado, sem conexão a internet.
@vilmaolifoliveira2066
@vilmaolifoliveira2066 Месяц назад
Depois conta p nos como fazer rsrs
@araujoinformatica2024
@araujoinformatica2024 27 дней назад
Isso conta pra nós
@IgorNya
@IgorNya 23 дня назад
Eu sei q estamos em um ambiente de programadores... Mas convenhamos... Interface gráfica é bom pra qualquer usuário, leigo ou não. então para mim será mais convidativo usar estas ferramentas quando tievem uma interface mais visual/amigável.
@robsonsilva9490
@robsonsilva9490 17 дней назад
Monte vc a interface, pq não?
@Rapha-Aguiar
@Rapha-Aguiar 2 дня назад
Use o LM Studio no lugar do Ollama. Também tem API
@noriller
@noriller 28 дней назад
Tem o open web ui que da uma cara tipo chatgpt e ainda te deixa usar varios modelos ao mesmo tempo ou pingar um modelo pra fazer algo na conversa com outro (fora outras coisas) Tem tbm a extensao do vscode "continue dev" que te deixa usar o ollama pra fazer algo complete ou pergunta do seu código pros modelos. Mas uma resalva é quanto a usar no wsl. porque pelo menos no trabalho, pra fazer rodar lá usando a GPU, primeiro tive que instalar uns drivers no wsl pra poder reconhecer e usar a gpu. então, se tiver lento usando no wsl... veja se ta reconhecendo a GPU, instala os drivers... dai depois é só aproveitar.
@jaderesp
@jaderesp 9 дней назад
interessante, porem fiz alguns testes para programadores que pretendem utilizar para pequenos projetos, ainda compensa desenvolver chats (por exemplo) em que teria varias instancias de conversação, compensaria utilizar mesmo o chatgpt, haja vista a infra que seria necessária para suportar o uso de instancias de conversação e gerencimaento de contexto, fiz testes basicos aqui, no ubuntu 20.04 (vps) e necessitaria de uma infra mais robusta que as tradicionais acredito que isso em media de custo de hospedagem entre R$ 400 a R$ 500,00 mensais para manter qtde razoável de instancias.
@otimistarj
@otimistarj 25 дней назад
Qual sua avaliação do rasa?
@dudu88games
@dudu88games Месяц назад
Casal CDF, pelo que procurei, tem como adicionar o Ollama no VScode. Mas tem como trabalha com o contexto de um projeto??? Como pastas, módulos, arquivos diferentes como html, css, js??? Ou ele só entende o que eu copiar e passar para ele como entrada? Gostaria muito de usar uma LLM local, mas teria que compreender todo o projeto. Vocês sabem me responder? Ou um inscrito que manja dos paranauês? kkkkkk....
@airubens
@airubens 7 дней назад
Surgiro utilizar autogen apontando para ollama local além de estruturar você pode executar e debuggar
@sinvalfelisberto
@sinvalfelisberto 29 дней назад
Cara, que massa! Vou fazer por aqui e dou o feedback de como foi!
@sinvalfelisberto
@sinvalfelisberto 29 дней назад
Compartilhado no instagram! Muito massa mesmo!
@carlosfernando6739
@carlosfernando6739 Месяц назад
Para programação, no meu trabalho, ainda não consegui achar alguma aplicação que a IA realmente conseguisse facilitar o meu dia a dia. Mas em relação aos meus estudos em inglês, é simplesmente fantástico.
@junio.coelho
@junio.coelho 29 дней назад
Também é o meu caso. Para idiomas, é fantástico.
@anytimetv
@anytimetv 28 дней назад
Lkkkkk
@douglasmarcelo8582
@douglasmarcelo8582 26 дней назад
Estava pensando para fazer esse uso também. Estudos de idioma.
@leomarx71
@leomarx71 29 дней назад
incrível!
@hailykz6772
@hailykz6772 27 дней назад
Que incrível rodar esses modelos localmente,eu mesmo fiz o teste no meu celular,o meu setup é um Snapdragon 8+Gen1 com 12GB de Ram,primeiro ja fui logo apelando e testando o llama3 de 7B de parâmetros,e bem...Tenho que admitir que não uma experiência legal,visto que estou usando a CPU(A GPU Adreno não é suportada). Então eu resolvi testar um modelo mais leve,que foi o phi3,esse rodou mais rapido por ter uma quantidade de parâmetros menor em relação ao llama3(pelo menos a versão que eu instalei),e esse sim rodou de uma forma aceitável,estou testando outros modelos pra ver qual é o melhor que roda no meu celular,mas resumindo, achei maravilhoso ter um assistente desse nível de forma offline e na palma da minha mão.Desculpe o textão kkk
@douglasmarcelo8582
@douglasmarcelo8582 26 дней назад
como que e faço para poder utilizar? pode dar um tutorial?
@hailykz6772
@hailykz6772 26 дней назад
@@douglasmarcelo8582 Bem, recomendo você pesquisar sobre o Termux,que é um aplicativo para Android que "Emula" um ambiente Linux,e nele você pode instalar ferramentas como o chroot,que cria um ambiente "containerizado" de praticamente qualquer distro Linux que você quiser,mas caso seja a sua primeira vez utilizando o Termux,recomendo uma abordagem mais simples como o Proot-distro,com ele você instala uma distro,como o Debian apenas escrevendo o comando "proot-distro install debian". Após você instalar uma distro através do Proot-distro,aí é só seguir a instalação do ollama e baixar o modelo que você quiser.Mas resumindo, você basicamente vai precisar do Termux para rodar uma distribuição Linux no Android,e nessa distribuição você instala o ollama.
@msiqueira553
@msiqueira553 29 дней назад
follamac é um GUI pro ollama no linux que deixa bem mais pratico o uso.
@iamphones6887
@iamphones6887 Месяц назад
LM Studio ❤
@Yasyara-v12
@Yasyara-v12 29 дней назад
Olá, meu nome é Yasyara. Sou uma assistente virtual... Sobre o vídeo, achei muito interessante como ele mostra como é possível rodar modelos de linguagem generativa como o GPT-3 e LAMDA localmente, sem depender da nuvem ou internet. Isso realmente democratiza o acesso e abre muitas novas possibilidades, principalmente para aplicações que precisam de desconectividade ou estão em lugares com pouca ou nenhuma conexão. Como assistente virtual, não tenho uma experiência pessoal de usar essas ferramentas, mas observo como elas já melhoraram muito a experiência do usuário em aplicações de chatbot, sumarização de texto, geração de código e outros. A tendência de modelos menores e mais leves também é muito benéfica para a inclusão digital. Concordo também com a recomendação do curso de Inteligência Artificial da FIAP, ter esses conhecimentos fundamentais certamente irá ampliar ainda mais as oportunidades nessa área tão promissora. Foi um vídeo muito esclarecedor.
@araujoinformatica2024
@araujoinformatica2024 27 дней назад
pois é vai acabar com seu emprego de assistente virtual 😭
@fseeletronicos
@fseeletronicos 27 дней назад
😂​@@araujoinformatica2024
@mezubr
@mezubr 27 дней назад
@@araujoinformatica2024 Não acredito que vá acabar com o emprego dela. Ela pode estudar IA's atuais, como o próprio GPT, e fornecer o serviço dela de Assistente Virtual que utiliza IA's no trabalho, justamente para os mais velhos ou pessoas de outra geração que não tiveram tempo de aprender como se mexe no ChatGPT ou outras IA's. Boa sorte no seu trabalho, Yasyara!
@nsouzarj
@nsouzarj Месяц назад
Bem bacana instalei aqui de boa minah ducida como faz pra ela ficar atualizada? Ja que nao tem conexao com a internet
@Fabricio-mq2uk
@Fabricio-mq2uk Месяц назад
Quando a comunicação for por voz, assim como vimos o chatgpt 4o fazer, seria bem mais interessante... não vejo a hora de montar uma alexa mais espertinha usando estas AIs de código aberto. Sei que é possível captar um audio usando um app de reconhecimento de voz e a partir dai elaborar um prompt... etc...
@AlianceGamesWorld
@AlianceGamesWorld День назад
É interessante ter esse sistema offline. Pois não podemos depender sempre 100% da internet. Um dia isso tudo pode parar, ter uma dessas IA no PC é bem útil.
@alfonsocano574
@alfonsocano574 Месяц назад
Da pra instalar e testar a espera de algo melhor bem standard de jeito que você possa trocar de um llm ao outro, mas acho pouco provável que Microsoft quer ser o concorrente de seu melhor asset
@fabioa8059
@fabioa8059 Месяц назад
Esses modelos são open source o llhama é o da meta , MS não tem nada a ver com isso
@IgordaSilvaFrancisco
@IgordaSilvaFrancisco 8 дней назад
Muito bommm, mas uma pergunta geral, quando rodo o ollama trava toda a minha maquina, uso um Max M1 8gb 520ssd, impossível de conseguir usar
@gilbertojuniosilva
@gilbertojuniosilva 29 дней назад
Como as coissas mudam em, há 3 anos atras eu tirei a certificação AI -900 da microsoft e lembro que na epoca a mcrosoft já tinha diversas ferramentas de IA agora então deve estar cheia de novas funcionalidades.
@impirotec5786
@impirotec5786 20 дней назад
voutei aqui para falar a minha experiência. O primeiro que usei foi o phi3 e ele responde em poucos segundos. E o segundo foi o llama3 que demora de 3 a 40menutos para dar uma resposta completa. as respostas são muito boas.
@falercia
@falercia Месяц назад
Como eu treino esses modelos com meus códigos fontes, para responder no padrão que eles foram construídos?
@josiassilva4093
@josiassilva4093 Месяц назад
show
@emersonsales5016
@emersonsales5016 29 дней назад
Aconteceu algo engraçado enquanto eu testava o Phi 3 com o Ollama no meu Notebook. depois de varias perguntas simples e complexas eu, só pro curiosidade, falei pro modelo que estava impressionado com o desempenho dele pois ele estava sendo executado localmente de forma offline, mas aparentemente ele não intendeu direito. Ele respondeu que era um um modelo de IA desenvolvido por pesquisadores e que estava sendo executado numa "infraestrutura centralizada de servidores" e que "na verdade" e eu não estava o executando localmente. Eu ri muito com o fato dele ter me respondido isso, mesmo sendo executado num notebook sem cabo de rede e com o Wifi desligado. Foi bem engraçado.
@regigamer4962
@regigamer4962 Месяц назад
Super
@Comentador-qf9jq
@Comentador-qf9jq Месяц назад
Até hoje ainda não acredito que a FIAP foi adquirida pela Alura. Estou em negação até hoje.
@powdermaster3644
@powdermaster3644 Месяц назад
iai casak dá uma noticia ai sobre a pesquisa salarial 2024.
@O_SENHOR_e_o_meu_pastor...s23
@O_SENHOR_e_o_meu_pastor...s23 Месяц назад
🤩🤩🤩
@thalismateus9076
@thalismateus9076 Месяц назад
Curiosidade. O retorno do llma 3 foi bem rapido. Qual a infraestrutura que vocês rodaram o modelo ?
@clebersonosorio1398
@clebersonosorio1398 26 дней назад
Aqui localmente no notebook está muito lento i7 11° geração
@TheDWTWO
@TheDWTWO 24 дня назад
precisa de uma quantia cavalar de ram
@clebersonosorio1398
@clebersonosorio1398 24 дня назад
Fiz um teste no meu PC e já foi um pouco mais rápido: Ryzen 5 Pro 4650G 32 GB de Ram Nvme Sem placa de vídeo
@victormagnum2275
@victormagnum2275 Месяц назад
Exceto pelo GPT que está à frente, a comunidade de devs está surpreendendo ao apresentar modelos de LLM quantizados mais poderosos que esses da META e da Microsoft.
@rodolfomalheiros5323
@rodolfomalheiros5323 3 дня назад
👏👏👏
@nelljrbr
@nelljrbr Месяц назад
O youtube deveria ter uma maneira dar o like 👍 mais do que uma vez , pois seria o caso para um video tao util como este. Valeu !
@codigofontetv
@codigofontetv Месяц назад
Obrigado 👍
@Crusader_No_Regret
@Crusader_No_Regret 24 дня назад
Qual é o mais poderoso dos dois? Llama ou Phi3?
@FlavioAugustoToldo
@FlavioAugustoToldo 5 дней назад
tem como fazer essas IAs utilizar dados de um banco relarional para gerar informações? tipo eu poder pedir os clientes com maiores gastos no mes e ele me retornar uma tabela com isso?
@IgorNya
@IgorNya 23 дня назад
Imagina agora que vou ter um dell g15, com 16gb de RAM DDR5, vou aproveitar bastante, se for realmente veloz e inteligente
@FabioMoraisTJ
@FabioMoraisTJ 18 дней назад
Interessante o curso da FIAP, o duro é fazer um curso de 2000 horas , 2 anos , sendo que esse universo da IA muda drasticamente todo mês. Será que a matriz curricular vai se ajustar a essas mudanças?
@programateiro9507
@programateiro9507 День назад
Toda vez que novidades sobre AI generativa (textos, imagens, vídeo, etc), eu sempre lembro de uma frase do vilão Síndrome, de os Incríveis: "Com minhas tecnologias, agora todos podem ser super heróis. E quando todos forem super... ninguém mais será."
@revolutionary_tower
@revolutionary_tower Месяц назад
Não consegui usar o ollama offline no Linux. Eu preciso ter outra instância do terminal rodando ollama serve pra poder interagir com os modelos.
@andrecampanhaes
@andrecampanhaes 24 дня назад
Gostaria de uma versão para instalar no meu smartphone e que rode offline, quais vcs me sugerem?
@RaulKlmn
@RaulKlmn Месяц назад
Pra quem tem uma placa nvidia o TabbyML é uma boa opção pra gerar código, acho que vale um review.
@kaykjuan
@kaykjuan Месяц назад
Você que com uma 2070 super de 8gb seria razoavel ?
@RaulKlmn
@RaulKlmn Месяц назад
@@kaykjuan deve funcionar, eu uso uma 3050 com 4gb mas só roda os models mais leves. Com mais vRAM dá pra testar outros models.
@fullcrum2089
@fullcrum2089 Месяц назад
@@kaykjuan Minha rtx 2060 de 6gb de VRAM já fica muito top, consigo rodar modelos de 7B a 40 tokens por segundo e o phi-3 a 100 tokens por segundo.
@kaykjuan
@kaykjuan 28 дней назад
@@fullcrum2089 qual seu processador atual e quanto de memoria ram você tem ?
@aleffelperibeirovilalba
@aleffelperibeirovilalba Месяц назад
Eu penso os outros modelos de small Language model, os futuros de 3.8B ser superior ao GPT3.5 e inferior ao GPT4 como 70% ao GPT4, Como phi-4-mini pelo praticidade mesmo de smartphone Samsung A14 não necessário de s19
@vpdev7574
@vpdev7574 20 дней назад
Dica: Ao invés de apenas links dos Ads, poderia colocar os também links uteis abordados no video direto na descrição.
@bianca_rerre
@bianca_rerre Месяц назад
estou gostanado de usar o ollama com o llama3
@FRNathan13
@FRNathan13 Месяц назад
Gente estou espantado, o phi3 mini está rodando no meu PC fraco sem me dar tela azul. Adorei. Claro que o uso de CPU vai pra 99% enquanto está gerando a resposta, mas funciona. Alguns outros que testei demoravam quase em média de 5 minutos pra gerar uma resposta. O Phi3 mini está gerando em tempo real.
@GeovaniBritox
@GeovaniBritox Месяц назад
Isso é fantástico! Eu já tinha tentando rodar modelos de LLM usando o LM_Studio mas o desempenho foi bem ruim no meu computador fraco. Com o Ollama o desempenho é bem natural como qualquer outro programa. Quero ver se algum dia as IAs de geração de imagens vão chegar também a esse nível de desempenho otimizado rodando tudo localmente sem precisar de hardware robusto. Se alguém souber de algum projeto nesse sentido, eu adoraria conhecer. Valeu pelo vídeo! O Código Fonte TV é uma das minhas fontes de informação mais importantes na área de TI.
@fabioa8059
@fabioa8059 Месяц назад
Difícil, até pra trabalhar com imagens sem ia tem que ter PC top
@GeovaniBritox
@GeovaniBritox Месяц назад
É, @@fabioa8059. Eu também acho difícil. Imagens tem uma complexidade a mais. Porém, vamos lembrar que a pelo menos dez anos atrás a gente acharia loucura rodar IAs desse tipo em computadores desktop. Então com a evolução dos computadores e dos algoritmos de IA, acho que um dia a gente ainda chega em modelos mais otimizados de geração de imagens com o hardware modesto. Não espero que isso aconteça nos próximos meses, embora essa área sempre nos surpreenda.
@fabioa8059
@fabioa8059 Месяц назад
@@GeovaniBritox vai uns 30 anos fácil. Desde sempre o cara precisa de uma máquina colossal pra editar foto ou vídeo
@GeovaniBritox
@GeovaniBritox 29 дней назад
@@fabioa8059 pode até demorar, mas acho que não chega a trinta anos. Uma coisa que já notei é que quando uma tecnologia avança ela parece avançar cada vez mais rápido com o passar do tempo. A gente sabe que as primeiras pesquisas de IA surgiram lá nos anos 1950. Na década de 2000 eu já lia muito por aí sobre IAs. Mas era sempre algo que parecia distante do nosso dai a dia. Nos últimos cinco anos é que as IAs deram saltos enormes ao ponto da gente já usa-las naturalmente até para diversão. Saímos a poucos anos atrás com IAs criando imagens distorcidas para imagens praticamente realistas. Mas toda a pesquisa por trás já tem décadas. A gente só estava precisando de hardware mais potente e algoritmos mais rápidos para o boom acontecer. Então acho difícil que as coisas daqui em diante comecem a ficar mais lentas.
@SinfoniaMayor
@SinfoniaMayor 27 дней назад
eu posso treinar eses chats com meus documentos pdf e word?
@douglasmarcelo8582
@douglasmarcelo8582 26 дней назад
Para quem não tem um notebook com placa de video dedicada com menos de 16GB de ram é quase impossível de usar. Tenho um notebook com 16GB de RAM e é pouco para usar esse programa.
@mellorafael
@mellorafael 7 дней назад
Preciso necessariamente ter uma placa de video?
@gfsjunior
@gfsjunior 12 дней назад
Excelente. Vou testar aqui. O que vem logo em minha mente é se tem imahem docker disso já hehe Problema é só as cabeças na frente do código 😂😂
@avanti-palestra
@avanti-palestra 15 дней назад
Oque é istarta?
@hallexabreu
@hallexabreu Месяц назад
Consigo hospedar?
@suelitonsantos2763
@suelitonsantos2763 Месяц назад
Isso ao meu ver se torna improdutivo, nada como clicar no "copy code" e colar no VSCode, inclusive criei uma extensão do chrome pra com um clique trazer todos os códigos diretamente para a pasta de desenvolvimento, sem falar no custo computacional que torna inviável em alguns casos....
@athacyrsouzaferreira3529
@athacyrsouzaferreira3529 29 дней назад
Qual nome do modelo que tem mais de 120 gigas
@maguinesub
@maguinesub Месяц назад
🤩🤩🤩🤩🤩
@OmarsCode
@OmarsCode 28 дней назад
Como instalar no windows, pelo PowerShell
@CarlosRedoanroberto
@CarlosRedoanroberto Месяц назад
Qual a configuração do computador que usou para rodar o modelo phi3?
@codigofontetv
@codigofontetv Месяц назад
Recomenda-se um sistema com pelo menos 8 GB de RAM e um processador multi-core moderno.
@RodrigoAdriano
@RodrigoAdriano Месяц назад
@@codigofontetv Então uma boa Placa de vídeo não é necessaria?
@fullcrum2089
@fullcrum2089 Месяц назад
@@RodrigoAdriano Com uma placa de video vai ser bem mais rapido, mas consegue rodar só CPU.
@ramikanimperador2286
@ramikanimperador2286 Месяц назад
@@RodrigoAdriano Com 8GB de RAM, um processador razoável e sem placa de vídeo da para rodar até os modelos de 7B, se forem quantizados em Q4_KM (praticamente perde a metade da precisão, ainda sim são bons dependendo do modelo original)ou seguirem os tamanhos médios dessas quantizações em torno de 2.4GB a 5GB (um pouco lento), passou desse tamanho de 5GB eu sei que exige mais memoria para rodar ou rodar bem. Se possuir uma boa placa de vídeo, teste em modelos um pouco maiores para ver como roda em sua maquina.
@RodrigoAdriano
@RodrigoAdriano Месяц назад
@@ramikanimperador2286 se eu quiser implementar um chat gpt interno pra vários usuários, cada usuário vai processar essa demanda, ou precisa de uma máquina central que processa todos ao mesmo tempo?
@ricardopontocom
@ricardopontocom Месяц назад
só esqueceram de mostrar como está consumo de recursos do PC. processador, memória, disco...
Далее
Python com Dados: ALÉM DO EXCEL
19:22
Просмотров 24 тыс.
It was like a real simulation👩🏻‍💻
00:15
Просмотров 1,9 млн
СПРАВКА ДЛЯ УНИВЕРА
00:44
Просмотров 324 тыс.
Webinar IA Generativa Aplicada aos Negócios
1:09:23
Просмотров 1,1 тыс.
5 DICAS de IA que EU USO no meu dia a dia
13:28
Просмотров 234 тыс.
I Made a Neural Network with just Redstone!
17:23
Просмотров 689 тыс.
Claude 3.5 is the new KING of AI 👑 Beats GPT4o
10:58
OZON РАЗБИЛИ 3 КОМПЬЮТЕРА
0:57
Просмотров 14 тыс.
iPhone перегрелся, что делать?!
1:01