Тёмный

El mejor asistente de código GRATIS: Qwen 2 + VS Code (funciona sin GPU) | Tutorial 

Artificial Consciousness
Подписаться 4,7 тыс.
Просмотров 2,2 тыс.
50% 1

En este video, te mostramos cómo integrar el increíble modelo Qwen 2 como tu GitHub Copilot. Si buscas mejorar tu flujo de trabajo y aprovechar lo último en tecnología de inteligencia artificial, ¡este tutorial es para ti!
🔍 Lo que verás en este video:
- Introducción a Qwen 2 y por qué es un modelo revolucionario
- Comparativa rápida con LlamA-3 y su rendimiento superior
- Paso a paso para descargar e instalar Ollama
- Configuración detallada en Visual Studio Code con la extensión "Continue"
- Recomendaciones sobre qué modelo utilizar según las características de tu equipo
- Cómo utilizar Qwen 2 para autocompletado y funciones de codificación
- Integración con otros modelos como Mistral y CodeQwen para una mayor versatilidad
🛠 Herramientas Utilizadas:
- Ollama
- Visual Studio Code con la extensión "Continue"
- Qwen 2 LLM
⚙️ Requisitos del Sistema:
- 8 GB de RAM para modelos 7B
- 16 GB de RAM para modelos 13B
- 32 GB de RAM para modelos 33B
🚀 ¡Mejora tu Productividad!
Qwen 2 no solo supera a LlamA-3 en rendimiento, sino que también ofrece una interfaz sencilla y potente para conversar y obtener sugerencias de código con esta alternativa. Si alguna vez te has sentido frustrado con las sugerencias de tu GitHub Copilot, ¡esta es tu solución!
💡 Tips Adicionales:
- Cómo solucionar errores comunes de configuración
- Ajustes para mejorar la velocidad de autocompletado
- Alternativas de modelos especializados en codificación
👍 No olvides:
- Darle like a este video si te fue útil
- Suscribirte al canal para más tutoriales y novedades en tecnología
- Compartir este video con tus amigos y colegas para que también puedan mejorar su flujo de trabajo
---
📢 Redes Sociales:
- Facebook: / kevin.dominguezriquelme.1
🔗 Recursos y Enlaces:
- Descarga Ollama: ollama.com
- Video Anterior sobre Qwen 2: • Qwen-2: El NUEVO RIVAL...
- GitHub de Ollama: github.com/ollama/ollama
---
¡Gracias por apoyar a Conciencia Artificial! 🚀
#Qwen2 #GitHubCopilot #VisualStudioCode #Ollama #InteligenciaArtificial #DesarrolloSoftware #Productividad #coding #github #copilot #ai #ia #ias #gratis #fyp #opensource

Наука

Опубликовано:

 

10 июн 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 40   
@josemanuelsalazarcarbajal3583
@josemanuelsalazarcarbajal3583 8 дней назад
Gracias por escuchar a tus subs. Eres el mejor amigo.
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Gracias a ti por apoyar el canal, eso me motiva mucho a seguir mejorando el contenido.
@HeroicMelodies_24
@HeroicMelodies_24 8 дней назад
Muchas gracias por el video, y esta explicado super bien.
@Conciencia_Artificial
@Conciencia_Artificial 7 дней назад
Muchas gracias por tu comentario y el apoyo!
@juancazares-du4vs
@juancazares-du4vs 7 дней назад
Excelente gracias
@Conciencia_Artificial
@Conciencia_Artificial 7 дней назад
Gracias a ti por apoyar el contenido!
@pedrojesusrangelgil5064
@pedrojesusrangelgil5064 8 дней назад
Gracias por el vídeo Sería genial un tutorial sobre cómo instalar una gpu como la rtx 4070 que tienes, una instalación nivel principiante
@MonkeyDiToni
@MonkeyDiToni 8 дней назад
Muchas gracias crack!!!🎉🎉🎉
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Gracias a ti por apoyar el contenido amigo!
@zRaYsu
@zRaYsu 8 дней назад
Muy guapo el video
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Muchas gracias por tu comentario y el apoyo! 👋
@flkask
@flkask 8 дней назад
Excelente video, muchas gracias!! Una pregunta: veo que tienes instalada la extension CodeGPT, sería una extensión similar a Continue, no? Usas las dos? Cual te parece mejor?
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Si también utilizo codegpt, la verdad me parece excelentes opciones ambas extensiones. La tengo instalada también porque luego su creador implementa funcionalidades bastante interesantes y me gusta probarlas. Sobre decidir cuál es mejor es dificil, la verdad me gusta mucho las 2 y son muy útiles.
@dcloki789
@dcloki789 8 дней назад
gracias 👍
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
gracias a ti por apoyar el contenido!
@MaxClintonHarriganChatergoon
@MaxClintonHarriganChatergoon 4 дня назад
Gracias por el aporte, una consulta tengo una pc con una gpu bastante vieja (gtx 660 3gb) por lo que diria que no cuento con GPU para procesamiento de IA en local. Tengo un procesador i5 13600k, y 32 gb de ram ddr5, puedo correr este modelo solo con cpu? y podria integrarlo a intellij?
@Conciencia_Artificial
@Conciencia_Artificial 3 дня назад
Tienes buenas especificaciones, si podrías correr sin problema hasta el modelo de 7B, realice una prueba con otra pc con menos ram y ese modelo si funciona bien. Sobre la extensión de Continue e Intellij, vi que si existe para ese IDE, pero la verdad nunca lo he probado. Pruébalo y nos compartes tus opiniones. 👋
@jorgedipra
@jorgedipra 8 дней назад
Una pregunta técnica, ¿dónde quedan instalados estos modelos dentro de Windows o linux? ya que en ollama no es, este no incremento 4G cuando instale el modelo de 7b, si no se mantuvo en 2G
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Lo acabo de investigar también, ya que no sabía esta información, te comparto lo siguiente: - macOS: ~/.ollama/models - Linux: /usr/share/ollama/.ollama/models - Windows: C:\Users\%username%\.ollama\models ¡Gracias por comentar!
@jorgedipra
@jorgedipra 7 дней назад
@@Conciencia_Artificial gracias!!!
@rolygonzaloochoaarancibia8417
@rolygonzaloochoaarancibia8417 8 дней назад
Osea qwen 2 ws otro y codeqwen es otro?? Yo pense que era una actualización mejor codeqwen pregunta seria cual es mejor que no consuma muchos recursos para codificar y si hay alguna alternativa a continue
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Ambos son del mismo creador Qwen (Alibaba), pero CodeQwen es un modelo especializado en la codificación, o sea, es mejor en temas de programación y generación de código, etc. Qwen 2 es un nuevo modelo (versión 2), pero su uso principal es general, digamos en mantener conversaciones en lenguaje natural. Pero lo más seguro es que en los próximos meses lancen una nueva versión, por lo que sería algo así: CodeQwen 2.
@MackiurDomii
@MackiurDomii День назад
Hola. Cómo puedo saber que necesito para ejecutar el de 7b o el de 72b. Tengo una 1050 y el de 4gb se ejecutan bien en la tarjeta de 6. Código bonito y todo. Pero… alenta toda mi máquina. El de 1gb de 1.5b de instrucciones no contesta xD lo que le pregunto. Cómo saber en qué invertir ?
@Conciencia_Artificial
@Conciencia_Artificial День назад
Hola, ollama comparte la siguiente información: Nota: Debe disponer de al menos 8 GB de RAM para ejecutar los modelos 7B, 16 GB para ejecutar los modelos 13B y 32 GB para ejecutar los modelos 33B. Esto es un aproximado, pero podemos darnos una idea de los requisitos que se necesitan para hacer funcionada cada modelo. Sobre lo que comentas que el de 1.5B no contesta está muy raro, es un modelo muy pequeño que prácticamente en cualquier computadora de oficina puede correr. ¿Cuáles son las especificaciones de tu equipo? Y sobre tu pregunta de en qué invertir, te refieres a ¿Adquirir una buena/mejor pc?
@ezems87
@ezems87 8 дней назад
hola instale un modelo mas pequeño de qwen2 el de 1.5b pero no puedo hacer funcionar el autocompletado de codigo , el chat va muy bien
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
¿Cuáles son las especificaciones de tu pc? A veces puede ser por tu hardware, u otra opción es que simplemente debas reiniciar el editor, hay ocasiones donde tarda en cargar el modelo de autocompletado. En caso de que no se resuelva, intenta instalando la versión más pequeña de 0.5b.
@federicodeniard6373
@federicodeniard6373 8 дней назад
Entre Qwen2 y granite-code , cual recomiendan?
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Buena pregunta, podrías utilizar granite-code para la parte de autocompletado y qwen2 para las funcionalidades de chat y solicitudes de código. O podrías comparar ambos modelos por tu cuenta y utilizar el que te resulte más útil. La ventaja es que siguen apareciendo más opciones. También CodeQwen (que presentamos en el anterior video) es una excelente opción: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-8PKIeroOARg.html
@danielmutran7702
@danielmutran7702 7 дней назад
Se puede hacer en visual studio 2019?
@Conciencia_Artificial
@Conciencia_Artificial 7 дней назад
Me parece que la extensión de Continue no se encuentra en visual studio, solo está en visual studio code y JetBrains, quizá exista otra alternativa para ese IDE. En caso de encontrar alguna opción te compartiré por aquí la información.
@jorgedipra
@jorgedipra 8 дней назад
Hasta el día de hoy, cuál es la más rápida, que menos este, solicitando requisitos?
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
El que menos recursos utiliza sería el nuevo modelo de Qwen 2 con 0.5 billones de parámetros. Prácticamente ese modelo podría correr en cualquier PC de oficina, considero que con 4gb de RAM podría ejecutarse. ollama.com/library/qwen2:0.5b
@GGnojungla
@GGnojungla 8 дней назад
que guapo el video y el creador
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
@jorgedipra
@jorgedipra 8 дней назад
cuál es mejor codeqwen o Qwen 2?? cuáles on sus diferencias?
@jorgedipra
@jorgedipra 8 дней назад
ya subió un video "Qwen-2: El NUEVO RIVAL de código abierto de GPT-4o 🤯 (Rivaliza con GPT-4o, Claude 3 y Gemini)" Gracias!!! muy eficiente jaja
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Si tienes oportunidad de utilizar el modelo Qwen2 72B, ese sería el mejor, pero en caso de que quieras usarlos de forma local (considerando los requisitos de tu PC), CodeQwen es muy bueno también, solo que ese modelo es especializado en la codificación y Qwen 2 para uso general. Por ejemplo, algunos mencionan que necesitarías 192gb de RAM para correr modelos con pesos mayores a 70 billones. En caso de que quieras correrlos tú mismo y al menos 16gb de RAM, puedes optar por los modelos de Qwen 2 7B o CodeQwen 7B. Ambos modelos son excelentes 👌
@jorgedipra
@jorgedipra 8 дней назад
@@Conciencia_Artificial gracias!!! muy buen contenido
@maol5491
@maol5491 8 дней назад
Me gusta más con codegpt 👀
@Conciencia_Artificial
@Conciencia_Artificial 8 дней назад
Codegpt es una excelente extensión también y que también sigo utilizando, igual ya le hemos presentado en el canal en otros videos. ¡Gracias por comentar!
Далее
Богатым буду 😂
00:26
Просмотров 920 тыс.
Las 15 MEJORES EXTENSIONES para VSCODE
8:39
Просмотров 95 тыс.
Por qué Apple Intelligence es asombroso y "aterrador"
17:09
ТОП-5 культовых телефонов‼️
1:00