Тёмный
No video :(

¡DeepSeek Coder 2: El Nuevo Rey de la Programación! (supera a GPT-4o, Gemini, Codestral y Claude-3) 

Artificial Consciousness
Подписаться 10 тыс.
Просмотров 7 тыс.
50% 1

🔥 ¡Descubre el increíble poder de DeepSeek Coder 2 en nuestro último video! 🔥
Bienvenidos a Conciencia Artificial, tu canal favorito de tecnología y avances en inteligencia artificial. Hoy te traemos un análisis completo del nuevo modelo DeepSeek Coder 2, la última versión del popular modelo de codificación DeepSeek.
🚀 ¿Qué es DeepSeek Coder 2?
DeepSeek Coder 2 es un modelo revolucionario diseñado específicamente para tareas de codificación, superando a gigantes como GPT-4 Turbo en benchmarks clave. Con una impresionante cantidad de 236 billones de parámetros en su versión principal y 16 billones en su versión lite, este modelo ofrece un rendimiento excepcional tanto en la nube como localmente.
💡 Características Destacadas:
- Soporte para más de 300 lenguajes de programación.
- Longitud de contexto de 128 mil.
- Precios asequibles y licencia MIT para usos comerciales.
- Benchmarks impresionantes: ¡supera a los modelos más avanzados en tareas de codificación y matemáticas!
🛠️ Pruebas en Acción:
En este video, te mostramos cómo DeepSeek Coder 2 maneja diversas tareas de codificación, desde crear aplicaciones gráficas en Python con Tkinter hasta generar juegos en JavaScript y HTML. ¡Mira cómo se desempeña en pruebas reales y descubre si es la herramienta que necesitas para tus proyectos!
🔗 Prueba DeepSeek Coder 2 Hoy Mismo:
- Prueba el modelo en DeepSeek Chat de forma gratuita: chat.deepseek....
- GitHub DeepSeek Coder 2: github.com/dee...
- Descarga los modelos desde Hugging Face: huggingface.co...
- Descarga los modelos desde Ollama: ollama.com/lib...
👉 ¡No te pierdas esta revolución en la codificación! Dale un 👍 si te gustó el video y suscríbete para más contenido sobre tecnología y AI. Activa la campanita 🔔 para no perderte ninguna actualización.
💬 Déjanos tus comentarios: ¿Quieres ver un tutorial sobre cómo configurar DeepSeek Coder 2 como tu copiloto en tu editor de código? ¡Haznos saber en los comentarios y haremos un video especialmente para ti!
❤️ Apoya nuestro canal: Considera donar a través de la opción de súper gracias debajo del video para ayudarnos a seguir creando contenido de calidad.
Gracias por ver Conciencia Artificial. ¡Nos vemos en el próximo video!
#DeepSeekCoder2 #inteligenciaartificial #programacion #Codificación #IA #Copilot #gpt4 #gpt4o #gemini #herramientas #programacion #code #Gratis #DesarrolloWeb #desarrollo #tecnología #tutorial #fyp

Опубликовано:

 

29 авг 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 104   
@LuisMarin-eb9dj
@LuisMarin-eb9dj 2 месяца назад
Un tutorial sobre cómo crear un modelo propio a partir de un modelo existente, con la posibilidad de mejorar el modelo mediante la incorporación de más información, sería genial.
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muchas gracias por la sugerencia, lo voy a tener muy en cuenta. Gracias por el apoyo!
@crisuar1989
@crisuar1989 2 месяца назад
@@Conciencia_Artificial Creo que nuestro amigo se refiere a como entrenar a un modelo ya existente con datos propios. Sería muy interesante uin video sobre ello!
@LuisMarin-eb9dj
@LuisMarin-eb9dj 2 месяца назад
@@crisuar1989 Correcto !!
@estebanmgn
@estebanmgn 2 месяца назад
El vídeo para usarlo como copilot!! Genial!! Gracias alto video
@gonzalooviedo5435
@gonzalooviedo5435 2 месяца назад
Ahi se las manda, 1 millon de visitas!.
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Ya se está realizando, muchas gracias por el apoyo!
@JuanPabloTroconisRedondo
@JuanPabloTroconisRedondo 2 месяца назад
Por favor el video para utilizarlo como Copilot gracias, Sos increible.🤗
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Claro! El día lunes a más tardar ya lo estaré compartiendo por aquí! 👋
@willantomassotochamorro
@willantomassotochamorro 2 месяца назад
Excelente vídeo. Espero que se haga un vídeo de como importarlo al editor de código🤗
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muchas gracias por tu apoyo! 👋
@dcloki789
@dcloki789 2 месяца назад
como siempre un excelente contenido y bien explicado, gracias 👍
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muchas gracias por comentar y apoyar todo el contenido! 👋
@y_thedreamer95
@y_thedreamer95 2 месяца назад
Enséñanos como añadirlo a copilot, muchas gracias!!
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
¡Con gusto! Gracias a ti por comentar
@miguelamed18
@miguelamed18 2 месяца назад
Información importante y muy reelevante, lo que no me gusta es que su versión completa es más lenta y se asemeja a chatgpt, y si me gustaria que hicieras un video haciendo a github copilot.... gracias
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Si, lamentablemente las versiones más pesadas se vuelven más lentas, el futuro es que las comiencen hacer más pequeñas manteniendo/mejorando el rendimiento y la “inteligencia” de estos modelos
@alfredolopez6937
@alfredolopez6937 2 месяца назад
Excelente vídeo. Espero que se haga un vídeo de como importarlo al editor de código.
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muchas gracias por comentar y por el apoyo, ya se está preparando el video. Saludos!
@YorlyDC
@YorlyDC 2 месяца назад
Interesante lo probaré
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
¡Muchas gracias por comentar! Saludos 👋
@LuisSanteliz
@LuisSanteliz Месяц назад
si, porfafor haz un video de como usarlo como copilot, gracias!! excelente video
@Conciencia_Artificial
@Conciencia_Artificial Месяц назад
Hola, muchas gracias por el apoyo, ya fue realizado y publicado el video, te lo comparto: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.html
@jorchyr
@jorchyr 2 месяца назад
quiero un video para usarlo de forma local y de copilot!
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
¡Ya se encuentra publicado el video! ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.html Muchas gracias por comentar y disculpa la demora.
@jrep41
@jrep41 2 месяца назад
Sí, por favor, supongo que sería algo con Ollama y la extensión Continue para Visual Studio Code
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Si, aunque hay otras formas de implementarlo y también estoy considerando mostrar mediante API por si alguien quiere pagarlo, ya que es de los más económicos, está casi 10 veces más barato que Claude 3 opus, GPT-4, GPT-4 turbo y Gemini 1.5 pro
@edgard.cortes2758
@edgard.cortes2758 2 месяца назад
Si el video para implementarlo en Vscode seria genial
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muchas gracias por tu comentario, ya se encuentra disponible por si gustas verlo: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.htmlsi=MdmGSShLI1T_G2P4
@maurotejada6307
@maurotejada6307 2 месяца назад
El vídeo para usarlo como copilot!!
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Ya se encuentra publicado, te lo comparto para que lo veas: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.html Gracias por comentar!
@crisuar1989
@crisuar1989 2 месяца назад
Excelente estimado, son muy valiosos sus aportes. Ya me suscribí al canal!
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Te lo agradezco mucho, y que bueno que te resulten útiles los videos 👋
@SirDEV616
@SirDEV616 2 месяца назад
Es.... Fascinante!
@fernandocepeda4749
@fernandocepeda4749 2 месяца назад
Por favor el video para utilizarlo como Copilot de autocompletado gracias 👍
@miguelantonioromeromontoya5056
@miguelantonioromeromontoya5056 2 месяца назад
Siii por favor tutorial tutorial tutorial
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Gracias!! 👋
@p4u1ro13
@p4u1ro13 2 месяца назад
Sería excelente maestra añadir los requerimientos mínimos de hardware para poder usar cada modelo que se informe al canal, saludos
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Es una muy buena recomendación, lo tendré muy en cuenta para futuros videos, ¡muchas gracias por comentar y apoyar el contenido!
@andresflg
@andresflg 2 месяца назад
Si porfaaaaaaaaa Con visual studiooo code, y si lo haces con el visual studio (el morado) te estaré eternamente agradecido!!!
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Ya se encuentra publicado el video por si te interesa verlo con vs code: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.html Sobre usarlo con Visual Studio (el morado), aún no existe el plugin ahí, pero se los han estado solicitando mucho a sus creadores y mencionaron que en un futuro podría tener una versión, pero parece que podrá tardar un poco más, te comparto una URL de la discusión de GitHub donde lo han estado solicitando: github.com/continuedev/continue/issues/759
@andresflg
@andresflg 2 месяца назад
@@Conciencia_Artificial graciassss
@sergiocorrales9059
@sergiocorrales9059 2 месяца назад
Muy interesante, seria genial poder utilizarlo como una API localmente que interactúe con nuestro código
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muchas gracias por la sugerencia, lo tendré en cuenta para el siguiente video. Saludos! 👋
@LegionDelFutbol
@LegionDelFutbol 2 месяца назад
Que más quiere? Que te pague también por usarlo? Y que te regalen ropa o comida?
@pupyrepetto
@pupyrepetto 2 месяца назад
Hace el video para usarlo localmente
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Ya se está realizando! Gracias por apoyar el contenido ✌️
@jennderramos322
@jennderramos322 2 месяца назад
Es un modelo impresionante, pero más impresionante aún es que sea libre 😮 ¿Entre este (el lite) y codeqwen:7b cual ves mejor para implementar en VS Code? 🤔 Gracias por toda la info que nos traes. Es impresionante lo rápido que eres para traernos cada noticia
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muy buena pregunta, me parece que podrías implementar ambos, creo que CodeQwen puedes utilizarlo para el autocompletado de código y Deepseek Coder 2 lite para tenerlo como asistente de chat. Realmente ambos son muy buenos, y faltan más pruebas para ver cuál es mejor entre estos 2, pero CodeQwen sigue siendo una excelente opción. Sobre traer nuevas noticias y herramientas, si me lleva algo de tiempo porque realizo una investigación profunda, pero muchas gracias por tu comentario, eso me motiva a seguir creando contenido de calidad. Saludos!👋
@EscuchaUnLibro
@EscuchaUnLibro Месяц назад
@matiaszulberti9996
@matiaszulberti9996 2 месяца назад
Hola, puedo correr estos tipos de modelos localmente con 16GB de Ram, un I5 y una gráfica de 4GB? GRACIAS! Muy buen video!
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Si, de echo probé el modelo de 16B en una computadora con un Ryzen 5 5600g y 16gb de ram (sin gpu, solo con los gráficos integrados) y si funcionó bien. Lo más probable es que en tu equipo también funcione bastante bien 👍
@ilvxor
@ilvxor 2 месяца назад
Es posible usarlo como una API? Por ejemplo hacer solicitar desde mi celular, y una laptop o raspberry en local recibir las solicitudes ??
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Si, puede ser de dos formas, uno instalando el modelo local, por ejemplo, puedes utilizar Ollama, y este programa te brinda una URL para acceder a los modelos que vayas descargando en tu equipo, la URL por default de Ollama es 127.0.0.1:11434. La segunda opción es mediante su API oficial, pero debes pagar para acceder, por primera vez puedo recomendar que, si vale la pena pagar, ya que es un modelo muy potente y casi 100 veces más barato que Claude 3 opus y GPT-4. Acabo de publicar un video donde muestro como instalarlo con Ollama y también como obtener su API, y en ambas opciones enseño como configurarlas como nuestro GitHub Copilot (por si te interesa) ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.htmlsi=vSOS1DSWGS5lqGOK ¡Gracias por comentar y apoyar el contenido! Cualquier pregunta o duda que tengas aquí estoy para apoyarte.
@jorgeabelburgosquezada2065
@jorgeabelburgosquezada2065 2 месяца назад
Muy bien… pero mi pregunta es, este modelo puede leer un archivo que le proporcione para que pueda analizar el código y me de soluciones como lo hace ChatGPT4??
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Si, lo acabo de probar tanto de forma local como mediante su API y si logro responder algunas preguntas en base a un PDF que le compartí. Si te interesa probarlo de forma local o ver el funcionamiento mediante su API (que es demasiado económica, casi 100 veces más barata que Claude 3 Opus y GPT-4) te invito a que veas nuestro video más reciente: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.html
@eldergiron5862
@eldergiron5862 2 месяца назад
Será gratuito siempre o después solicitarán un pago por Suscripción
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Realmente no mencionan nada específico sobre dicha información, pero me imagino que lo van a dejar gratis un buen tiempo, ya que es un modelo muy barato (para usarse mediante su API). O quizá siempre lo dejen gratis y pongan algunos límites de uso como ChatGPT en su versión gratis y Claude. Hay que aprovecharlo mientras siga gratuita 👌👍
@kevink1xwl
@kevink1xwl 2 месяца назад
hola, cual recomendarias para uso local , 4070ti super? gracias
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Chulada de GPU 👌, yo tengo una 4070 con 12 de vram, y el modelo de 16B de DeepSeek Coder V2 jala bastante bien para generación de código y cómo autocompletado, te recomiendo que utilices este modelo, es bastante bueno 👌, también hay un modelo más chico CodeQwen, para autocompletado podría ser una excelente opción Acabo de subir un video donde muestro cómo utilizar el modelo de forma local por si quieres echarle un vistazo: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.htmlsi=t68HECWROgna4RvB Gracias por comentar y apoyar el contenido!
@EricNahuelJurio
@EricNahuelJurio 2 месяца назад
Muy interesante. Me gustaría ver como integrarlo en sublimetext
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
No estoy seguro si en sublime text se puede, ya que se utiliza extensiones de terceros que vienen en el market de visual studio code y Cursor. Y tiene mucho años que no toco sublime, no sé si maneja extensiones así también. Pero voy a revisarlo, gracias por tu comentario!
@TheEltictacdicta
@TheEltictacdicta 2 месяца назад
Me encantaria poder usar como Copilot este modelo desde Api y que pueda tener autocompletado de codigo. ❤❤
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Gracias por comentar, si también tengo pensando en mostrar cómo utilizarlo a través de su API oficial, igual los precios que manejan son los más bajos que he visto por millón de tokens, por lo que puede resultar muy útil para personas que busquen otras opciones.
@gabrielherz2781
@gabrielherz2781 2 месяца назад
cuando dice que es compatible con la API de open ai significa que es compatible con la semántica y son los mismos llamados y todo?
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Se refiere a que es compatible con OpenAI al llamar/invocar el modelo, mira te comparto su documentación oficial donde mencionan específicamente y dan un ejemplo de la compatibilidad: platform.deepseek.com/api-docs/ ¡Muchas gracias por comentar y apoyar el contenido!
@gabrielherz2781
@gabrielherz2781 2 месяца назад
@@Conciencia_Artificial gracias, creo que aparece en el github pero no vi el link directo, lo vi muy por encima por falta de tiempo. Muchas gracias!
@jossejosse952
@jossejosse952 2 месяца назад
Gracias por el video, de todos los modelos open source de pocos billones de parámetros, cual crees que es el mejor? Yo he probado llama 3 8b, qwen 2 7b, mistral 0.3v 7b, yi, y me quedo de calle el llama 3 8b.
@jossejosse952
@jossejosse952 2 месяца назад
Que conste que no me refiero en código, me refiero en raciocinio y logica.
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muy buena pregunta, pues dependerá realmente de tus necesidades, CodeQwen 7B es considerado el mejor para codificación (de los chicos), Llama 3 8B obtienes muy buenos resultados en usos generales. Me parece que, de los modelos considerados chicos para poder correrlos de forma local y con mejores resultados para uso general, Llama 3 8B si está posicionado dentro de los mejores. Estaría muy interesante poder realizar unas pruebas para comprobar rendimiento y calidad de respuestas. Ojalá pueda realizar en un futuro una comparativa y traerla al canal.
@jossejosse952
@jossejosse952 2 месяца назад
@@Conciencia_Artificial la verdad es que si hicieses un video sobre esto, estaría muy bien, también como recomendación te pediría que probaras el programa anything llm, puedes vincularlo con lm studio y ollama, gpt, Claude... hacer rag con pdfs, doc, txt... incluso agentes de gpt, para mi si no fuese porque lm studio está mejor optimizado, sería perfecto, lo recomiendo, gracias de nuevo por el vídeo.
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
@@jossejosse952 muchas gracias por la recomendación!, voy a revisarlo y si puedo realizaré también un video después de analizarlo. Gracias a ti por seguir comentando y apoyando este pequeño canal. ¡Saludos!
@xmagcx1
@xmagcx1 2 месяца назад
tutorial por favor como usarlo en vscode
@raulparra93
@raulparra93 2 месяца назад
Sería excelente un modelo deepseek copilot mejor q copilot
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
muchas gracias por tu comentario y por apoyar el contenido!
@kkvaca997
@kkvaca997 2 месяца назад
Los billones en inglés son mil millones en español uU'
@fabianortiz5946
@fabianortiz5946 2 месяца назад
cree el video como usarlo como copilot
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Ya está apuntando en la lista para próximos videos. Gracias por tu comentario!
@niskeletordeoscuridad2847
@niskeletordeoscuridad2847 2 месяца назад
Pues aquí está el comentario de solicitando un mini tuto para integrarlo como copilot! :D
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
gracias por comentar! lo apuntamos para el próximo video
@MaicollQuintero
@MaicollQuintero 2 месяца назад
enseñame como instalarlo como copilot gracias
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Lo anotaré para el próximo video, gracias por tu comentario!
@DrayNoR1
@DrayNoR1 2 месяца назад
No supera a gpt-4o pero dices en el titulo que sí xd
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Supera a GPT-4o solo en la prueba de Code Fixing en Aider, aunque solo es en una prueba si lo llega a superar, en todo lo demás sigue siendo superior GPT-4o. El único que ya supera en todo a GPT-4o es Claude 3.5 Sonnet. Aunque no creo que tarde mucho OpenAI en sacar algo mejor jaja Gracias por comentar! 👋
@DrayNoR1
@DrayNoR1 2 месяца назад
@@Conciencia_Artificial Ah bueno eso si. Y si concuerdo, openai inevitablemente siempre tendrá la delantera
@federicogonzalez2940
@federicogonzalez2940 2 месяца назад
claude 3.5 sonnet barre al piso contra deepseek
@Conciencia_Artificial
@Conciencia_Artificial Месяц назад
Eso si, pero que deepseek tenga un excelente rendimiento y sea open source es una excelente alternativa para muchas personas y proyectos 👌
@ivekmartinez
@ivekmartinez 2 месяца назад
Todo supera a chatgpt 4o en papel pero en práctica en el día día ninguno se acerca
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Ya ha sido superado el día de ayer por Claude 3.5 Sonnet. En nuestro video mostramos la comparativa y pruebas con el nuevo modelo, y ahora si le quitaron el puesto del rey a GPT-4o, aunque lo más seguro es que la próxima semana OpenAI saque algo mejor jaja Te comparto el video por si gustas verlo: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-jUG_dPaJEtw.html
@tomtanque
@tomtanque 2 месяца назад
es raro pero a mi me contesta en chino y ya puedo decir lo que quiera que me responde en chino
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Lo descargaste con ollama verdad? Lo menciono porque si notificaron que había un problema con una plantilla de ollama y hacía que siempre respondiera en Chino, ya fue corregido, solo actualiza ollama y actualiza el modelo con el comando ollama pull [nombre del modelo] Y ya debería corregirse todos los problemas
@tomtanque
@tomtanque 2 месяца назад
Muchas gracias lo intentaré ver si se soluciona
@fasteteg
@fasteteg 2 месяца назад
Copilot
@Sparksx
@Sparksx 2 месяца назад
Seria bueno el video de como añadirlo a copilot 🫣
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Ya se encuentra el video publicado, por si gustas verlo: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.html ¡Muchas gracias por comentar y apoyar el contenido!
@AaronCamposMiranda
@AaronCamposMiranda 2 месяца назад
¿Es posible utilizarlo como copilot con API para no usarlo localmente?
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Si, también estoy considerando mostrarlo en el próximo video, ya que el precio de su uso es muchísimo más barato a comparación de los otros modelos.
@AaronCamposMiranda
@AaronCamposMiranda 2 месяца назад
@@Conciencia_Artificial increíble, y tiene un uso gratuito? Como codestral
@vicmandev
@vicmandev 2 месяца назад
​@@Conciencia_Artificial cuando hablas de precio, qué se paga si es gratis?
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
@@vicmandevhola, puedes descargar el modelo gratis y usarlo de forma ilimitada en tu equipo, solo que usará los recursos de tu computadora. Lo que mencionó de precio es que hay muchas personas que tienen equipos muy antiguos y/o prefieren utilizar el modelo mediante un API, y a esta última opción me refiero que es mucho más barato que todos.
@LuisMarin-eb9dj
@LuisMarin-eb9dj 2 месяца назад
Un tutorial sobre cómo crear un modelo propio a partir de un modelo existente, con la posibilidad de mejorar el modelo mediante la incorporación de más información, sería genial.
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
Muchas gracias por la sugerencia, si me han comentado algo similar, aunque no lo tengo en próximos videos cercanos voy a ir revisando cuál sería la mejor opción para realizarlo. Gracias por el apoyo!
@soto036
@soto036 2 месяца назад
quiero un video para usarlo de forma local y de copilot!
@Conciencia_Artificial
@Conciencia_Artificial 2 месяца назад
¡Gracias por comentar! Ya se encuentra publicado el nuevo video para configurarlo como Copilot: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-KFEVDOXOQpE.html
Далее
Intenté contratar un junior y... tenemos que hablar.
7:23