Тёмный

Microsoft (Phi3) humilla a Meta (Llama3) en solo 3 dias  

Radient
Подписаться 2,2 тыс.
Просмотров 22 тыс.
50% 1

Minutos:
00:00 Intro
00:46 Unsloth AI
01:30 Boston Dynamics Atlas
02:17 Stable Diffusion 3 API
03:16 VASA 1
05:07 Meta VR
05:55 IDM-VTON
06:46 Llama 3 y mucho más
14:20 Phi 3
15:30 Fine Web
17:33 Preguntas y respuestas
23:07 Correr Llama3 Phi3 y otros modelos en tu PC
Gracias por ver, suscribanse y siganme en Twitter.

Наука

Опубликовано:

 

31 май 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 137   
@LuisMiguelBedoyaGomez
@LuisMiguelBedoyaGomez Месяц назад
Se ganó un suscriptor desde Colombia. No entiendo la mayor parte de lo que dice, pero sé que siguiendo sus videos lo haré. Saludos.
@RadientAI
@RadientAI Месяц назад
Saludos hasta Colombia! Si hay algo que no entiendes por mas que lo busques ponlo en los comentarios y lo aclaramos.
@Diego_UG
@Diego_UG Месяц назад
Hoy youtube me recomendó tu canal en el timeline, y quede impresionado, que excelente contenido, me sumo a tu lista de subscriptores y te mando saludos desde Colombia, gracias y te estaré viendo.
@RadientAI
@RadientAI Месяц назад
Gracias!
@kalokoroteke
@kalokoroteke 29 дней назад
Increible video, cuanto material. Muchas gracias!
@RadientAI
@RadientAI 28 дней назад
Gracias a ti!
@Maisonier
@Maisonier 26 дней назад
Buen resumen de noticias de IA, like, suscribir y compartir.
@RadientAI
@RadientAI 26 дней назад
Gracias!
@jeanpiergaray8406
@jeanpiergaray8406 Месяц назад
Que buen contenido Sigue así hermano, saludos
@fernandomgarin
@fernandomgarin Месяц назад
Muy bueno el video. Gracias.
@RadientAI
@RadientAI Месяц назад
Gracias a ti!
@El_Vitas
@El_Vitas Месяц назад
Se nota que le metes mucho cariño a los videos, espero que este canal crezca mucho. Saludos bro
@RadientAI
@RadientAI Месяц назад
Gracias!
@20XXGrowth
@20XXGrowth Месяц назад
Que bien encontrar información cómo esta🎉
@oscarescalante4148
@oscarescalante4148 Месяц назад
Saludos desde 🇵🇪
@RadientAI
@RadientAI Месяц назад
Saludos!
@fernandodiaz8231
@fernandodiaz8231 Месяц назад
Interesantes las novedades que publicas. Primera vez que veo tu canal. ¿Para cuando crees que VASA 1 estará disponible para el público en general?
@RadientAI
@RadientAI Месяц назад
Respuesta en el video de hoy.
@jerynieve6656
@jerynieve6656 Месяц назад
Buen video bro. La verdad, Phi-3 es como cuando nace un bebe muerto, jejejejeje. Llama-3 70B, esta a un nivel de lo mas grandes.
@claudiov5554
@claudiov5554 Месяц назад
parece que no viste el video dice que PHI-3 fue lanzado ayer y yá supero a LLAMA 3
@jerynieve6656
@jerynieve6656 Месяц назад
@@claudiov5554 Bueno bro, a eso me refiero, no supera a Llama3, ya hay pruebas.
@claudiov5554
@claudiov5554 Месяц назад
@@jerynieve6656 este video dice que lo supera
@germancruz6618
@germancruz6618 Месяц назад
¿Cuál es el modelo LLM más potente hasta ahora? Será Opus de Claude 3 ?
@audiorelatos8990
@audiorelatos8990 Месяц назад
Exacto, es un título muy sensacionalista
@user-hw1jo9jd1j
@user-hw1jo9jd1j Месяц назад
Exelente video
@Batagliap1
@Batagliap1 Месяц назад
Nuevo suscriptor !! Excelente contenido🎉
@drfcozapata
@drfcozapata Месяц назад
BRUTAL!!! Soy desarrollador web (yo también trabajo desde Ubuntu 24.04) y es mi primer contacto con este tipo de información. No entendí muchas cosas 😁(quedo clarísimo en que este es un mundo aparte sobre el que tendría que estudiar mucho), pero sí me quedó bien claro que puedo sacar provecho de todo los desarrollos que se están haciendo en AI para mi profesión. Así que comienzo a probar LM Studio a ver qué tal me va. Muchísimas gracias por hacer todo este conocimiento accesible de forma gratuita. Tienes un nuevo suscritor y seguidor. Fuerte abrazo y bendiciones desde Venezuela. PS: aprovecho para preguntar... ¿Qué aplicación es esa que usas para ver la información del sistema en la barra (tray)?
@RadientAI
@RadientAI Месяц назад
Si, es todo un mundo 🌍. Uso un programa llamado System Load Indicator version 0.4. Saludos hasta Venezuela!
@alejandrosanchez1740
@alejandrosanchez1740 20 дней назад
Excelente canal q acabo de descubrir
@RadientAI
@RadientAI 20 дней назад
Gracias. 🫂
@javier.vallejos
@javier.vallejos Месяц назад
Excelente video! me parece genial que puedas resopnder preguntas de videos anteriores, iré a ver lo que tienes en tu canal, pero si quiero dejar una pregunta, existe algún software que permita pasarle a algún LLM cualquier tipo de archivo? (xml, html, bat, py, dyn, csv, xlsx, ppt, pdf, txt, etc) y hacer análisis sobre él tipo GPT-4 (la versión de pago)?
@RadientAI
@RadientAI Месяц назад
Si, hay frameworks que te permiten hacer esto, prueba con langchain. Pd. Gracias, un saludo!
@malekfeki
@malekfeki Месяц назад
Gracias por haber contestado mis preguntas, voy a instalar Phi3 a ver qué tal, excelente contenido como siempre
@RadientAI
@RadientAI Месяц назад
Dale!
@Gerxen
@Gerxen Месяц назад
Buena información compañero, se le agradece el video!
@pw4645
@pw4645 Месяц назад
Podrias explicar a que se refieren las siglas o letras que estas contenidas en los nombres de los modelos que tu al ver el nombre del modelo ya sabes que contiene? Me refiero a por ejemplo GGUF, o ONNX, Instruct, etc. Gracias amigo.
@RadientAI
@RadientAI Месяц назад
Apuntado, respondere esas tres nomenclaturas en el siguiente video. Y quizas pronto un video con toda la jerga de los LLMs. Gracias a ti!
@pw4645
@pw4645 Месяц назад
@@RadientAI Super bien 👍👍, quedo atento a ese video, Gracias amigo!!!
@Termonia
@Termonia 26 дней назад
Me recomendaron este vídeo! like y suscribir. Pregunta para el próximo vídeo: ¿Por qué la mayoría de los tutoriales y la comunidad en gral. usa más Ollama que LMStudio? entiendo que por licencias sea una cosa, pero para el uso de hoy en día, "hogareño", sin implementación, cuál es el objetivo? si en LMStudio se puede hacer todo lo mismo y es todo interfaz gráfica, con 2 clicks y sin 1 comando, hasta para poner varios modelos en paralelo en un servidor. A esto se le puede conectar algún otro software como Anything LLM (que también es gratis y en Windows con 2 clicks se instala todo solo y lo único que hay que hacer es configurar la ip del servidor).
@RadientAI
@RadientAI 26 дней назад
No lo se, yo creia que LMStudio era mas popular por las razones que expones.
@nikoarredon3732
@nikoarredon3732 Месяц назад
Buen video amigo. Gracias por la info
@geekrojo
@geekrojo Месяц назад
Saludos, que modelos tienen soporte para las Intel ARC? gracias.
@RadientAI
@RadientAI Месяц назад
La verdad no lo sé, no las he usado nunca ni recuerdo a alguien que me haya hablado de su experiencia con esas GPUs.
@espaciomaker
@espaciomaker Месяц назад
Que excelente, gracias por todo ese trabajo
@ramspartan117
@ramspartan117 12 дней назад
Te pareces a un compañero de CUCEI jajaja que buenos tiempos.
@RadientAI
@RadientAI 12 дней назад
👀
@jonathanantoni5779
@jonathanantoni5779 Месяц назад
Suscriptor numero 605
@RadientAI
@RadientAI Месяц назад
Quien sera el 666?
@ssc00ercer32
@ssc00ercer32 Месяц назад
te ganaste un sub por hablar de ai
@noteultra4209
@noteultra4209 Месяц назад
En resumen, si buscas un modelo con una arquitectura innovadora que pueda especializarse en tareas específicas, Llama-3 podría ser la mejor opción. Por otro lado, si prefieres un modelo que sea eficiente y compacto para desplegar en dispositivos con recursos limitados, Phi-3 podría ser más adecuado. Ambos modelos representan avances significativos en el desarrollo de modelos de lenguaje compactos y eficientes.
@roman_ramos
@roman_ramos Месяц назад
Excelente. Tienes nuevo suscriptor
@diegomoreno5599
@diegomoreno5599 Месяц назад
amazing content!!!! keep it up!
@ambigus7
@ambigus7 Месяц назад
suscrito!
@alvarovinatea6532
@alvarovinatea6532 Месяц назад
Holaaa, gracias por tu contenido, me gustaría hacerte una consulta, qué me recomiendas si estoy planeando crear plataforma que será básicamente un Agente GPT enfocado en el área legal. Ahora que salió llama3 estoy intentando conectar llama3 a google collab para posteriormente correr google collab en una web. Me podrías recomendar o sugerir algo por favor. Gracias de antemano
@RadientAI
@RadientAI Месяц назад
Mi sugerencia es que uses tecnicas de RAG y/o finetunees el modelo en la legislacion de tu region para que funcione mejor.
@sebastianarce4268
@sebastianarce4268 Месяц назад
Si tuviera un par de GPUs, que soft o como podría usarlas como si fueran un recurso externo?, por decir ollama se conecte por red y utilice esas gpu
@RadientAI
@RadientAI Месяц назад
Te refieres a armar un servidor con un modelo que corra en las GPUs y otros usuarios se conecten y lo usen? Si es así, hay varios repos de inferencía, yo usé el text-generation-inference en su momento, pero creo que lo hicieron de pago luego, forkea una versión antigua en caso de que no encuentres mejores.
@DanielNuske
@DanielNuske Месяц назад
soy tu fan!! que crack!!
@RadientAI
@RadientAI Месяц назад
Me pareces conocido, pero no creo, he de estar confundiendome de persona. 🤔
@gnostman1
@gnostman1 Месяц назад
Hola amigo te acabo de conecer veo que tienes mucho conocimiento en data science, mi pregunta es puedo aprender data science sin saber python o cualquier otro lenguaje_?
@RadientAI
@RadientAI Месяц назад
Te diria que no, pero principalmente porque no conozco las alternativas no-code para los data scientist, puede que haya otras herramientas que te hagan el apanio. Aun asi te invito a aprender, no necesitas ser un experto coder, con ayuda de chatgpt y sus equivalentes puedes apalancarte en tu aprendizaje y trabajo.
@RelatosdeRiqueza
@RelatosdeRiqueza Месяц назад
Estoy intrigado con la estrategia de monetización de Stable Diffusion 3 a través de su API. ¿Creen que esta decisión les ayudará a superar sus problemas financieros?
@danielfacelli
@danielfacelli Месяц назад
buenas, muy buen video. me gustaría saber qué modelo y de qué forma puedo configurar un servidor con 16gb de ram - i3, con un llm que pueda consultar vía API REST. imagino que podría ser Phi3 que es una versión mas pequeña... actualmente probé con llama3 de 7B pero sigue siendo lento. Saludos desde Uruguay!
@RadientAI
@RadientAI Месяц назад
Saludos, respondido en el video de hoy!
@OscarHincapieMahechaGafo
@OscarHincapieMahechaGafo Месяц назад
palante parce, buena esa!
@esarmiento7
@esarmiento7 Месяц назад
Hay alguna api de IA que se pueda usar sin dar numeros de tarjetas de credito etc.? Saludos
@RadientAI
@RadientAI Месяц назад
Respondido!
@patrickrios99
@patrickrios99 Месяц назад
genial
@CristianOrihuelaTorres
@CristianOrihuelaTorres Месяц назад
excelente contenido, nuevo sub
@blacklion1108
@blacklion1108 Месяц назад
O como puedo entrenar una ia para responder esactamente
@ksk5058
@ksk5058 26 дней назад
éste pibe sapeee!
@RadientAI
@RadientAI 26 дней назад
Sapeeeeee!
@Daesmotor
@Daesmotor Месяц назад
me recomiendas un modelo phi 3 sin censura 4Gb
@RadientAI
@RadientAI Месяц назад
Creo que no hay todavía, pero te puse alternativas en la descripción del video de hoy!
@penta12345
@penta12345 Месяц назад
Hola, quiero un modelo que me ayude en Microbiologia, en este caso en la lectura interpretada del antibiograma, me gustaria incluirlo en el diseño de un equipo medico para este objetivo, debe correr en una MimiPC Asus Core i3 de 10ma Generacion con 8Giga Ram.. quiero que corra de forma local.. ¿Es posible? ¿Si es posible como?
@RadientAI
@RadientAI Месяц назад
Me da la sensacion que vas a necesitar finetunear uno pero lo checkeo en detalle para la proxima.
@blacklion1108
@blacklion1108 Месяц назад
Puedes decirme cómo encontrar una inteligencia artificial que me ayude con quiz a responder preguntas de manera esacta preguntas tipo selección múltiple con unica respuesta gracias te agradecería mucho este si me puedes ayudar
@RadientAI
@RadientAI Месяц назад
Los LLMs modelan distribuciones de probabilidades, es algo complicado hacer que sean exactos. 🤔
@salvadorx1
@salvadorx1 Месяц назад
Eso aún no lo puede hacer una IA, AÚN.
@enriquealejandrocancun
@enriquealejandrocancun Месяц назад
nuevo suscriptor. sólo una observación. La pregunta en mi opinión debería ser: ¿Qué pesa más, un kilogramo de plumas o medio kilogramo de plomo? A parte la respuesta que dió el modelo fué a la pregunta qué pesa menos y tu pregunta era qué pesa más no menos.
@RadientAI
@RadientAI Месяц назад
Cierto. 🤔
@inteligenciafutura
@inteligenciafutura Месяц назад
Sabes cómo puedo comunicarme vía API?
@contentfreeGPT5-py6uv
@contentfreeGPT5-py6uv Месяц назад
Igual manasi
@RadientAI
@RadientAI Месяц назад
Comunicarte con que o con quien?
@inteligenciafutura
@inteligenciafutura Месяц назад
@@RadientAI ya lo logré, vía API
@IvanCoronel5
@IvanCoronel5 Месяц назад
a seguir disfrutantando de esta revolucioón!
@RadientAI
@RadientAI Месяц назад
Tal cual.
@OrlandoNuske
@OrlandoNuske Месяц назад
oye no es pregunta pero te vi luchando para escribir el nombre del fichero en consola y con TAB te lo autocompleta, una humilde colaboracion ;) y de paso me suscribo
@RadientAI
@RadientAI Месяц назад
En serio? Nooooo puede ser, llevo años usando la consola y no sabía de eso, el tiempo que me hubiese ahorrado, gracias!
@yordyfelixnt6317
@yordyfelixnt6317 Месяц назад
nuevo sub
@neoemprendedor5115
@neoemprendedor5115 Месяц назад
Como estas en X?
@RadientAI
@RadientAI Месяц назад
@kadirtorrico Mándame un mensaje por allí!
@gonzalobruna7154
@gonzalobruna7154 Месяц назад
En mis propias pruebas, llama 3 fue bastante mejor que phi 3
@RadientAI
@RadientAI Месяц назад
Llama3-70b si es muchisimo mejor de leeeejos. Llama3-8b va por ahi.
@mundy4135
@mundy4135 Месяц назад
Phi3 no sirve pa mierda, está súper drogada esa IA
@paelnever
@paelnever Месяц назад
Hace falta ser muy fanboy de mocosoft para poner este titulo al video. Phi-3 ni siquiera esta entre los 50 primeros del chatbot arena y llama-3 esta el cuarto. Los benchmarks se pueden falsear pero el desempeño final es lo que cuenta. Por cierto lm studio a menudo se equivoca con si puedes correr el modelo en tu gráfica. Otro problema es que el servidor integrado que tiene no funciona bien y las aplicaciones de agentes no detectan el endpoint.
@akhathos1618
@akhathos1618 28 дней назад
Gran vídeo, sin embargo, he probado Phi 3 mini en local y es una absoluta basura inservible. En cambio Llama 3 7B es increíblemente potente, claro y preciso, algo sorprendente teniendo en cuenta que es la versión 7B!.
@RadientAI
@RadientAI 27 дней назад
Wow, entonces esperemos por Phi3 small, a ver si ese si le planta cara a LLama 3 7b!
@GibGiab-gc7qm
@GibGiab-gc7qm Месяц назад
Me sumo Sub mas Italiano en peru
@RadientAI
@RadientAI Месяц назад
Saludos!
@felipevalles3831
@felipevalles3831 Месяц назад
Hey te la rifas amigo, oye cuál es la capacidad de tu PC o laptop
@RadientAI
@RadientAI Месяц назад
Gracias, es lo basico para codear: ryzen 5600G, Ram 16gb, ssd 500GB, sata 1Tb y externo 2Tb.
@dark-taku7937
@dark-taku7937 Месяц назад
Phi3??? Y que pasa con copilot???
@RadientAI
@RadientAI Месяц назад
Copilot? El de github creo que usa alguna version destilada de GPT-4.
@over9332
@over9332 Месяц назад
Bueno comparar Phi-3 con llama 3 no tiene mucho sentido, aunque entiendo el titulo para rascar un par de visitas
@RadientAI
@RadientAI Месяц назад
Phi-3 mini contra Llama3-8b tiene sentido para ver que tan bueno puede ser un modelo de la mitad de tamanio. Pero Phi-3 mini contra Llama3-70b tal como dices no tiene sentido. Ya son escalas muy diferentes.
@over9332
@over9332 Месяц назад
@@RadientAI En lo que me referia es que no estan entrenados con la misma cantidad de Parametros ni con los mismos parametros, mientras que phi-3 mini lo entrenaron con alrededor de 8b de parametros bien estructurados a llama3 8b lo entrenaron con 15T de parametros, de todos modos no es hate al video estuvo muy bueno de hecho me suscribi por que me parecio muy bueno el contenido, solo que no estuve deacuerdo con el titulo del mismo
@mundy4135
@mundy4135 Месяц назад
Esta re CHIFLADA la AI Phi3, le pregunte de que colores son la bandera de BOCA JR, y dale que dale que es Blanca y Roja y esos son los colores de su rival River Plate, jajajaja y los colores de River son el azul y amarillo que son los de Boca, Phi3 tiene todos los cables cruzados, no se con que carajo entrenaron a esa cosa.
@RadientAI
@RadientAI Месяц назад
Es que Boca es un equipo chico y por eso no lo conoce. Naaa mentira, jaja. Lo puse a prueba y es cierto. Hay que tomar en cuenta que los modelos pequenios almacenan menos informacion, y muchos datos que pueden estar dentro del dataset quedan fuera de su conocimiento o quedan medio olvidados porque no estan dentro del area de precision que quieren maximizar.
@gonzalobruna7154
@gonzalobruna7154 Месяц назад
me pasó lo mismo, yo le pregunté a phi3 que si conocía a "meta" (la empresa), y me empezó a hablar de la "metanotación", luego de preguntarle explicitamente por la empresa Meta, me dice "Entiendo que podrías estar buscando información sobre una empresa en particular y cómo se relaciona con conceptos como la metanotación." y yo como WTF, y luego de preguntarle sobre los modelos IA que ha hecho meta, me dijo GPT-3. Tal como tu dices, tiene todos los cables cruzados.
@gonzalobruna7154
@gonzalobruna7154 Месяц назад
Incluso, le dije, me refiero a los modelos "LLama" y me dijo: A continuación, describo algunos miembros destacados de lo que podrías estar pensando al mencionar la familia "Llama": 1. **Microsoft's Phi (llamado así por Meta)** WTF osea realmente está perdidisimo Phi3, nada comparable con llama 3, nisiquiera la versión 8B
@JoseMiguelSanzCatalan
@JoseMiguelSanzCatalan 29 дней назад
Hola hay alguna manera de contactarte por privado, me gustaría hablar contigo sobre un tema, muchas gracias.
@RadientAI
@RadientAI 28 дней назад
Yep, mis DMs siempre estan abiertos en Twitter.
@darkalden
@darkalden Месяц назад
He hecho muchas pruebas con el nuevo modelo de SD3 en sus 2 versiones y a{un tiene problemas con las manos, caras, etc... aunque menos que antes pero a{un siguen. No entiendo cómo lo hacen con Dall-e 3 pero este último, además de hacer bien todo lo anterior, cuando se pide integrar en la imagen varios personajes, es muy fácil entregar una descripción de cada persona y de 10 imágenes, por lo menos 8 salen bien. SD3 lo resuelve con menor exactitud. Cabe mencionar que yo trabajo mucho más con SD que con Dall-e pero dependiendo de qué desarrollo necesito, uso uno u otro. SD es mucho más maleable/adaptable gracias a sus loras, extensiones y un sin fin de otras cosas pero cuando se necesita algo sencillo (como para la mayoría es lo ideal) con SD no se cumple. De todas formas si lograrán lo que se consigue con Dall-e 3, SD sería lo mejor que existe y nadie buscaría otros modelos.
@RadientAI
@RadientAI Месяц назад
Si, Dalle3 sigue muy fielmente los prompts, lo que no me gusta es que las imágenes generadas tienen como un filtro puesto apropósito medio caricaturesco para que se noten que son IA. No sabía de esos problemas del SD3, igual sigue en beta por lo que probablemente lo mejoren. Gracias por compartir tu expertise.
Далее
¿Por qué este número está en todas partes?
22:33
Просмотров 793 тыс.
Попили кофе 😁
00:11
Просмотров 13 тыс.
Big Mouse 😂
00:13
Просмотров 108 тыс.
CONVERTÍ un CELULAR en una PLAYSTATION 5
14:22
Просмотров 61 тыс.
Transforma ChatGPT en AutoGPT con un solo Mensaje
8:18
Lo de iOS 18 HUELE a DESASTRE...
9:30
Просмотров 24 тыс.
Navegadores 2024 ¿Cuál usar? Análisis ACTUALIZADO
18:13
Crea ASÍ tus Prompts de forma Profesional
15:55
Просмотров 18 тыс.
Мой странный компьютер 2024
18:33
Любой звонок в AirPods
0:30
Просмотров 327 тыс.