Тёмный

¿Por qué las GPUs son buenas para la IA? | Data Coffee #12 

Dot CSV
Подписаться 873 тыс.
Просмотров 230 тыс.
50% 1

De la mano de @NVIDIAGeForceES os traigo un vídeo donde responderemos el por qué las GPUs nos aportan un mayor rendimiento que las CPUs cuando entrenamos a nuestros algoritmos de Machine Learning.
💻 Échale un ojo a la campaña de portátiles GeForce en la web de NVidia a través de este link:
Web NVidia : tiny.cc/NVidia-...
-- ¡MÁS DOTCSV! ---
💸 Patreon : / dotcsv
👓 Facebook : / ai.dotcsv
👾 Twitch!!! : / dotcsv
🐥 Twitter : / dotcsv
📸 Instagram : / dotcsv
-- ¡MI TECNOLOGÍA! ---
** Aquí no está toda mi tecnología, sólo aquella que realmente recomiendo. Usando estos links de Amazon yo me llevaré una comisión por tu compra :) **
[Tecnología básica para RU-vid]
💻 Portátil - MSI GP72 7RDX Leopard : amzn.to/2CDwvgY
📸 Cámara - Canon EOS 750D : amzn.to/2CDPqbi
👁‍🗨 Objetivo 1 - EF 50 mm, F/1.8 : amzn.to/2CH7npx
👁‍🗨 Objetivo 2 - EF-S 18-135mm : amzn.to/2DuhL5t
👁‍🗨 Objetivo 3 - EF 24 mm, F/2.8 : amzn.to/2AYAFQm
🎤 Microfono - Blue Yeti Micro : amzn.to/2RItA0I
💡 Foco Luz - Foco LED Neewer : amzn.to/2AYCM6K
🌈 Luz Color - Tira ALED Light : amzn.to/2B2iY2l
[Mis otros cacharros]
📱 Smartphone - Google Pixel 2 XL : amzn.to/2RMuY2v
#NVIDIAStudio #RTXOn #ad

Опубликовано:

 

29 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 528   
@aqueronte4life974
@aqueronte4life974 5 лет назад
Así es como te resumen un año de cursos en la carrera de informática solamente en 15 min, genial video
@martiddy
@martiddy 5 лет назад
Eso es porque en los cursos de informática (como arquitectura de computadores) se enfocan más en la parte práctica que en la teórica. Resolviendo un sin fin de problemas matriciales.
@preyped
@preyped 5 лет назад
@@martiddy Discrepo. Me han inflado a teoría de arquitecturas de computadores y sistemas operativos durante dos años de carrera mal explicado. Si este hombre hubiese sido mi profesor en la carrera otro gallo cantaría
@martiddy
@martiddy 5 лет назад
@@preyped ¿En serio?, con mi profesor fue al contrario. Obviamente siempre tuvimos que tragarnos un montón de materia. Pero el profesor no se molestaba en explicarla y en vez nos daba un montón de libros PDF para leer en casa y en clase solo veíamos la parte práctica.
@19yo98
@19yo98 5 лет назад
+1
@santiagoharica9819
@santiagoharica9819 5 лет назад
15 no 34 minutos
@zoulock
@zoulock 3 года назад
2 años de carrera en un vídeo 👏👏
@fernandoribera3782
@fernandoribera3782 5 лет назад
Genial explicación!! ahora si las puertas lógicas de la ALU hacen todas las operaciones, los Biestables me permiten tener memoria, que tipo de circuito lógico me permite procecesar el conjunto de instrucciones?
@FRANCISCOPEREZ-eh5xs
@FRANCISCOPEREZ-eh5xs 5 лет назад
Hola, siempre he visto tus vídeos pero a pesar de que lo he estudiado mucho aún existe la espinita de lo que es un tensor, podrías explicarlo algún día????? Saludos desde México
@superrush1100
@superrush1100 3 года назад
buenas a todos disculpen estamos con bajos recursos queria consultar porfavor que pc ram y tarjeta de video como minimo para que pueda llevarse la carrera de ingenieria de inteligencia artificial
@jaxonblade1659
@jaxonblade1659 5 лет назад
Disculpa si suena mal pero... Te acabas de marcar una "sacada de chorra" espectacular. -Lenguaje técnico y conciso. -Fluido y dinámico. -Entretenido! (Muy importante). -emocionante y didáctico. Contenido de 10. Todo un "Must See" en el mundo de la informática.
@fraybarretoduque8447
@fraybarretoduque8447 4 года назад
tienes toda la razon, es todo un CAPO y se maneja super bien y te deja todo sencillo.
@ballsxan
@ballsxan Год назад
fon noiman
@fierrero33
@fierrero33 5 лет назад
CSV = Carlos Santana Vega = Computer Science Videos, y yo que pense que era por el tipo de archivo!.
@maibac1
@maibac1 5 лет назад
es lo que quieres que sea en tu corazon!
@cuantocabron12
@cuantocabron12 5 лет назад
y yo pensando que era por el tipo de archivo de excel .csv jajajjajajajja
@ulisesrobles
@ulisesrobles 4 года назад
@@cuantocabron12 csv o "comma separated vector" no es exclusivo de excel. en uno de sus primeros videos explica que el nombre deriva de ese tipo de archivo y casualmente coincide con sus iniciales
@waly6002
@waly6002 4 года назад
Yo también pensaba que el Dot CSV del nombre del canal era por el tipo de archivo! Y pensaba que el .csv era un tipo de archivo de texto del lenguaje de programacion necesario y escrito para poder hacer y programar una Inteligencia Artificial! xD
@jairolopezlon
@jairolopezlon 4 года назад
@@waly6002 de hecho creo que si podria ser, porque "dot" es el punto que se utiliza en las url, o en este caso en el archivo, punto CSV
@DotCSV
@DotCSV 5 лет назад
📸 Si quieres ver más DotCSV sígueme en Instagram : instagram.com/dotcsv/ 💸 ...y apoya el canal en Patreon!!! : www.patreon.com/dotcsv
@PiewLol
@PiewLol 5 лет назад
4:00 "El procesador es el que procesa" Pelado genio arma su propia unidad central de procesamiento
@jesusjerezballesteros7192
@jesusjerezballesteros7192 5 лет назад
Ojalá los profesores de Ingeniería Informática explicaran la mitad de bien que este vídeo, resumiendo más de un curso del grado en solo 20min. Buenísimo vídeo dot!
@Ricardo-hm1dl
@Ricardo-hm1dl 4 года назад
no tiene el mismo dominio, recomendarles este video para que sigan mejorando y tal vez un día lo hagan igual de bien o mejor!
@josemariapallares1720
@josemariapallares1720 2 года назад
No joda si
@jesusm.r.6508
@jesusm.r.6508 5 лет назад
La mejor explicación de procesadores y gráficas de todo youtube
@ronalerquinigoagurto555
@ronalerquinigoagurto555 4 года назад
En español seguro que si
@rasenks
@rasenks 4 года назад
Con la de procesador de Nate gentile? No lo sé.
@Felga16
@Felga16 5 лет назад
Como ingeniero electrónico especializado en hardware microelectrónico, te doy la enhorabuena por este vídeo. Todo muy claro y entendible para el público en general, y sin dejar indiferente a los profesionales del sector. Yo por ejemplo soy un noob de la IA y alguna nueva idea he aprendido. Sigue así, y enhorabuena por el canal. (es el primer comentario que te dejo, rara vez suelo comentar nada en yt)
@Felga16
@Felga16 5 лет назад
Solo puedo discrepar con una cosa: cuando hablas de transistores en el minuto 4:20, pones el símbolo de un BJT, cuando en realidad todos los sistemas digitales usan los transistores MOSFET. Hoy día BJT se usan principalmente en aplicaciones de potencia, y algún otro sistema específico donde un BJT sea necesario
@sergioivanarguello5267
@sergioivanarguello5267 3 года назад
@@Felga16 Correcto, sin embargo, para fines ilustrativos, es más sencillo entender un BJT que un FET, y lo digo con experiencia propia, jajaja, saludos
@RSC2194
@RSC2194 3 года назад
@@Felga16 los mosfet son más utilizados en potencia que los bjt...
@antoniocaleropoblete1932
@antoniocaleropoblete1932 Год назад
Tengo 6 tarjetas gráficas 30_90 y estamos planteándonos alquilar las tarjetas para inteligencia artificial Nuestra duda es como calcular el rendimiento en eur que nos daría Podrías ayudarme por favor con alguna información?
@jokyplay4758
@jokyplay4758 5 лет назад
Like a ciegas porque seguro será un gran video
@Maisonier
@Maisonier 5 лет назад
Y una consulta ¿qué hay de esos procesadores dedicados al machine learning? ¿son todavía más rápidos que las GPU? ¿y cómo se diferencian en velocidad con los nuevos procesadores EPYC de AMD que ya vienen con 128 hilos y se pueden poner 2 cpu en paralelo teniendo 256? y cuando pasen a 5nm me imagino que van a tener 1024 hilos de ejecución. En MISMA CANTIDAD de núcleos entre CPU y GPU ¿sigue rindiendo más rápido la GPU?
@eltony4318
@eltony4318 5 лет назад
Muy bien el video, pero es demasiado “Pro Nvidia” a mi gusto. Chicos que apenas se meten al mundo del Hardware, existe algo llamado AMD, exploren y decidan. Saludos.
@62185hhh
@62185hhh 7 месяцев назад
Amd es basura
@descubriendolainteligencia6940
Muy buen vídeo, Carlos. Como siempre, vídeos de calidad y llenos de conocimiento. ¡Hasta se me ha hecho corto! Esperando ya el siguiente vídeo.
@Maisonier
@Maisonier 5 лет назад
EXCELENTE vídeo, que en media hora se enseñe todo esto ... demuestra lo mal que están las Universidades y el por qué en INFORMÁTICA están casi al mismo nivel la cantidad de estudiantes de Universidades que los que estudian online ... porque es un desastre. En Argentina todavía se pierde más de 1 año enseñando Pascal, cuando podrían meter todos los conceptos de programación con Python y el estudiante estaría más entusiasmado viendo resultados y al mismo tiempo aprendiendo algo apenas empieza con salida laboral en meses ... eso si, después para justificarse te dicen "el lenguaje no es importante" (si no es tan importante porque no enseñas Python y listo?) "se busca enseñar los paradigmas y conceptos básicos" (se puede hacer en Python también), etc.etc...EXCUSAS de gente con la cabeza cuadrada que no quiere cambiar ni su forma de enseñar, ni la currícula/programa de estudio de la Universidad por simplemente FALTA DE GANAS. Falta GENTE QUE ESTÉ A CARGO (ARRIBA, ESOS viejos pedantes cabeza cuadrada que se quedaron en el 70' y ahora son presidentes o deciden qué dictar en cada cátedra) que tenga la misma pasión y ganas que este gran señor.
@chispun2
@chispun2 5 лет назад
Estaría bien saber cómo narices usar una GPU remota, tipo amazon google o similar, una vez ya teniendo mi código en Tensorflow o en Python. SERÍA GENIAL
@Soobbzz
@Soobbzz 5 лет назад
Funcionamiento de una cpu desde el transistor para toda la familia!! 😂😂
@darthvader8469
@darthvader8469 4 года назад
;3
@rivascf
@rivascf 5 лет назад
¡Enorme! ¡Excelente trabajo! ¡Acabas de resumir en poco más de 30 minutos lo que yo llevo explicándole a mis sinodales de doctorado durante 6 meses! No tengo más que comentar excepto ¡MIL GRACIAS! ¡Te felicito!
@julioperez4337
@julioperez4337 5 лет назад
Resumiste mi curso de arquitectura de computadoras :0 Y una 'clase filosófica' que alguna vez un profe de álgebra lineal intento dar en cuanto a matrices y paralelismo... Todo un crack Carlos.
@GabrielxC
@GabrielxC 6 месяцев назад
19:15 cabe recalcar que en mi programa en C para multiplicar dos matrices utilizo solo 2 bucles for anidados jaque mate GPU.
@eimigi
@eimigi 5 лет назад
Realmente no existen la AND o OR sino las NOR y NAND y luego las niegan, por cierto estoy en 3o de Ing. Info en la upv
@eimigi
@eimigi 5 лет назад
@@hectorlorenzo2649 Si por lo menos los que he tenido en general han sido majos y explicaban bastante bien.
@vn_electronica
@vn_electronica 4 года назад
MUY BUEN VIDEO!! Ahora, la duda que me surge es la siguiente... si lo que vamos buscando es el paralelismo, por que no usamos FPGA´S o CPLD´S para las graficas¿?
@ivansantamaria8493
@ivansantamaria8493 2 года назад
Concuerdo con tu comentario!!! He leído que la FPGA también es usado para AI, así como las ventajas y desventajas que presenta frente a las GPU. Sería genial saber la opinión de Dot CSV a cerca de ello. Saludos!
@whitmanbohorquez184
@whitmanbohorquez184 5 лет назад
Excelente video, me motivas cada vez que publicas uno nuevo para seguir adentrandome en el Data Science. PD: Carlos activate en LinkedIn
@jorgitoaguero2087
@jorgitoaguero2087 4 года назад
Jajajaj una computadora para poder estudiar ingeniería jajajaja que chiste, para estudiar necesitas los libro pete
@germanandressalazar3807
@germanandressalazar3807 5 лет назад
Yo ya me deje 450€ en mi RTX2060 Super!! Tu a mi no me vendes la moto (voy un paso por delante).
@HslSoulsick
@HslSoulsick 4 года назад
RU-vid IT University College, campus Hispanoamérica, prof. cátedra: Carlos.CSV👌
@koletas
@koletas 5 лет назад
Me ha gustado mucho el vídeo. Solo un apunte, creo que es confuso decir que sólo un procesador multicore puede ejecutar varias instrucciones a la vez. Hace bastante que ya teníamos procesadores superescalares que pueden hacerlo, con limitaciones pero lo hacen.
@MrCHUFIS
@MrCHUFIS 4 года назад
¿Según dijo usted compuerta lógica relu es correcto o cuál es?
@FernandoDiaz-ni8xo
@FernandoDiaz-ni8xo 4 года назад
Y pensar que se rieron de mi en la universidad cuando dije que la GPU es mejor en la IA
@salvador9431
@salvador9431 5 лет назад
Sería genial que hagas una colaboración con Nate Gentile
@tzaphkielravenwood731
@tzaphkielravenwood731 5 лет назад
30 minutos, uff, voy por la crema y el papel
@madnarmike
@madnarmike Год назад
La mejor síntesis, clara y precisa que he escuchado. Mi mas profundo respeto por tu labor de comunicar un conocimiento complejo.
@gerac
@gerac 4 года назад
Tremendo!!! Impresionante!!! Soy ingeniero en ciencias de la computación egresado en la universidad de Mendoza, Argentina. Por razones de la vida mi carrera profesional se orientó hacia la automatización aplicada a la industria de procesos. Había olvidado lo hermoso y fascinante que es el campo de la IA, y gracias a tu canal está reviviendo mi interés y pasión. Te agradezco infinitamente!
@EBlazeCorp
@EBlazeCorp Год назад
Video simplemente exquisito, toda una obra de arte. Mil Gracias maestro, nos quitamos el sombrero en reverencia a su aportación al mundo computacional. Gracias...
@hardwarefromthegarbage3446
@hardwarefromthegarbage3446 5 лет назад
Genial explicación, creo que es imposible sintetizarlo mejor y explicarlo de manera más simple. Saludos compañero
@simonbolivar4438
@simonbolivar4438 5 лет назад
El video empieza en el 3:50
@loganj.3217
@loganj.3217 2 года назад
*Inicia en el minuto **28:16*
@avefenix7321
@avefenix7321 5 лет назад
Hola buenas tardes, una pregunta ¿cómo se llama la música que pusiste de fondo?
@yerasito
@yerasito 5 лет назад
Rt
@Andrez_Belmont
@Andrez_Belmont 3 года назад
conocimientos generales.. bastante cómodo conmigo mismo hasta que te vi en este vídeo, ahora, a partir de este momento convertiste mi mente en un agujero negro, que se siente vacío de conocimiento y con hambre de devorarlo todo... no se como diablos entre aquí.. quizás por las palabras GPU etc etc.. trabajo en diseño gráfico y edición y renderizado de vídeo.. y siempre me he preguntado... SI LAS TARJETAS GRÁFICAS SON ESPECIALES PARA TRABAJAR APLICACIONES GRÁFICAS, PORQUE CUANDO RENDERIZAS VÍDEO A PESAR DE HACERLO MAS RÁPIDO, EL RESULTADO ES MENOS OPTIMO, (MENOR CALIDAD Y MAYOR TAMAñO RESULTANTE EN LOS ARCHIVOS, y la CPU mas lenta, pero mejores resultados de calidad y compresión, en fin, siempre he gastado en tarjetas gráficas costosas y solo las uso para jugar porque siempre el trabajo lo proceso con CPU, coste al tiempo de procesamiento, y MI PREGUNTA QUE NUNCA PENSÉ QUE ALGUIEN ME LA PUDIERA RESPONDER, PERO CREO QUE TU SI PUEDES, ES .... PORQUE SUCEDE ESTO???? QUE PROCESAN RÁPIDO PERO A MENOR CALIDAD Y OPTIMIZACION??? Gracias, acabo de descubrir tu canal y es como el BUDA brillando en la oscuridad! saludos!! SUSCRITO, LIKE CAMPANA Y DE TODO! XD
@felixfigueroa
@felixfigueroa 3 года назад
No entendí...puedes repetir por favor 🤣WOW un Final Resumen Magistral....Felicitaciones..👏👏👏
@Bleibruk
@Bleibruk 5 лет назад
La mejor explicación que he visto hasta ahora!
@prototype7699
@prototype7699 5 лет назад
Porque la "MSI GS75 Stealth 8SE-066ES" me sale al precio que indica NVIDIA y la Gigabyte Aero 15-X9-7ES0310P me sale 500euros más!!, en mi moneda si que aumenta drasticamente el precio.
@gerardohpaz
@gerardohpaz 4 года назад
Excelente explicación de las diferecias entre CPU y GPU.. Como ejemplo visual pongo un link a un video que muestra una comparación entre la misma operación realizada con y sin CUDA habilitada, en un software SIG (Sistemas de Información Geográfica). ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-1h-jKbCFpnA.html
@roldanduarteholguin7102
@roldanduarteholguin7102 8 месяцев назад
Exporta el archivo de Azure, Power Apps, Copilot, Chat GPT, Revit, Plant 3D, Civil 3D, Inventor, ENGI del Edificio o de la Refinería a Excel, prepara el Presupuesto 1 y expórtalo a COBRA. Prepara el Presupuesto 2 y expórtalo a Microsoft Project. Soluciona los problemas de Recursos Sobreasignados, Problemas de Planificación, prepara el Pre-supuesto 3 con el cual se va a cotizar la construcción del Edificio o de la Refinería.
@skyviewsdrones1753
@skyviewsdrones1753 4 года назад
Hay datos que muestran lo contrario.. Clear Edge no necesita GPU y consume menos del 5% del CPU. Paralelamente, tiene mejores valores PESQ en DNS data que RTX (1,13 vs 0,48). Gastar dinero en una placa cuando podes usar un software gratis me parece absurdo.. si quieren probarlo ya saben : babblelabs.com/clear-edge/
@mathusers
@mathusers Год назад
Haces un uso incorrecto del término optimizar, dices: "más óptima", "muy optimizada", "optimizar al máximo". Simplemente es "óptimo", ya que esto hace referencia a un valor límite y no hay estados o distíntos niveles de óptimo.
@andreanavasolive4923
@andreanavasolive4923 4 года назад
Aunque sí que te sigo mucho en Twitter, este es de los primeros vídeos tuyos que veo (no soy una gran consumidora de RU-vid 😅). Me interesa mucho el tema porque ahora estoy empezando a usar CNNs para mi tesis en neurociencia (soy la amiga de Crespo, del vídeo de neurociencia). Cuando he visto 34min digo uh, pero cuando ha llegado el final ha sido como: PERO YA? Jajajaja Bravo, me encanta cómo has explicado todo! 😍👏🏽
@cristhian4513
@cristhian4513 5 лет назад
Like si hiciste click ni bien salio la notificación
@zurichsee706
@zurichsee706 5 лет назад
vaya
@attic999
@attic999 3 года назад
Hola Comienzas diciendo que Nvidia patrocina este video, pero podrias explicarnos en un futuro, como cada marca (AMD, Nvidia, Intel) estan optimizadas para la Inteligencia Artificial. ¿Van todas en la misma dirección y capacidades? ¿Por qué muchas empresas (como Topaz) solo funcionan con Nvidia? Muchas gracias y enhorabuena por el canal.
@kikecastor
@kikecastor 5 лет назад
En mi proyecto final de la maestría estoy haciendo uso de pytorch y éste a su vez de mi Cuda, tengo una gtx1060, pensé que solo era para jugar jaja, abriste mis ojos, mi proyecto es sobre clasificación de textos por medio de bigramas sintácticos, haciendo uso de nlp Stanford, éste me pidió el pytorch para funcionar, wow, muchas gracias por el video.
@Thexicotet94
@Thexicotet94 5 лет назад
Hola Dot, ¡buen video! Para poner la puntilla solo decir que no hay que mezclar las intrucciones con los ciclos. Puede haber una instrucción que tarde más de un ciclo en ejecutarse (la mayoría lo son) y no por tener el procesador un núcleo solo puede procesar una sola instrucción. Existen las cpu's que ejecutan las instrucciones de forma paralela ya que usan diferentes circuitos del procesador. Lo que se llama segmentación de instrucciones. Un saludo.
@davidx3498
@davidx3498 5 лет назад
por qué todo el mundo insiste en mencionar la palabra "INTELIGENCIA ARTIFICIAL"...tal cosa no existe...todo esto de la IA nació por la necesidad de aumentar artificialmente el valor de índices o acciones tecnológicas...cuando todos sabemos que el 99,9% de los informáticos (ingenieros o doctores en informática) aborrecen el tener que programar y los que programan a duras penas logran crear aplicaciones que muchas veces a penas funcionan bien...no existen códigos creados por programadores capaces de crear otros códigos que a su vez son capaces de aprender...por favor por qué repites lo que los demás repiten?...lo único que haces es crear una falsa creencia de algo que por ahora solo forma parte de la ciencia ficción...
@jorgemontecinosmeza
@jorgemontecinosmeza 5 лет назад
Una explicación magistral. Tenia algún conocimiento respecto a la parelización con CUDA, sin embargo, tenía muchos vacíos, entre ellos qué es un tensor core. Muy bueno. Gracias.
@rhoko84
@rhoko84 4 года назад
Al principio me parecía una publicidad Nvidia ... tuve que saltar a la mitad del vídeo para que empezase a ser interesante ... Aún así se ve qué te faltan conocimientos más profundos de electrónica digital ... Queda un poco impreciso en el empleo de expresiones y falta de uso de palabras que definen algunos conceptos como "multiplexar" "encoder", "decoder", "Rutina", "blucle", "límite de pila o stack" y bueno la explicación de la CPU queda un poco simple y superficial. Quizás te faltó explicar un poco de historia del desarrollo de las primeras CPUs así la gente te entendería un poco mejor ... El salto tecnológico es muy grande cuando se pasó de Triodos de válvulas de vacío a transistor, sólido de silicio o germanio. De una CPU que ocupaba un armario a una pastilla de pocos centímetros cuadrados. Sobre todo la gente te entendería el porqué las CPU eran originalmente de ejecucion secuencial. Lo explicas un poco mal cuando haces referencia a lo del Pentium 1 ... Lo de la multitarea ... Es el sistema operativo el que toma la decisión de qué programa tiene prioridad y cómo se reparten los tiempos de ejecución ... Ah es falso (o impreciso) que una CPU ejecute una instrucción en un ciclo de reloj, está claro que no sabes qué es un ciclo de reloj ... Primero tienes que saber que no es lo mismo un ciclo de instrucción que un ciclo de reloj. Y que normalmente los microcontroladores modernos necesitan cuatro ciclos de reloj para generar una ciclo de instrucción. Microcontrolador es parecido a un microprocesador 0 + simple ... Una GPU posiblemente s se parece más a un microcontrolador optimizado para ser eficiente en la ejecutacion de procesamientos gráficos ... Normalmente las CPUs en los años 80 - 90 necesitaban de 8 a 4 ciclos de reloj para cargar y ejecutar 1instruccion ... Y introdujo el método pipe line para optimizar y hacer más eficientes y requerir menos ciclos de reloj para poder producir una instrucción completa ... Y las primeras CPUs de uso público 8086 necesitaban 8 ciclos de reloj en la mayoría de sus instrucciones, excepto las instrucciones de salto, que habitualmente necesitan el doble. No quiero alargar mi comentario, ya que es Nvidia quién gana con tu anuncio 😉 aunque es cierto estás grandes empresas impulsan el desarrollo tecnológico-científico.
@Hablo74
@Hablo74 3 года назад
Hola, recien te conozco y me parece q estas haciendo un trabajo notable. Queria pedirte, si fuera posible, hacer una explicacion parecida tambien para GPU AMD.....entiendo q Nvidia haya sponsorizado este video y q probablemente AMD no va a hacer lo mismo pero creo q en una optica de "paralelismo" se podria hacer una explicaciones de las tecnologia AMD tambien. Gracias.
@conradohernanvillagil2764
@conradohernanvillagil2764 4 года назад
Si tengo cientos o miles de imágenes de radiología ( mamografías ) y quiero a través de redes neuronales aprender a detectar el cáncer de seno, lo tengo que hacer a través de computadores CUDA? . Un computador de escritorio comercial no lo podría hacer?. Cómo conmutar de CPU a GPU? . ( Gracias por este video).
@VitoL3mus
@VitoL3mus 4 года назад
Cual seria una buena configuración de PC para hacer IA...? Es decir, que CPU usar, que mother board, que GPU..? Gracias
@MarcPalau
@MarcPalau 5 лет назад
Hola! Le has echado un ojo a las IPUs de graphcore? Me encantaria que las comentases por la potencia que dicen que tienen. Gracias!!
@hanagomikusohana9118
@hanagomikusohana9118 3 года назад
Como en todos los videos da muchas vuelta (ni a 1.7 de velocidad rinde) haciendo notar a que no ha intentado montar una ALU en la vida ni programado un mínimo de ensamblado, de paso confunde términos entre computación y lógica operacional, y como resultado que no parece una "deconstrucción de conceptos" sino una "destrucción de conceptos". Un ejemplo inquietante, cuando muestra el arreglo de AND con transistores BJ, T hubiese aprovechado para mostrar que tal sistema es una red neuronal simple, dado que la entrada pondera la salida, con eso hubiese rematado toda la charla es le corazón de todo esto de las redes neuronales artificiales. Tanto que platea una duda.. ¿"es se ML" que plantea a nivel de "software - instrucción en ensamblador---- maquina" o puede un sistema GPU aprovechar los arreglos de Transistores para formar redes neuronales a nivel electrónico? Si la respuesta es "NO", parece que esa ML que plantea es una farsa dado que no es optima a manera de ingeniería, Con una repuesta SI= afirmativa entonces el ML es un nuevo paradigma dispuesto a derrocar la programación contemporánea basada "en lenguajes chomskianos" (como lo será la computación cuántica). La respuesta SI sería también plantea contrariedad dado que parece no dominar el paradigma actual ni el nuevo que propone.
@gianantonel9913
@gianantonel9913 2 года назад
Tremeeendo video!! Espectacular toda la explicacion! Fuiste guiando un viaje... Me encanto. Segui asi. Un saludo desde Argentina.
@angelsrt3
@angelsrt3 5 лет назад
HOLA DOT CSV GRACIAS POR LA INFORMACION tengo uan duda generalmente el lenguaje de programacion que se usa para el desarrollo de inteligencia artificial es python esto debido a a que es un legunaje que tiende a tener una curvatura de aprendisaje mas corta que los otros lenguajes y agregando de que la comunida de desarrolladores dedicado a a dicho lenguaje. pero realmente existen librerias dedicadas a la programacion de machine leranig en otros lenjuajes por ejemplo kotlin java ruby javaScript etc me gustaria saber si tiene un video sobre esa informacion gracias espero su repuesta
@jlmeana
@jlmeana 5 лет назад
Excelente!! ..Que capacidad de síntesis... espero que ahondes más en el tema en futuros vídeos. Al igual que la convolución se inspiró en el funcionamiento de la corteza visual , el "Paralelismo" se inspira en el funcionamiento de las neuronas . La biomimética es una fuente de inspiración en este campo de la tecnología.
@jitlerv8600
@jitlerv8600 5 лет назад
No hace falta ver el video para darle like. GRacias a ti estoy empezando con mi proyecto de ia todo emprico
@paradisi127able
@paradisi127able 5 лет назад
Cuanta vram se necesita para empezar a trabajar con inteligencia artificial o deep learning? Mi GPU es una GeForce GTX 750ti de 2gb . Saludos.
@gaboxsp510
@gaboxsp510 3 года назад
Pienso comprar una tarjeta gráfica Nvidia Quadro P2200, es poderosa y enfocada al trabajo pesado, pero tendría una buena ejecución en el ML?
@pedropablodelgadomartell5514
@pedropablodelgadomartell5514 4 года назад
Muy buen video. Podrías dar sugerencias sobre tarjetas gráficas NVIDIA para redes neuronales ya que usas como referencia una laptop en el video. Te embullas a hacer un video comparativo sobre la eficiencia de varias tarjetas gráficas NVIDIA en el entrenamiento de redes neuronales? Sería buena idea y así promoverías a NVIDIA en tu canal. Sin contar que los usuarios te agradecerían tener una referencia para comprar la tarjeta que más se ajuste a su economía y propósito.
@Miguel_Noether
@Miguel_Noether 3 года назад
Ahora aparte de los scalpers y mineros también los machinelearnig acapararán las RTX 3000..... :'(
@MAMUGI1492
@MAMUGI1492 5 лет назад
Vale ahora la duda: En una GPU se puede introducir "Tensor Cores" especializados en los cálculos matriciales, pero por otra parte, las NPU son un tipo de chip específicamente diseñado para esto. Por lo tanto, ¿no sería más eficiente procurar tener las mejores CPUs, GPUs, y NPUs por separados, que intentar introducir partes de la arquitectura de unas en otras? Es como si ahora Intel intentase meter los Cores CUDA en sus CPUs (espero que esto no sea el resultado que los de marketing llaman las Iris Pro y compañía de Intel), no sé, parece contraproducente, las seperamos en arquitecturas distintas para optimizar flujo de cómputo, ¿para qué mezclarlas?
@franciscodeaguirre1754
@franciscodeaguirre1754 5 лет назад
U OTRA UUUU OOO UUU OOOOO U OTRA POR FAVOR !!!
@nestorelbioalmada1946
@nestorelbioalmada1946 4 года назад
Me fue muy descriptivo. Excelente.Muy buen video. Yo que estudié algo de computación cuando estaban de moda los disquetes y las at 286.
@valecalzada
@valecalzada 3 года назад
Siempre he visto a deep learning como usar fuerza bruta, se aplica porque la tecnología para hacerlo por fin existe. Aunque no es lo más eficiente ni lo más elegante, funciona. Sin embargo, sigo decantándome por utilizar métodos de bajo costo computacional, que incluso funcionan mejor, aunque eso sí, implica estudiar más la naturaleza del problema y dos que tres ecuaciones matemáticas.
@pentester-ethicalhacker
@pentester-ethicalhacker 4 года назад
Un venezolano hablando como español.
@johnnyiiiyoungospino9150
@johnnyiiiyoungospino9150 4 года назад
Excelente video, empecé con uno y ya llevo 3 en línea. Explicas genial, la fluidez y propiedad con la que hablas haces que sea entretenido e interesante los temas. Un abrazo y felicitaciones desde Colombia. Apenas pueda apoyo el canal con aporte económico 🤘
@H2OESMX
@H2OESMX 2 года назад
Algún experto que me confirme, el hecho de que la GPU sea LHR, también limita el rendimiento en deep learning? Gracias (:
@alejofdezm
@alejofdezm 5 лет назад
cloud.google.com/blog/products/gcp/an-in-depth-look-at-googles-first-tensor-processing-unit-tpu ***TPU: Tensor Processing Unit is highly-optimised for large batches and CNNs and has the highest training throughput. **GPU: Graphics Processing Unit shows better flexibility and programmability for irregular computations, such as small batches and nonMatMul computations. *CPU: Central Processing Unit achieves the highest FLOPS utilisation for RNNs and supports the largest model because of large memory capacity.
@Omwekiatl
@Omwekiatl 5 лет назад
la mejor explicación posible, extrañé los gráficos animados (le dan más intuitividad a la explicación), me imagino cuando surja una neurona artificial y su arquitectura de manera estándar, útil para todo problema, capaz de ser una IA fuerte, el cerebro del terminator :v en ese momento, la humanidad creará un hardware con núcleos específicamente para ese uso, las GPUs quedarán lentas; me pregunto cuáles serían sus siglas ._.
@Eloybb1
@Eloybb1 4 года назад
La tecnologia del silicio no permitio mas de 4Ghz estables, por eso se repartió en coprocesadores y nucleos. Pero para el calculo cientifico se busca la precision, doble coma flotante, mas decimales. Lo cual estariamos regresando a funciones de un unidad aritmeticologica pura. Los Teraflops en doble precision que le sacas, suelen ser un poco menos de la mitad de la precision simple que tengan las targetas graficas. Python se utiliza mucho en computaciones cientificas, y la FPGA en Software defined Radio tendra que acogerse si o si a esta arquitectura la tasa de muestreo actualmente son muy pobres. Ojalá OpenCL o CUDA desarrollaran instrucciones especificas para resolver en tiempo real, el muestro digital de señales analogicas para su muestreo en varias variables de salida, y que el calculo no recaiga integramente en el ordenador, si no en el SDR.
@carfetech
@carfetech 3 года назад
qué cursos me recomendarías para comenzar en el mundo de la IA y ML? mi objetivo? hacer proyectos, aplicarlos a la vida.. meter un poco las manos al lodo. Saludos!
@sniperdaoud
@sniperdaoud 5 лет назад
gracias a ti por tu esfuerzo, bueno tengo una pregunta. por que no usan FPGA para las procesar todo un modelo entero por ciclo, creo que serian muy rápidos mucho mas que las GPU
@fixolofo
@fixolofo 5 лет назад
Por el tamaño, la fpga más grande creo que anda por los 35 millones de transistores, mientras que el TU102 que usa una 2080TI tiene 18600 millones de transistores. La fpga te permite configurar esos transistores por software, pero vas a tener que implementar el mismo circuito que ya trae la GPU para hacer una suma, por ejemplo, y va a tardar en ejecutarlo un ciclo de reloj en los dos dispositivos. Al programar tus propios circuitos puedes crear tus propias instrucciones, pero muchas de las que necesitas ya existen en una GPU, y dudo que tengas espacio en una fpga solo para las instrucciones que si te sirven y que ya están operando en los más de 4500 núcleos de esa bestia de Nvidia.
@sniperdaoud
@sniperdaoud 5 лет назад
@@fixolofo la diferencia de transistores, si es una debilidad de las fpga pero al respecto del poder. las fpga son mas poderosas, porque pueden en un ciclo hacer todo lo que lo programaste, y si la programas para calcular un modelo completo lo acaba en un ciclo (eso no lo pueden hacer las gpu), aunque solo el primer entrenamiento gaste el mismo tiempo que la gpu. imajinate que quieres entrenar un modelo 100 millones de veces, te cuesta solo un segundo o menos ya que ay fpga que trabajan a una frecuencia mas alta que 100MHz, y no importa el numero de las capas y cada una cuantas neuronas y conexiones tenga, solo le cuesta un ciclo. bueno tendrás que dividir ese numero depende de las funciones, pero son mucho mas rápidas porque trabajan en paralelo y en cadena.
@fixolofo
@fixolofo 5 лет назад
@@sniperdaoud entiendo el potencial de las fpga, puedes construir el circuito a tu medida, pero si para realizar una tarea usas la décima parte de su capacidad solo podrás tener 10 procesos paralelos, mientras que una GPU ya puede paralelizar 4500 procesos, que al no estar diseñadas para eso deberán gastar varios ciclos de reloj, pero tiene 500 veces más capacidad. Y supongo que una FPGA puede correr a esas velocidades por tener pocos transistores, cuando hagan una con 18000 millones de ellos tendrán que bajar las frecuencias o eso va a calentar demasiado. Tal vez tengas tú razón, puede que su capacidad para optimizar la lógica a la tarea sea más que suficiente para compensar su pequeño tamaño, ni mucho menos soy experto en el tema, pero lo poco que se me lleva a pensar así. De lo que estoy seguro es que tienen un potencial enorme para este y muchos otros campos.
@biogfp9340
@biogfp9340 4 года назад
Una consulta me gustaría aprender más sobre electrónica, transistores y puertas lógicas. Me recomendarías o alguien me recomiendo por dónde empezar? Es que en mi país estudié en un colegio católico de solo mujeres y nunca nos enseñaron sobre electrónica (solo había talleres para bordado y costura). Claro, sí nos enseñaron cosas básicas del hardware en la primaria como tipos de memoria en computadora, etc. En la universidad, estoy estudiando biología y es en el curso de físca II donde el profesor nos enseñó algo de transistores y a armar proyectos en arduino lo cual me encantó y quisiera entender un poco más sobre este tema desde lo básico.
@Miguelsd1024
@Miguelsd1024 5 лет назад
A alguien más le ha estallado el cabezón?? ... Me toca pintar la pared...
@Citnos
@Citnos 5 лет назад
Sería excelente que nos hables acerca de los procesadores cuánticos, por ejemplo el ultimo de uso ´´comercial´´ que sacó IBM de 53 qubits, que usos se les pueden dar, comparado a una pc o super computadora (Servidores), que tan mas ´´potente´´ es, entiendo que logaritmicamente mientras más qubits más procesos se podrán hacer de manera exponencial, a diferencia de los bits 1=1 0=! una operación a la vez. ¿en un futuro podré tener un computador cuántico en la sala de mi casa?
@frankyzn
@frankyzn 4 года назад
Si una GPU se puede reprogramar y cambiar su uso ¿se puede cambiar para usarse como CPU? ¿tendría alguna ventaja? ¿podría reprogramarse para usar con Linux o Windows para minar?
@essenow2791
@essenow2791 3 года назад
Hola crack, viendo tus videos me surge la siguiente duda. (espero mi comentario no quede en el olvido XD) estoy entrando en el gran y diverso mundo de la programación. mas por hobby, porque estudio ing. electrónica, bueno mi pregunta es: tu realizar cursos para personas que queremos aprender a hacer IA, ósea implementar algoritmos de machine learning en nuestros proyectos, soy consiente de que la IA es el presente y futuro, por lo cual quiero aprender y creo que tu serias un maestro genial, tienes algunos cursos y estas pensando en hacer alguno ? de ser si, por favor regálanos la info para poder hacer parte!! saludos desde Colombia, muchas gracias por ese contenido tan pro que creas!
@Gauxd1
@Gauxd1 3 года назад
Nvidia es sponsor: - Videos patrocinados: Compra portatiles!! - y las tarjetaa gráficas? - Compra portátil :) - Que pasó con las tarjetas gráficas? - No hay compra portátil
@dbanshee
@dbanshee 4 года назад
Carlos en futuros IA Notebooks podrias comentar o usar Numba que seguro conoces. Veo que se hace mucha referencia a GPUs en TensorFlow y otras librerias qie conforman las redes neuronales, pero todo el computo adicional sobre datasets y data analisys se hace en numpy directamente sin aprovechar toda esta potencia. Me uno especialmente a las felicitaciones por este video. Increible resumen de toda la arquitectura de un procesador.
@jorge5620
@jorge5620 2 года назад
No entendí ni un carajo!! O sea... a mi dime cual PC me compro... que yo soy de los que llama CPU al gabinete de la computadora 😐
@kcireorenom8430
@kcireorenom8430 4 года назад
interesante pero si vas a trabajar con calculos complejos lo mejor es cogerse una maquina virtual gratis de ibm (cpuz), por 6 meses y probarla, y si no te sirve te vas a un monton de paginas con servicios virtualizados que por 5 dolares tienes una, haces tu trabajo dockerizado y aprendes un monton de tecnologias sin haber gastado en tarjetas graficas que se deprecian mas que los coches, aun así debo decir que si quieres un portatil potente sigue el video sin miedo e invierte en nvidia porque ademas de hacer machine learning podras jugar y demas cosas que permiten las graficas potentes.:p ahh y de paso edito esto porque al final los fpga son mas potentes que las graficas, y vemos como hay hoy en dia fpgas libres, en un futuro podras programar tu propio hardware para tu proyecto haciendo que todos los procesos corran en paralelo y de esta forma la potencia de calculo específica y customizada para tu proyecto seria mucho mas eficiente y barata que los aqlgoritmos que usan las graficas :P
5 лет назад
Hola somos una asociación civil sin fines de lucro y tenemos un proyecto que le hemos dedicado desde 1991 hasta la fecha y su solución la logra el deeplearning este proyecto lo hemos seguido por que resuelve un problema humanitario grave que se está manifestando ahora. necesitamos ayuda podrías asesorarnos al respecto? Con este proyecto
@gabrielalbeldaochoa8234
@gabrielalbeldaochoa8234 4 года назад
Puede RU-vid dejar de recomendarme diferentes areas de informatica para que me vuelva a enamorar de esas areas y me confunda mas en mis decisiones de futuro????????????????? Que no se que hacer con mi vida..........
@ismaelroman5870
@ismaelroman5870 3 года назад
Yo vi el nacimiento de las computadoras personales. La memoria era un casete de cinta magnetofónica. Se programaban con tarjetas de simple cartón perforadas. La norma de esos tiempos era la gran cantidad de cosas que memorizar. Las mentes eran analíticas porque todo era análogo. Las mentes eran demasiado superiores a las actuales que no se ejercitan. La actual memoria real ha llegado al punto de sierre parcial donde unos pocos piensan por las muchas mazas. No hay mucha memoria real. De donde se sacan eso de memoria artificial? Máquinas que aprenden? Equipos que se auto mejoran porque se entienden con entrenamiento? Hasta ahora lo único que se ha logrado es crear un idioma de una sola letra que es lo mismo que una matemática de un solo número y la ausencia de este. Ni siquiera le llaman matemática binaria sino que la nombran como lenguaje binario. No es lenguaje, es matemática. Que desperdicios las mentes que se entrenaron y aprendieron a soñar el futuro viendo películas futuristas.
@darthvader8469
@darthvader8469 4 года назад
JJAJAJA C REMAMO dijo envidia jasajsujaus. Min: 1:08
@timlazara1585
@timlazara1585 4 года назад
Me encanta los temas y cómo lo explicas, pero por favor, cada tanto y sobre todo al principio del programa, aclara bien las siglas que usas. Thanks!
@vozdominicana
@vozdominicana 4 года назад
Pero me imagino que Envidia te pago mínimo 15 mi dolares por esta espectacular presentación.Siempre he dicho que la seguridad, el saber lo que se está haciendo y donde puedo llegar, eso simplemente no tiene precio!!!, muy, muy buen video.
@txinatox
@txinatox 5 лет назад
y lo mejor de todo es que se convierte en un debate Existencial.... Kappa Nvidia = Skynet?
@NGHeartSilver
@NGHeartSilver 2 года назад
nueno, mi procesador es un atom, asi que pasará un tiempo para que pueda probar una gpu de mi propiedad... de todas formas, este vídeo me ha ayudado mucho a entender el concepto de las gpu's, y de lo que era la tan llamada aceleración por hardware que nunca hace mi laptop. Muchas gracias!
@marcosfitz8802
@marcosfitz8802 4 года назад
Me encanto el video a pesar de mi poco conocimiento, quede atrapado en los videos de los laboratorios de IBM asombroso¡¡¡¡¡¡¡
@yuami99
@yuami99 5 лет назад
Me amas?
Далее
Bearwolf - GODZILLA Пародия Beatrise
00:33
Просмотров 221 тыс.
Шоколадная девочка
00:23
Просмотров 189 тыс.
Triton Conference 2024: Afternoon Session
3:37:31
Просмотров 1,1 тыс.
NVIDIA Gana la BATALLA de la Inteligencia Artificial
21:48