Тёмный

CPU vs. GPU (einfach erklärt) 

Florian Dalwigk
Подписаться 108 тыс.
Просмотров 7 тыс.
50% 1

Опубликовано:

 

15 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 64   
@KreativEcke
@KreativEcke 7 месяцев назад
Einfach toll erklärt! Anders kann man das nicht sagen :)
@Florian.Dalwigk
@Florian.Dalwigk 7 месяцев назад
Vielen Dank 😊
@FilmfanOliver1992
@FilmfanOliver1992 7 месяцев назад
Da sucht wohl jemand Python Tutorials für seine Raspberry PI und ist auf diesen tollen Kanal gestoßen !? ;-)
@fehrtegruesse1510
@fehrtegruesse1510 7 месяцев назад
Rendern ist harte Abbeid!
@Florian.Dalwigk
@Florian.Dalwigk 7 месяцев назад
Das ist A richtig und B falsch!
@pragmatischesverhalten5437
@pragmatischesverhalten5437 2 месяца назад
Meddl
@SuperAllpeople
@SuperAllpeople 7 месяцев назад
Da ich keine Grafikbearbeitung mache und auch keine Video games spiele, brauche ich keine extra GPU. Die integrierten AMD RADEON GRAPHICS reichen für meine Zwecke vollkommen aus.
@manuelbbraun
@manuelbbraun 7 месяцев назад
Nettes Video, einziger Punkt der mich irritiert ist die Aussage vom Onboard Grafikchip mancher Mainboards. Proof me wrong, aber ist es heutzutage nicht eher der Fall, dass der Betrieb ohne dedizierte Grafikkarte durch die Grafikeinheit im Soc oder auf der CPU übernommen wird? Das die Northbridge, des Chipsatz des Mainboard diese Aufgabe übernimmt war doch eher Anfang des Jahrtausend ein Ding. Das es das Mainboard übernimmt führt bei vielen Leuten doch eher zu dem Irrglauben: "Mein Mainboard hat einen HDMI Ausgang das geht auch ohne Grafikkarte" Prinzipiell ist das aber eher ein nein, denn es benötigt dazu auch die passende CPU. Bei Intel CPUs mit einem F am Ende genauso wie bei allen AMD, die nicht als APU bezeichnet werden, oder der Ryzen 7000 Familie angehören, erscheint kein Bild.
@skosko9925
@skosko9925 7 месяцев назад
OnBoard-GPU finde ich etwas irreführend, weil die iGPU nicht zum Board, sondern zur CPU gehört.
@yxeyuo
@yxeyuo 7 месяцев назад
Kommt drauf an mein Server Mainboard hat eine gpu aufgelötet (mehr als 2d bilder anzeigen kann die nicht)fals man warum auch immer einen Bildschirm anschließen will/muss und die CPU keine integrierte Grafikeinheit besitzt
@MiloTheFox20
@MiloTheFox20 7 месяцев назад
Ich besitze einen AMD Ryzen 5 5600G Prozessor (für diejenigen, die es nicht wissen, das G steht für eine integrierte Grafikeinheit). Diese Art von Prozessoren wird bei AMD als “APU” bezeichnet, was für “Accelerated Processing Unit” steht. Zusätzlich habe ich eine Palix GeForce GTX 1080Ti als meine Grafikkarte, und ich bin mit diesem Setup vollkommen zufrieden. 😁
@94Drago94
@94Drago94 7 месяцев назад
hab ne 4070 in Kombination mit einer Ryzen 9 5900x läuft butterweich bis auf VR mit dropped Frames, aber glaube das ist Software bedingt (windoof) :D
@hans-ludwigfeck7425
@hans-ludwigfeck7425 7 месяцев назад
Interessantes Video, gute Erklärung, Danke.
@marvin789_
@marvin789_ 7 месяцев назад
Lese zurzeit dein Python Buch. Hast du eine Empfehlung wie man mit so einem buch effektiv lernen kann? Ich weiß nicht ob ich während dem lesen programmieren soll oder es einfach nur durchlesen soll.
@Florian.Dalwigk
@Florian.Dalwigk 7 месяцев назад
Dazu mache ich gerne mal ein Video :)
@hansdampf9389
@hansdampf9389 7 месяцев назад
@@Florian.Dalwigk Das wäre super. Eine Lernanleitung kann nie schaden.
@fairphoneuser9009
@fairphoneuser9009 7 месяцев назад
Learning by Doing. Sonst landest du in der "Tutorialhölle". D.h. immer möglichst zeitnah das anwenden, was man gelernt hat, damit es sich verfestigt.
@fhcsghgggfghghhggg4566
@fhcsghgggfghghhggg4566 7 месяцев назад
Immer das gelernte direkt anwenden, wenn dus wirklich verinnerlichen willst.
@5nu5nu
@5nu5nu 7 месяцев назад
Ich kenne das Buch zwar nicht, aber ruhig mal der Fantasie freien Lauf lassen. Wenn es Beispielsaufgaben gibt dann überlegen, ob diese mit weiteren Features ausgestattet werden können. Das verleitet auch immer dazu ein wenig quer zu lesen. Oder ruhig mal ein Kapitel zurückblättern und vorhergegangene Aufgaben mit dem neu erlernten zu lösen oder zu erweitern.
@rabin371
@rabin371 7 месяцев назад
Danke für die super Erklärung!
@jenspeters5989
@jenspeters5989 7 месяцев назад
Bei 5:09 heisst es Mainboards haben einen Onboard-Grafikchip, ist das richtig so? Ich dachte lediglich die CPU kann eine Onboard-Grafikeinheit haben.
@metisx9336
@metisx9336 7 месяцев назад
Früher gab es gab es Grafikchips auf einigen Mainboards „Onboad Grafikkarte“. Heute ist in den meisten CPUs auch eine Grafikeinheit integriert. Intel nennt diese „iGPU“. AMD nennt beides zusammen APU. PCs können nicht nur „theoretisch“ ohne Grafikkarte auskommen, vielmehr machen dies auch die meisten PCs, da die iGPU für Anwendungen wie Office, Browser etc. ausreichend ist.
@WiemJulius
@WiemJulius 7 месяцев назад
Ich hoffe die Frage ist nicht allzu doof, aber könnte man nicht die CPU durch eine GPU ersetzen? Bzw. allgemeiner, kann die GPU nicht auch die Aufgaben der CPU übernehmen?
@bravenewworld92
@bravenewworld92 4 месяца назад
Danke für das Video! das hab ich nun verstanden, aber wie finde ich nun einen Laptop der für meine Bedürfnisse als Grafikdesigner passend ist? Wenn man bei online shops guckt, dann steht dort so ein Buchstaben- und Zahlensalat bei Grafikkarte und Prozessoren... wie soll ich als Laie wissen ob zb AMD XYZ173527 oder UHD Graphics ABC98623745 besser ist?? :( Kann man grundsätzlich sagen, dass Gaming Laptops auch für Grafikdesign geeignet sind? Das würde mir zum Beispiel schon mal helfen.
@FilmfanOliver1992
@FilmfanOliver1992 7 месяцев назад
1:43 Es gibt aber oft Kompatibilitätsmodi um z.B. eine x86 Anwendung auf einem ARM zum laufen zu kriegen !?
@raphaeloberhummer5071
@raphaeloberhummer5071 7 месяцев назад
Schullaptop: UHD630 höhere Wahrscheinlichkeit das er gestohlen wird, darum billig. Bastel PC: 1030 kann beim basteln kaputt werden, darum alt Gaminglaptop: 3070 selbsterklärend
@werwerwerwer-vd3cg
@werwerwerwer-vd3cg 7 месяцев назад
Mein Schullaptop hat einen i3 und glaube nur einen onboard chip. Reicht eigentlich. Mein Problem ist nicht der Kostenfaktor, sondern eher, dass ich in der Schule nicht laden darf
@DystopiaForge
@DystopiaForge 6 месяцев назад
Hallo Florian, vielen Dank für die Erklärung. Habe ich das richtig verstanden, eine GPU ist immer einer Grafikkarte und nie eine separate Komponente eines PCs?
@Florian.Dalwigk
@Florian.Dalwigk 6 месяцев назад
Eine Grafikkarte ist doch eine separate Komponente
@DystopiaForge
@DystopiaForge 6 месяцев назад
@@Florian.Dalwigk Sry, habs blöd formuliert. Wenn man von GPU spricht, ist also immer damit die Grafikkarte gemeint?
@yxeyuo
@yxeyuo 7 месяцев назад
In computer grafik haben wir mit opencv alles auf der cpu gemacht also filter angewandt , muster und formen erkannt, und einen kleinen bild editor gebaut. erst in den weiterführenden modulen wurde bei uns die gpu benutzt
@denis4096
@denis4096 7 месяцев назад
Na ja, weil OpenCL eben Standard und optional ist und außerdem nur Cuda Kerne dafür genutzt werden können was dann Hardware limitiert ist. Viele Anwendungsfälle laufen mit OpenCL sogar schneller. Die Cuda Module sind für wenige spezielle rechenintensive Prozesse wie bspw. Matrizen Algorithmen. Ist ja nicht so das du selbst Instruktionen für die GPU codest sondern nur ein switch für die prefs auf cuda=on setzt.
@fairphoneuser9009
@fairphoneuser9009 7 месяцев назад
Der Gag mit "meist so 2 bis 32" war großartig... 😁
@Florian.Dalwigk
@Florian.Dalwigk 7 месяцев назад
;)
@israelitestateofmind375
@israelitestateofmind375 6 месяцев назад
Rendern is Hadde Abbeid - ich kack ab, damit hab ich nicht gerechnet 😂❤
@Florian.Dalwigk
@Florian.Dalwigk 6 месяцев назад
😉
@soufiane1337
@soufiane1337 7 месяцев назад
Ich habe eine 3070 und habe mal ein Python Skript für eine 15.000 mal 15.000 Matrixmanipulation sowohl auf der CPU als auch auf der GPU laufen lassen der Zeitunterschied war beachtlich zum Gunsten der GPU
@karlbesser1696
@karlbesser1696 7 месяцев назад
Meine NVIDEA Gforce 6600 ist mit dem XP vor 14 Jahren in Rente gegegangen. Mit welchem Assembler wurden die progr.?
@denis4096
@denis4096 7 месяцев назад
Es gibt nicht den Assembler, jede Chiparchitektur hat seine eigenen Instruktionssätze die von Einheit zu Einheit oder Hersteller unterschiedlich sind. Daher ist es meist so das jede Prozessorarchitektur einen dementsprechenden Assembler braucht. Da gibt es zahlreiche. Die GPU's werden nicht per se programmiert, oder nur kleine Teile davon im kb Bereich. Die Treiber werden mit High Assembler Sprachen erstellt. ASM ist schon fast der Endgegner in der Programmierung.
@karlbesser1696
@karlbesser1696 7 месяцев назад
@@denis4096 So wie du es schilderst, klingt eine GPU-Pogrammierung nicht nach einem One Man Project. Vielleicht macht Florian mal ein Video über den Daten-und Programmtransfer zwischen CPU und GPU.
@karlbesser1696
@karlbesser1696 7 месяцев назад
@@FilmfanOliver1992 Das glaube ich dir.
@FilmfanOliver1992
@FilmfanOliver1992 7 месяцев назад
@@karlbesser1696 upps falsche Antwort :-D von mir. Ich denke es ist irgendein Dialekt von Nvidia selbst, der vllt. mit Inline Assembler in C geschrieben wurde. Ein Daten-und Programmtransfer zwischen CPU und GPU wird meistens mit Grafik-APIs (Application Programming Interfaces) und DirectX oder OpenGL realisiert der wird meist mit C/C++ also einer höheren Sprache gemacht.
@karlbesser1696
@karlbesser1696 7 месяцев назад
@@FilmfanOliver1992 Scheint alles sehr kompliziert zu sein. Schade nur, dass die geballte Rechenleistung, die bei der 6600er auch schon recht ordentlich war, den heutigen Anforderungen nicht mehr genügt.
@LarsEsDoch
@LarsEsDoch 7 месяцев назад
Hab eine 4070 Ti, bin aber nicht zufrieden, da ich viel Software Probleme mit ihr habe, obwohl ich Windows schon mehrmals neu installiert habe
@PerfectHuman-l3k
@PerfectHuman-l3k 7 месяцев назад
Ich habe eine 4070 und bin mit diesem Monster komplett zufrieden. Kein spiel auf meinem PC läuft unter 60 FPS und das auf WQHD
@emirtunal1653
@emirtunal1653 7 месяцев назад
Hey Florian, meinst du ich als Polymechaniker/Industriemechaniker hätte nach einem bachelor studium (FH) gute bzw. gleiche Chancen bei der Stellensuche wie z.B. welche die, die informatiker ausbildung absolviert haben?
@Florian.Dalwigk
@Florian.Dalwigk 7 месяцев назад
Das lässt sich schwierig vorhersagen, zumal ich nicht weiß, was du studieren möchtest
@emirtunal1653
@emirtunal1653 7 месяцев назад
@@Florian.Dalwigk Ah, tut mir leid. Dachte an informatik zu studieren oder data science.
@JoeJoe-hi5op
@JoeJoe-hi5op 6 месяцев назад
Ja definitiv. Ich hoffe du bist dir auch sicher dass diese Studiengänge dir Spaß machen werden.
@jrcommander
@jrcommander 7 месяцев назад
Zocken: RTX 2080 Multimedia und OPS GTX 1070 Arbeiten RX590 Old School: Riva TnT2, Mx200, FX 5200, 7600GS, HD 2600 XT, HD 4650, HD 5750, HD 6750, HD 7730, HD 7850, R9 270 (ein Paar davon sind leider Schrott)
@wilmaamthor6978
@wilmaamthor6978 4 месяца назад
Super Erklärung! Nun habe ich eine Frage: Habe einen Gamer-PC und einen AMD Ryzen 7 3700 X 8x3, 60 GHz. AMD Redeon RX 6600 XT 8 GB, 16 GB RAM. Spiele gerade The Witcher 3 Next Gen und meine GPU ist am Limit. Es schwangt zwischen 90 und 100 % 😟Das kann doch nicht normal sein oder? Habe das Spiel schon von der Grafik her, runtergeschraubt. Ist aber trotzdem so hoch. Die Grafikkarte ist doch extra für solche Games gemacht! Ist die defekt? Kenne mich damit leider nicht so gut aus. Wäre lieb, wenn du mir da mal ein paar Tipps geben könntest.
@Florian.Dalwigk
@Florian.Dalwigk 4 месяца назад
Es klingt so, als ob du schon einiges richtig machst, indem du die Grafikeinstellungen angepasst hast. Dass deine Grafikkarte bei "The Witcher 3: Wild Hunt - Next Gen" nahe am Limit arbeitet, kann tatsächlich normal sein, insbesondere bei hohen Einstellungen und Auflösungen. Die AMD Radeon RX 6600 XT ist zwar eine gute Grafikkarte für Gaming, aber gerade die Next-Gen-Versionen von Spielen können sehr anspruchsvoll sein. Hier sind einige Tipps, die dir helfen könnten, die Belastung deiner GPU zu reduzieren und dabei trotzdem ein angenehmes Spielerlebnis zu haben: - Wenn du das Spiel in einer sehr hohen Auflösung spielst (z.B. 1440p oder 4K), könnte das Herunterstellen auf 1080p helfen, die Belastung der GPU zu verringern. - Diese Einstellungen sind oft besonders anspruchsvoll. Versuche, die Schattendetails und die Texturqualität zu verringern. - Wenn V-Sync nicht aktiviert ist, versucht deine Grafikkarte möglicherweise, so viele Frames wie möglich zu generieren, was sie zusätzlich belasten kann. Durch das Aktivieren von V-Sync wird die Bildrate auf die Wiederholrate deines Monitors begrenzt, was die Belastung reduzieren kann. - Stelle sicher, dass du die neuesten Grafiktreiber von AMD installiert hast. Treiberupdates können Leistungsverbesserungen und Optimierungen für neuere Spiele enthalten. - Es ist auch wichtig, die Temperaturen deiner Grafikkarte zu überwachen. Hohe Temperaturen können die Leistung beeinträchtigen. Programme wie HWMonitor oder MSI Afterburner können dir dabei helfen, diese im Auge zu behalten. - Stelle sicher, dass keine unnötigen Programme im Hintergrund laufen, die CPU oder GPU-Ressourcen beanspruchen könnten.
@wilmaamthor6978
@wilmaamthor6978 4 месяца назад
@@Florian.Dalwigk Erstmal lieben Dank für deine ausführliche Antwort 👍 Bei mir laufen nur die Programme, die mein System benötigt. Was mir ab und zu passiert, dass er mir einfach AMD Adrenalin von PC schmeißt. Musste heute wieder neu Installieren. Sehr suspekt das ganze. Habe einen 144 Bildschirm. Meine Treiber sind auch immer auf dem neusten Stand. Meine Bildauflösung ist auf 1080 p eingestellt. Es ist halt echt ärgerlich wenn es so ein geiles Game ist und man muss dann mit der Qualität auf Mittel gehen. Welche Grafikkarte kannst du denn empfehlen für solche Games? Hatte früher immer Nvidia Grafikkarten, damit bin ich immer leichter durch gekommen bei den Einstellungen.
@Florian.Dalwigk
@Florian.Dalwigk 4 месяца назад
@wilmaamthor6978 Ich kann leider keine konkreten Empfehlungen geben.
@ayhanbest1
@ayhanbest1 7 месяцев назад
4070ti ist meine nutze sie leider nicht völlig aus 😅
@t-i-m1673
@t-i-m1673 7 месяцев назад
Geile kI Bilder
@Florian.Dalwigk
@Florian.Dalwigk 7 месяцев назад
Danke
@carisameyer
@carisameyer 7 месяцев назад
Cooles Video hahaha
@Florian.Dalwigk
@Florian.Dalwigk 7 месяцев назад
Danke dir
Далее
HTTP einfach erklärt! #Netzwerktechnik
9:26
Просмотров 10 тыс.
Wie dein Handy überwacht wird - 5 Anzeichen
13:14
Просмотров 131 тыс.
Warum du KEINE teure CPU kaufen solltest!
8:00
Просмотров 97 тыс.
SICHERER als das TOR-Netzwerk?
9:53
Просмотров 25 тыс.
HACKER werden in 2024? So geht's! (Roadmap)
15:57
Просмотров 15 тыс.
PROXY vs. REVERSE PROXY (einfach erklärt)
4:38
Просмотров 7 тыс.