Bei den aktuellen Stromkosten gibts dann halt für den Rest des Monats nur noch Kartoffelsalat aus dem Eimer. Man muss ja schließlich Prioritäten setzen.
Versucht ihr, euch ne galax 4090 HOF(sobald sie erhältlich ist) zu organisieren? 2x 16pin und 1275W powerlimit und ein bereits bestehender Rekord, wären doch ne Motivation
Habe auch das gleiche Problem mit meiner 4090 RTX das ich nur eine Anbindung von 8 habe. Verbaut ist ein 13900K und das Z790 Aorus Master mit 6400 RAM von Trident Z5.
die karten gehen echt noch so von der hitze, meine 3090 damals ging mehr ab als ich 500w bios draufgehauen habe, das hat sich legit angefühlt wie ein 1000w raumheizer
Heizen über elektrischen Widerstand macht halt null Sinn, von der Energieeffizienz her. So teuer kann das Gas kaum werden. Die Karte tut wenigstens was für dich, und du kriegst die Wärme halt als "Geschenk" (im Winter...) nebenbei.
An alle und auch an Roman!!! Das PCI-Express 8 Lanes Problem ist ein Bug vom Mainboard und ist bereits bei den Mainboard Herstellern bekannt! zB: Asus bietet bis jetzt "nur auf Support anfrage" (warum auch immer) für das jeweilige Mainboard ein Beta Bios an was dieses Problem behebt.
@der8auer Überprüf mal im bereich des PCI-E x16 anschlusses die einzelnen Kondensatoren die an den Lanes hängen sollten 32stück â 10nf sein. Meist findet man diese auf der rückseite fehlt dort einer im hinteren bereich läuft die karte nur noch in x8
Wenn so eine Karte nur noch mit PCIe 8x läuft, dann ist das (vom Board) ein Fallback-Modus, weil nicht alle 16 lanes erkannt wurden. Vermutlich ein Hardwareproblem. Ein Bauteil abgerissen oder die GPU hat einen BGA Bruch. Jedenfalls fehlt da eine (oder mehr) der 8 fehlenden Lanes. Hatte auch schon Karten, die nur noch auf 4x oder 1x liefen. Und das dann auch nur noch auf den Boards, die ein Fallback erlauben.
In meiner gut isolierten Wohnung wirds schon mit meiner 2060 bei max. 200w selbst mit Fenster auf Kipp schnell warm, das ist einfach nur krank wie viel Leistung die 4090 fressen kann. Die kann dann auch eine Sauna beheizen.
@der8auer: bzgl. der Bandbreite und falls noch nicht geschehen a. schau bitte mal in der Systemsteuerung -> Energieoptionen -> Erweiterte Energieeinstellungen ändern -> PCI Express -> Verbindungszustand-Energieverwaltung -> auf "aus" b. irgendwo im NVControl-Panel (hab keins, da keine NVIDIA-Karte): 3D-Einstellungen -> 3D-Einstellungen verwalten -> Global Settings -> Energieeinstellgunen/Grafikleistung (oder so) -> dort auf höchste Leistung/maximale Performance dann kann es sein, dass die Karte immer im maximalen Modus "x16 4.0 läuft"
Das Problem mit der 8x Anbindung hat ein Freund mit seiner erst erworbenen 6800XT Lenovo-Legion Edition auch. Seine alte 5700XT läuft beim Test mit 16x nur die neue Karte nicht. Wäre interessant und hilfreich wenn jemand weiß warum die Karten wie hier auch einfach von 16x auf 8x dauerhaft runter geht.
Hatte ich nachdem ich meine neue RX 6800 eingebaut habe auch, nur über 8x angebunden. Aber im Endeffekt war das Problem relativ simpel, es war wohl beim Umbau Staub/Dreck in den Slot gekommen bzw. Die Karte saß nicht richtig im Slot, wodurch einige Kontakte nicht erkannt wurden. Karte nochmal ausgebaut, alles ausgepustet und sauber gemacht und wieder eingebaut, diesmal dann auch drauf geachtet dass sie richtig sitzt. Und schon lief sie dann doch normal mit 16x 😁
@@drshepherd6567 die unteren Slots sind aber meisten physisch nur mit 8x oder sogar nur 4x angeschlossen, auch wenn sie rein mechanisch 16x Anschlüsse sind
Er hat ja anscheinend auch schon ein anderes Board ausprobiert. Also wenn es ein "physisches" Problem ist, müsste das dann ja wohl an den Kontakten der Karte selbst sein. Da würde ich aber denken, dass es die schon kontrolliert hat und zumindest mit bloßem Auge nichts feststellen konnte.
Moin! Ich fände ein Rekord oder ein Wettbewerb mit ein paar RU-vid Kollegen in die andere Richtung, also so effizient wie möglich sehr spannend. Zum Beispiel wer schafft mit einem max. 500 Watt System die meisten FPS bei den üblichen Spielebenchmark. Undervolting usw ist erlaubt. Stickstoff würde ich mal rauslassen. Denke das wäre für viele Interessant das eigene Systemdanach dann auch noch mal etwas zu optimieren. VG und mach weiter so!
AD:Zu hohe Heizkosten? Ein Netzteil, eine Grafikkarten. Nvidia schöner Heizen schon heute. Kalt in der Wohnung und langeweile? Intel: wir bringen spass und warme gedanken.
Habe das Phänomen mit den PCI-E Lanes ebenfalls bei einer RX550. Die sollte ja eigentlich mit x8 angebunden sein, aber meistens ist die X1 X2 oder auch Mal x4 mit Gen 1 angebunden und total unbenutzbar. Selbst Windows funktioniert dann nicht richtig. Konnte bisher auch nicht das Problem ausfindig machen, da ich auch alles ausgetauscht habe und nichts funktioniert hat. Ab und zu hatte diese mal funktioniert.
Glaub ohne ln2 ist oc bzw volt erhöhen genauso sinnlos wie bei Rtx30, Luft oder Wasser egal Die verlustleistung steigt aber die eigentliche Leistung nicht, man verbrät nur die extra 0,3vcore
einfach nur krank die karte. ich freue mich schon auf ln2. wie viel hält dein kleines messgerät aus? stirbt das bei 1000W? kann es 1000W anteigen oder ist nur eine dreistelllige anzeige möglich? eine unterstützung für dich war mal wieder fällig (fellig)
Bei xoc scheint nochmal einiges mehr möglich zu sein. Bin gespannt auf deine Ergebnisse und setup. Ist der Discord öffentlich oder nur über Patreon erreichbar?
Zu PCIEx8, schau dir mal den Thread auf Hardwareluxx an: "ASUS TUF Gaming GeForce RTX 4090 OC und PCIE x16 3.0 Problem". Ist wahrscheinlich ein BIOS-Problem.
hatte ich mit meiner 3090FE auch mal nach WaKü Umbau, hab sie einfach neu gesteckt und den Grafikkarten-Halter etwas weniger stützend eingestellt und es waren wieder x16, liegt wahrscheinlich am Slot...
haben die doch auch normal nich, mein pc läuft während ich hier schreib bei 100 watt. bei furmark zieht das board so 320watt und das bleibt auch so wenn ich z.b. CP2077 anschmeiße. du bestimmst doch wieviel leistung die karte ziehen darf
Echt krank was mit der Karte möglich ist. Die 4090 hat so viel Leistung, OC lohnt sich fast gar nicht mehr, nur um 2-3 FPS mehr zu haben für so viel Leistungsaufnahme. Ich bin mal gespannt was mit Flüssigsticksoff möglich ist
@@StephanPluemer wäre es nicht einfacher einfacher Powertarget auf 80% zu setzen? oder noch besser FPS begrenzen in den Games? ich meine alles deutlich über den Hz des Monitors ist sowieso unnötig. Hab zwar nur nen Ryzen9 3900X aber trotzdem erreiche ich selten >350W
@@theplayerofus319 Power Target reduzieren ist nicht gleich runtertakten. Am Ende sinkt zwar der Takt ein bisschen, aber der Stromverbrauch sinkt mehr als wenn man einfach den Takt reduzieren würde
@roman siehst du den kleinen Steck bei der 4090 nicht als Problem? Bei den Wattzahlen jetzt bis 1000 Watt durch das kleine Ding. Ja die Kabel sind dick aber die kleinen Pins das kann doch nicht gut gehen. Könntest du mal deine Meinung dazu sagen. Gibt bestimmt genug Leute die das Ding unter Wasser setzen und bei 600 Watt anschlag laufen lassen bei 4K Gaming und das dann 6 oder 10 Stunden am Stück. Hab da irgend wie bedenken
bisher sehe ich da kein wirkliches Problem. Es gibt eine große Anzahl an Vermutungen was zu einem Problem führen könnte, aber bisher konnte niemand schmelzende Stecker reproduzieren. Auch nach Rücksprache bei Caseking sind keine verbrannten Stecker bei deren Kunden bekannt. Daher tue ich mich schwer das als großes Problem zu betrachten bzw ich warte bis man wirklich ein Problem identifiziert hat.
Die Kabel und Stecker müssten 1000 W problemlos führen können. Ich vermute stark, dass bei den Leuten mit schmelzendem Stecker der Kontakt nicht perfekt war, was dazu führt, dass Strom nur durch eine kleine Kontaktstelle fliesst und sich aufheizt oder sogar über einen Plasmabogen rüberspringen. Aber wenn der Stecker richtig Kontakt hat kein Problem. Ich vermute der Stecker ist einfach schlecht designed und führt je nach Winkel zu ungenügendem Kontakt.
@@der8auer das Thema mit den schmelzenden Stecker wurde geklärt. Die äußeren Leitungen sind technisch schlecht verlötet und brechen bei zuviel Biegung einfach auf. Ist super in Igor‘s Lab erklärt, falls noch nicht bekannt.
@@der8auer Danke für die Antwort wenn die Karten mal verfügbar sind werd ich mir eine holen dann gibts bestimmt auch ATX 3.0 Netzteile von Seasonic und co und keine Adapter Kabel mehr.
Die Zeit ist absehbar, in der wir unsere Grafikkarten über ein eigenes Netzteil, das an wiederum ein AKW angeschlossen werden muss, versorgen müssen. Nächster Schritt 5KW Netzteil und dedicated Socket mit separater Absicherung in der Hauselektroverteilung für die Grafikkarte.
Also das mit dem thermal bei den gpus, nervt eh total. Wenn ich überlege du hast eine Karte die vlt. Max 80 Grad warm wird und eine feste Spannung hat, wird sie halt auch nicht wärmer. Trozdem senkt sich der takt. Was im benchmark total kacke ist und im gaming hat man dann den höheren takt anliegen, was natürlich nicht wirklich auf Stabilität getestet werden kann. Sowas brauch ich für meine 3080 ✌️😅
Die Leistungsaufnahme ist einfach krank... direkt n Grund mir die niemals zu kaufen :D Aber sag mal, bist du sicher das die mal x16 angebunden war vorher? Kollege hat ne 3050 die ist wohl auch von Haus aus auf x8 limitiert?
mein Powerlimit bei genau dieser karte liegt bei 133 %Stock Kühler:_)tolles Video!(musste natürlich erst mal frei gegeben werden aber,ein mal gemacht zack karte ist offen:)
Hab unter dem Video zur inno 3d 4090 frostbite die Frage gestellt ob das Powerlimit in Hardware gegossen ist oder es ggf. durch ein Firmware Update aufgehoben werden kann. Dieses Video hat wohl meine Frage beantwortet. Jetzt hoff ich mal inno wird da was nachreichen an Software. 😁
Dieses bios sollte nun wirklich keiner benutzen außer extreme overclocker... auf dauer mit der erhöhten Spannung sicherlich schädlich. Inno wird da nix machen.
Wahnsinn, 700 Watt durch eine Grafikkarte !!! Könntest du bitte beim nächsten Overclocking bei der RTX 4090 die Temperatur am Stecker messen. Danke für die vielen coolen Videos. 😀
"Ihr wollt sicher keine 700 bis 800W Leistungsaufnahme im Alltag". Sag das mal den Leuten, die sich vor 5 Jahren 4x GTX Titan Black in den Rechner geschraubt haben und auch ca. 1000W Leistungsaufnahme hatten. Ich weiß das 4x250W anders ist als 1x 1000. Trotzdem bleibt die Gesamtsumme der Leistungsaufnahme auf dem Papier gleich.
Habe heute entdeckt das meine wassergekühlte 6900XT auch nur auf 8X läuft. Kann jetzt nicht mit Gewissheit sagen ob es zuvor auf 16X lief. Aber eigentlich schaue ich mir alle Daten nach Einbau einer Karte an. Daher gehe ich davon aus das es zuvor auf 16X lief. Der Treiber scheint aktuell auch nicht richtig zu laufen. Auch nach Installation eines anderen Treibers nicht. Werde diese Probleme weiter beobachten.
Sehe schon Roman hat a entweder vor seine Bude in Brand zu stecke(r)n, oder aber für den Winter gewappnet sein und all das mit der Ausrede Ln2 verwenden zu dürfen *g*
Hatte das selbe Problem mit meiner GPU, ich konnte im netz keine hilfreiche Lösung finden. Hab dann als letzte Möglichkeit Denn CMOS Resettet durch zuführen, danach lief die Karte wider x16 :D
Wahnsinn was da an leistung durch geht! Aber der nutzen ist trotzdem so gering. Für den alltag einfach auf normalen setting mit oc setzen und gut ist! ✌️
Wenn wir schon mal Wasserkühlungen sind, was ist eigentlich mit 3M Novec, ist das Produkt ausgestorben, oder entsteht da noch was ? Fand es eigentlich immer ganz interessant einen pc in flüssigkeit zu tauchen . Grüße Kevin
Das x8/x16 Problem hatte ich bereits mal bei einer Strix 1080. Leider kann ich nicht sagen, was Asus gemacht hat, weil ich die damals glücklicherweise wegschicken konnte.
@Roman... ich kapere mal wieder das Video wegen dem AM5 Delidder und Direct Die Frame ;-) Wird dem Frame eine Backplate beiliegen und/oder wird man die originale AM5 Backplate nutzen können. Ich frage mich halt wegen Kompatilibiltät zu Wasserkühlern. Kannst Du irgendwelche Wakü-Blöcke für AM5 Direct Die empfehlen?
Aufgrund das mein Prozessor ein altes Stück ist lohnt sich die Karte halt leider für mich nicht so wirklich trotz oc :/ aber sehr interessantes Video^^ Danke
Ist das beim OC-BIOS der 1080 Ti auch so, dass es da keinen Schutz mehr gibt? Zumindest ist angeblich das Power Limit komplett aufgehoben und die Spannung haut's mir fix auf 1.1V, was mir etwas zu viel war. Zum einen bringen Spannungserhöhungen nur minimste Takt Erhöhungen, zum andern habe ich gelesen, dass diese GPU bei 1.1 V dann nicht sehr lange hält. Stimmt das? Find ich merkwürdig. Und mal abgesehen von Leistung & Temp.
@der8auer Hatte das zuletzt auch (RX 6600 XT) und mich gewundert, dass weniger PCIe Lanes genutzt werden. Das ist aber ein Stromsparmechanismus. Nutze die Karte unter Last, dann wird die auch mit 16x angesteuert. Bei dem "?" Symbol neben der Anzeige in GPU-Z kann das Tool das auch kurz evaluieren, aber dazu muss trotzdem währenddessen FurMark etc an sein. Ein bisschen Banane. Gruß Nobbi
und dann kommt jmd wie meine Wenigkeit daher, der CPU und Graka soweit drosselt, das die unter Volllast auf max. 50°C kommen :D wobei ich gestehen muss, das ich mir ab und an auch mal BIOS/Software fuer Undervolter wuensche..... klar fasziniert mich das Overclocking und das Spiel mit den Zahlen. und ich fieber insgeheim auch bei jd Versuch mit..... aber fuer mich daheim? da muss das System am liebsten 30°C bei ACValhalla unter max. Details (und Streaming, hunderte FiFo-Tabs usw) haben :D
Muss der PC eigentlich aus sein, wenn man den Bios-Switch betätigen will? Meine Vermutung ist, das mans auch im eingeschalteten Zustand machen kann und die Graka das Bios einfach erst nach nem Neustart ändert.
In welchen slot sollte man denn die Nvme packen um da nicht die lanes für die Grafikkarte zu blockieren? Geht um ein z690 msi a pro Mainboard und ein mögliches Upgrade auf eine 4090. Thnx
750 watt leistungsaufnahme immer noch mit dem 12pin stromstecker? wird das nicht zum problem? wenn man hört das der stecker sich schon bei stock leistung teilweise brennend verabschiedet
Ich habe die RTX 4090 Asus Strix OC und das Asus ROG Crosshair X670E Extreme. Bei dem Board ist es der Fall, dass der zweite M.2-Slot standardmäßig im BIOS deaktiviert ist und wenn man ihn aktiviert, wird die Grafikkarte im ersten Slot von x16 auf x8 gedrosselt. Finde ich saublöd. Wenn ich keine SSD in Slot zwei oder keine PCIe-Steckkarte verbaut habe, um dort eine weitere SSD einzubinden, läuft meine Karte allerdings mit der vollen Geschwindigkeit. :)
@@michealbart4240 Ich hatte Glück, da ein kleinerer PC-Laden in meiner Umgebung (München) eine Karte bekommen hat (ja, genau eine!) und ich mich rechtzeitig gemeldet habe. :) Auf der Asus-Webseite war sie Anfangs auch kurz das eine oder andere mal zu bekommen. Man musste aber schon seeehr schnell sein.
Das mit 8x angebunden meine ich mal Gelsen zu haben, das es nen bug im Treiber ist. Treiber runter putzen und neu pushen. Ggf mal ne ältere Version installieren. Ja Wechsel hin und her der graka, aber jedesmal wird sie ja erkannt vom Treiber, der evtl den bug beinhaltet. Also runter damit, älteren drauf und gucken
Ich hab bei meiner MSI RTX 2080 Trio das selbe Problem mit der PciE-Anbindung. x8 statt x16. Habe auch schon alles mögliche versucht ,leider ohne Ergebnis. Wenn das Problem in Zukunft gelöst wird, wäre ich sehr dankbar für ein kleines Video . :D
Bei deiner Karte wird es evtl. an der Karte liegen. Wenn Mobo und CPU schon geprüft worden sind. Häufig ist es ein abgerissenes SMD Cap am Slot der Karte.
@@gerrepair7862 Vielen Dank für den Hinweiß!! ich hab ne SMD cap abgerissen. Ohne deine Hilfe wäre ich niemals dahinter gekommen. Vielen Dank nochmals :)
8x Anbindung: Viele Hersteller haben Angst vor Roman und bauen einen Anti-BAUER Chip an versteckter Stelle ein. Wenn Roman mit seinem Kopf zu nahe kommt, reagiert der Chip. 😉
Ich hoffe NVIDIA wird niemals auf dieses Video aufmerksam. Sonst kommen die noch auf die Idee, dass 1 Kilowatt für die kommenden Grakas ganz geil wäre.
ich habe noch eine zotac 1060 6gb in meinen pc mit einen power limit von 120 watt und in satisfactory (3d unreal engine 5 spiel) unter linux auf steam mit proton sind 50 bis 60 fps der durchschnitt und mit mein fullhd 60fps monitor von fujutsu ist das genug
In Bezug auf die Pci-express Probleme, ich habe aktuell ein ähnliches Problem feststellen können bei mir jedoch taktete die Schnittstelle nicht mehr runter und auch die Taktraten der GPU nicht nach dem Spielen was zu einer erhöhten Leistungsaufnahme im Idel führte ca 100 Watt ich hatte auch schon Support Kontakt mit Nvidia diesbezüglich, was erstmal das Problem leider nicht löste, ich selber konnte dem Problem entgegenwirken indem ich den älteren Treiber 517 installiert habe es scheint aktuell Probleme mit 522 und 526 zu geben laut Nvidia support vielleicht schaut ihr mal nach ob ihr ähnliches feststellen könnt vor allem schockierend ist halt die idel Leistungsaufnahme von über 100 Watt ist ja aktuell nicht gerade kostengünstig der Strom😁 übrigens hat das nicht runtertakten dazu geführt dass auch die Lüfter der Grafikkarte im Idle nicht ausgingen, dadurch habe ich es erst gemerkt dass es ein Problem gibt vielleicht habe ich damit jetzt jemanden geholfen der ähnliche Probleme hat😉 Gruß Manuel alias quick and dirty. 3080ti owner.
Liegt es an dem letzten Nvidia Treiber (526.47)? Meine 3080 taktet auch mit dem nicht sauber runter (bevor hotfix) mit dem 522.25 geht das wieder 😉 NACHTRAG: Mit dem Hotfix (526.61) taktet meine Karte auch wieder sauber runter 😀
Die Energiekriese ist da und die Hersteller kommen mit solch krassen Verbrauchs Hardware 😱? Ist klar daß ich mit 1000ps alles vom Teller ziehe anstatt efficienten ca. 150ps.