En is maradok a 3080nal... esetleg majd az 50es szeria, ez a frame gen nekem picit olyan parasztvakitasnak tunik... lehet fegimodi vagyom de a nyers eriben meg mindig jobban bizok mint az ilyen szoftveres mokolasban...
Én mezei 4070-et tervezek venni. (Komplett gépcsre keretében) Nem vagyok nagy gamer, nincs 4K-s monitorom csak 1440p-s....az ősöreg 1070-ról a sima 4070 is hipertér ugrás lesz. :)
En pont most vette egy uj gepet es a Tuf 4070 TI Supert vettem bele. Eleg sok varatlan esemeny tortent az osszeszereles alat tigy meg nem tudtam tul sokat tesztelni de az a par amit sikerult lefuttatni eleg meggyozo volt. Amit a tesztedhez hozzatennek informalis jeleggel hogy ami miatt nagyon mas a 4070 TI Super a korabbi 4070 ektol hogy a chip a board meg a hutes is (utobbi ketto TUF eseteben biztos) is egy 4080 ellentetben a korabbi 4070 ekkel amelyek mas chipen voltak. CSak az fogyasztast csokkentettek le a 4080 350W jarol 285W ra a TI Super eseteben. De emiatt minimalis tuningokkal a TI Supar konnyen 4080 kozelebe tornazhato. A TUFom eseteben mivel a kartya hutese is a 4080 ase stressz tesztek alatt is 40 es 50 fok kozott mozgott a kartya, mig a korabbi 3070 em alap allapotban 65 fok korul mozgott es ha hajtottam siman 80-90 re emelkedett. Ami viszont szamomra visszas a tesztelesekkel hogy generaciorol generaciora halljuk hogy csak a 80 90 a 4k kepes kartya de az mar mennyire az aztan kijon a kovetkezo szeria ahol megint ezt halljuk mikozbe meg a teszteleseken azt allitjak pl most a 4070TI Superre is hogy erosebb mint a 3090. Es a 3090 re anno mindenki azt mondta hogy na az aztan az uber 4k kartya most meg a 4070 TI Superre azert mindenki huzza a szajat hogy jo jo de csak limitaltan adott keretek kozott ez meg inkabb az atmenet es csak a 80 meg a 90 4K. Szoval az adott infok kicsit kovetkezetlenek szerintem. Ez nem szemely szerint neked szolt mert te nem mentel bele ilyen melyen csak ugy altalanossagban ezt hallom a tesztek tobsegeben.
Laci... Az 1440p-re a 2K megnevezés helytelen. A 2K a a Full HD-ra használható helyesen - a 2048*1080-as felbontás a 2K, 16:9-re szűkítve 1920*1080. Inkább a QHD, 1440p kifejezéseket használnám a helyedben.
Valójában helytelen az összes ilyen elnevezés. :) 4K-s textúrának a 4096 × 4096-os textúrát nevezzük, de videónál, monitornál, tv-nél jellemzően a 3840 × 2160 jelenti a 4K-t. 2048 × 1080-at sehol nem használunk, a 2048 × 1024 már életszerű textúráknál, viszont itt is 2048 × 2048 a 2K-s, mert többnyire n × n a textúrák mérete. A 2560 × 1440 viszont pontosan a QHD felbontás, tehát ez jó lett volna. Ahogy jó és pontos lett voln a 2.6K is, csak fura, mert inkább 2.7K-val lehet találkozni kameráknál. Amiért viszont mégis jó a pongyola 2K-s megnevezés: 16:9-ben ez az egyetlen 2000-es felbontás, tehát azonnal lehet tudni, hogy a 2560 × 1440-ről van szó. Engem jobban zavart, hogy csak nem volt sem videó render, sem 3D render teszt. Pedig ezek is fontos felhasználási területei ezeknek a kártyáknak.
Igen, 2024 Q4-2025 Q2 mondanak, 2 év fog eltelni nov-dec kor a 40xx szériátol, e tájt szoktak megjeleni így nagyeséllyel megfog. 1. 4090,4080 aztán a népnek a többi, a szokásos. Titan is rebesgetnek (újra, bár eddig is megvolt a 4000 szériánál a hűtőbordáig jutottak) sm,rt, mem sokat fog fejlődni és 3nm fog gyártódni
Én pont ezen a szérián filózok , mezei 4070 vagy a super. Árban azért szinte a duplája azért a +10-15%-ért. Egy sima 4070 már 250 körül kapható,a ti vagy a super meg közel 400. De 450-ért meg már 4080 van. Szerintem az a 10% nem biztos hogy ér +100.000ft-ot. 1440p ami a maximum amin használnám,az ultrawide monitorom miatt. Arra meg szerintem elég a mezei 4070 is,nyílván nem minden játékra , de a cp2077 pont nem érdekel :D
Nyers erőben 4K-ra, mindenféle szoftveres tuningolások nélkül, akkor lenne jó egy GPU (mondjuk az 50-es széria), ha minden szegmens teljesítményét min. 25-30%-al növelnék és a legkevesebb VRAM mennyisége 20 GB lenne. Akkor már valóban erős GPU-k lennének a piacon. Pl.: RTX 5060 20GB-GDDR7 256 bit RTX 5070 24GB-GDDR7 320 bit RTX 5080 28GB-GDDR7 384 bit RTX 5090 32GB-GDDR7 512 bit Így legalább nem kéne a ráncfelvarrásokkal sem foglalkozni. Már csak a Ti Hyper Super hiányzik, és teljes lenne a paletta....🤣
Na ez jelenti azt hogy nem minden az új széria. Rog 3090 oszt jónapot! 24 gb 384 bit. Oké 390 wattot eszik. És? Dlss meg egy gagyi. Pl ha 4 k ban használja valaki akkor végülis nem is 4k csak elhiteti velem konkrétan leveszi a felbontást. Most 2 k vagy full hd ban akkor? Jesszusm sose használom.
én már váltotam rtx3070 röl 4080sper re de eze közül csak 4070ti spuer éri ár tudás arányban mondjuk az más kérdés gigabyte soha nem vennék se vgábol se alaplapbol
Ezek a számok mindegyike téves és fals.. A Fortniteban ezek az FPS számok maximum DX 11-et alatt vannak de nem Dx 12-nél az 10000 % A Cyberpunkos fps is hibás 2k-banm a 91 fps is nem fedi a valóságot ultrán raytracingel és DLSS-el is 60-80 fps között ugrál framegenerationnel megvan a 110-120 is. Onnan tudom rosszak az adatok, hogy TUF-os modellem van.
leakeltek full ad102 szilíciumos titan / 4090ti prototípusokrol 500-550w körüli tdpvel de kukazta a koncepciót az nvidia mert hűthetetlennek bizonyult szóval jelen gen csúcsa a 4090 marad. esetleg megvárod a Blackwell (50x0) kártyákat. DE. ngreedia AI-ra optimalizálta a Blackwell mikroarchitektúrát, tehát ugyanolyan hiány prognosztizálható mint a kriptobummkor. főleg flagship téren
I9 14900K 280w fogyasztással tudtam, hogy kazán. Többet eszik mint a 4070 Ti Super XD. De nem gondoltam, hogy játékok alatt is képes ennyit fogyasztani ráadásul fél kihasználtság mellett. És én azt gondoltam a kis I7 3820 sokat fogyaszt a maga max 140w fogyasztásával xd. Játékra tuti nem vennék 14700 vagy 14600 non k feletti cput. De akkor már inkább R9 7900X3D pl. Veri őket játék és munkában is. Amúgy nekem ez a teljesítmény többlet amit a Ti Super tud valóban csak kicsi ár többlettel érné meg az ilyen +30-40k a reális. Az is inkább a vram miatt. De egy RX 6600-at nyúzok, szóval nekem már a 3080 is megváltás lenne. Mondjuk a GTX 960 után a 6600 is nagy előrelépés igaz, hogy a cpu miatt inkább 1440p felbontáson van értelme jobban használni. De ilyen CoD MW Multi szerű játékokban még ezen a felbontáson is becsúszik bottleneck.
Ez a super elnevezés nagyon cringe, már csak azért sem kellene a Ti-m helyett h kicserélnék ingyen, gáz lett ez a széria-szegmentálás... Szégyellje össze magát az nvidia...
@@nlegend9286 intel+nvidia bérenc vagyok xD és raytracingbe egy körrel van lemaradva az amd (és én ahol csak van kapcsolom befelé mert szeretem) Valamint az fsr számomra borzalmas, dlss minden szempontból jobb.
Hülyék vesznek videokártyából újat. 3-4 évvel ezelőtt 1080 Ti volt érdemes vétel, most a 3080 Ti ( 384 bit bus,12 GB Vram). KB 200-250 k elköltésével. A többi kártya vagy hamar elavul vagy a Ft/ Fps aránya drága. Gondolkozzatok mit hoztok ki a pénzetekből, és mekkora értékvesztés mellett!
És ha a "hülyék" nem vennének újat, a használt miből lesz? Nem a fán nő. Amúgy meg 7800XT. Valamivel gyengébb, cserébe több vram, vadi új, 3 év gari, árban ugyanott van.
@@bajszosjozsef4850csak cseszheti az ember a dlsst ha nem támogatja a játék amivel tolná...nekem is jobban feküdne az Nvidia a szoftveres megbízhatóság miatt de annyival nem jobb hogy közel ugyanakkora teljesítményért fizessek jóval többet 😢
@@feherm Nekem azok a játékok, ahol kellett az extra kakaó(Hogwarts, Cyberpunk) mind támogatta a DLSS-t, így megvolt az atomstabil 60 fps, 0 grafikai anomáliával. DLSS nélkül nagyon kompromisszumosak lettek volna. Hasonló árú AMD kártyával játszhatatlan lett volna azonos grafikai beállítások mellett.