Io avevo già fatto la cazzata nel 2015 scegliendo la gtx970 invece di andare nelle radeon r9 che montavano più vram, tutti dicevano che 4GB (3,5 in realtà) sarebbero bastati per molto tempo ma già nel 2017 la gtx970 veniva castrata dalla vram saturata. A giugno 2022 stufo di aspettare con una disperata voglia di una nuova scheda dovevo scegliere tra: _XFX Merc Black rx6750xt_ nuova da Amazon a 599€, oppure Zotac rtx3070 usata a 720€ da warehouse deals. Le rx6700xt stavano a 580€ e le rx6800 stavano sui 790€. Comprare una scheda con solo 8GB di vRAM oggi voleva dire ripetere lo stesso errore. Quindi sono andato un poco titubante sulla _XFX Merc Black rx6750xt,_ la mia prima scheda rossa. Ora tenendo conto che con undervolt + overclock fa il culo alle 3070ti (di un +4%) dando le pezze alle rtx3070/3060ti, nvidia può andarsi a nascondere nel suo marketing per allocchi. AMD Adrenaline poi è un software _all-in-one_ avanti anni luce rispetto alla casa verde che ha bisogno pure di app di terze parti per fare le stesse cose. 12Gb di vRAM sono il minimo sindacale se vuoi stare tranquillo, ora maxo tutto senza guardare ossessivamente la vram in uso o dover scendere a compromessi nelle texure perché ho finito la memoria su una scheda che dovrebbe essere di fascia alta. _edit: gioco in 1440p a 144Hz al di fuori di cyberpunk l'FSR non mi serve con sta scheda su una media di 50 giochi sta sui 110+ avg fps tutto a cannone (il RT non lo uso). Ho notato però che i giochi più recenti già sforano di poco gli 8,5GB di vRAM in uso. Quindi ecco se avessi scelto una 3060ti/3070/3070ti oggi probabilmente le darei fuoco dal nervoso._
Sto puntando alla tua stessa scheda, non prendo una rossa dai tempi della 7970 (che ho amato tantissimo, tra l'altro). Volevo chiederti, visto che ce l'hai, come funziona la faccenda del undervolt? E' utile, è pericoloso, è complicato? Ho capito che per l'overclock si può fare quello automatico da adrenaline, e ok... ma i voltaggi? Grazie ^^
Tra l'altro, io molto raramente metto a "ultra" nei giochi, faccio davvero fatica a distinguere differenze con high o very high, e pure quanto vedo qualcosina, secondo me il gioco non vale la candela rispetto agli FPS/ram persi. A meno che uno non ha un pc ninja e allora tutto al massimo e tanti saluti, è la prima cosa che abbasso sempre e vivo felice ^^
La risposta è "no arriverderci" ho riso tantissimo 😅 Concordo alla fine dipende tutto dal target finale, io sono passato da una 6600 8gb che usavo per giocare in fullhd e puntare al 2k e per stare tranquillo in ottiche future ho optato per una 6750 xt 12gb, c'è da dire che al momento i casi dove sia richiesta tutta questa Vram sono pochi e come detto da te dipende dai giochi.
@@arditg4429 si, come dicevo la 6600 liscia è per il full con una strizzatina al qhd, la 6750xt il qhd lo mangia e strizzi l'occhio in 4k......A dir il vero io sto giocando sempre in 3200x1800 60 fps bloccati che mi sembra un giusto compromesso per non tirar il collo alla scheda....Ovviamente senza RT che non mi interessa
Il problema non sono le vecchie schede video, bensì le nuove di Nvidia, in quanto pare che la 4060ti avrà solo 8gb di Vram il che nel 2023 è assolutamente inaccettabile
Poi ci sono io che, da bravo Nintendaro, sono tornato su PC solo dal 2020, il mio portatile del 2014 con una Radeon da 2GB di VRAM fa girare Valorant, LOL, Overwatch, e abituato come son stato per anni su hardware e schermo di Switch mi sembra di giocare su uno schermo 4K comunque lmao
Discorso che lascia un pò il tempo che trova. Ho giocato a H.L. con 6550xt e i5 13400f, in full hd tutto maxato e non ho avuto alcun problema.. Per carità, in certe zone (tipo hogsmeade) c'erano dei cali ogni tanto, ma non da compromettere l'esperienza e probabilmente anche dovuti ad una pessima ottimizzazione del gioco . Quelli che pensano ad oggi che 8 giga non bastino più è perché sono solo dei fissati
Con la 6700xt sforo tranquillamente gli 8 giga in molti giochi, ma dipende anche dall'allocazione e dal Sam attivo che tende ad occupare più ram, in ogni caso riesco a maxare texture e tutto senza problemi, non so quanto una 3070 o 3070ti possano reggere ancora
@@Robben86 ho la reference di amd da un anno e mezzo, diciamo che scalda un pò ma sempre entro i limiti di sicurezza, boost sempre attorno ai 2530-2550, anche 2600, dipende dal gioco, ora ho un monitor a 165 Hz e tendenzialmente gioco con cap a 100-120-144, prima ero a 75 Hz e scaldava meno...non è per niente rumorosa
Ho scelto la 7900XT proprio per i 20gb di Vram perchè per me non è possibile fa usci schede nel 2023 da 1000 euro con chip veloci come una 4070 ti con 10/12gb di Vram..
la VRAM - acronimo di “Video RAM” - è quella memoria che viene utilizzata per memorizzare esclusivamente i dati grafici aiutando il computer a eseguire efficacemente attività complesse legate alla grafica. RAM, abbreviazione che sta per Random Access Memory (letteralmente, “memoria ad accesso casuale”) e rappresenta un tipo di memoria volatile direttamente accessibile dalla CPU in cui il computer memorizza i programmi e le informazioni in esecuzione.
Ma ad oggi, giugno 2024, comprare una RTX 4070 Super ha senso? E' la scheda dal migliore rapporto prezzo/prestazioni, però ha 12GB di ram, uno ci potrà giocare anche tra 4 o 5 anni a buon dettaglio grafico magari in 1080p? O starà stretta?
Grazie per la spiegazione. Ho trovato un laptop i9-13000, rtx 4070, 32gb ram e 8vram. Sembra posso giocare bene con I titoli piú recenti, peró mi preoccupa,per il futuro, ma 16gb vram fa salire tantissimo i prezzi 🤔😱
A proposito di Resident Evil 4 Remake, sto notando che con la mia nuova 6650 XT sto avendo sì ottime performance, ma con a caso dei bruschi drop a 12-20 fps in alcune aree casuali del gioco, la VRAM si attesta sui 7,2 GB o a volte 7,7 GB in questi istanti. Potrebbe essere il Ray Tracing il problema? Io gioco in 1080p con tutto Alto praticamente.
I videogiochi già di design sono studiati per funzionare a dettagli tra medio e alto, oltre infatti oltre a migliorare ben poco in alcuni contesti introducono anche problemi e storpiature estetiche. Basta questo per capire che 8GB sono più che ottimali ancora per anni fino al 2K. Chiaro anche che chi compra oggi per il 4K fa bene a preferirne di più.
Io con una 3060TI su resident evil 4 remake in FHD ho notato in effetti un utilizzo della vram superiore anche all 80% a dettagli alti e non so se per quello ho riscontrato un crash con errore fatal D3D che ho visto è successo anche ad altri
Grazie per il video. Comunque sia pazienza, io con la mia 3080 10gb sono "borderline", all'occorrenza si abbasseranno i dettagli da ultra a alto o nedio, non muore nessuno comunque e si gioca bene lo stesso.
Ciao Marco, ottimo video, come sempre; purtroppo il discorso "la VRAM non impatta sulle performance" non lo si può più fare... in base a diverse condizioni quest'ultima può avere un impatto rilevante. Forse tanto Nvidia con la 3060, ma soprattutto AMD con i 16 GB di VRAM, ci hanno visto molto lungo? A questo punto penso proprio di si 😅
Guarda non saprei, so solo che con la serie 3000 Nvidia di cavolate ne ha fatto un bel po. A prescindere dai prezzi da quello che è successo...sono schede che hanno avuto problemi un po' di tutti i tipi e nonostante le buone prestazioni non è una gen che oggi guardo con ammirazione. La 3070 all'epoca doveva costare 499$ ricordi? e magari 8GB di ram ci stavano pure. Il problema è che così nn è stato...doveva essere una gpu dalle performance top ad un prezzo contenuto per tutte le fasce.
Io, a dispetto dei vostri consigli, ho preso da poco una RTX 3060 Asus dual, pagata€ 390. Le equivalenti AMD costavano un 10% in meno sta gran convenienza la vedete solo voi, ma per me che ci lavoro non interessa una differenza del 10% a fronte di problemi indesiderati di alcun genere.
Se posso essere sincero, io sono uno dei pochi che la 3060 l'ho inserita anche in alcune build. Il prezzo attualmente è sceso questo è ovvio, fino a pochi mesi fa a mio avviso era fuori mercato. Inoltre io stesso ho avuto la 3060 con i suoi 12GB nel mio pc per quasi 1 anno...dato che ci faccio principalmente video editing e rendering e non mi andava di prendere gpu costosissime. Per me non hai fatto male, soprattutto se la tua priorità non è quella di giocare e basta. Amd in ogni caso ha i suoi encoder video H264 e H265 quindi in teoria anche quelle non sono da buttare...ora non so tu di cosa ti occupi ma per me ci sta.
Per comparare si potrebbe fare 3070 vs 2080Ti. Oppure moddare la 3070, mi sembra che siano state in passato mods in cui saldavano i chip di memoria per aumentare la VRAM, non sarebbe male se uno di questi modders facesse umdei test fatti bene.
@@monikaguerra non proprio. Fosse costata 700-800 euro si. Per 1200 euro era ed è pura follia. Molto meglio aver speso i soldi per una 2080 e poi una 3080 che la stessa cifra pernuna 2080Ti
io non la ho presa (monto una 4080 ora) all'epoca montai una 2070 perchè avevo dovuto rifare completamente la build! ma comunque apparte che la puoi aver comprata a poco come hanno fatto amici pre 3000 (a 500) comunque per quanto mi riguarda best gpu ever (ora la prendi a 250-300 ed è un mostro ancora) vedendo come si è comportata in tutti questi anni fino ad oggi la avrei dovuta prendere anche la founders..@@Archer_Legend
Argomento interessante 🤔 Al momento acquistare una 3070 ti nuova a questi prezzi conviene poco, per giocare poi in QHD? La versione conviene ancora meno per ovvie ragioni. La 3060 ti si comincia a vedere sotto i 400€, buona no? Ma ha sempre 8gb. Pare un po’ assurdo ma quasi quasi visto che se ne vedono spesso anche sui 360/70€, conviene una 3060 lisci, ha 12 gb, un buon bus e bandwidth, ottimi consumi. Per giocare in FHD, dico io, ma che ha che non va bene? In QHD scala no? Si toccano i 60 fps? E allora che? È lo stesso discorso con le Radeon, sotto i 400€, o si prende una 6700 liscia, o una versione xt, che viaggia meglio si, ma o si trova ad una sottile differenza di prezzo, oppure ben oltre i 400€, prendo la versione liscia (così ho fatto). Lo sbatti di queste Radeon anche le 5000, è che va eseguito un pelo di undervolt. Inutile dir di no, perché in stock decollano dalla scrivania 😂😂. La temperatura “corrente” è buona, ma quella di giunzione in quanti la guardano? Io sono tra quei pochi che sono maniaci, e quando la vedi a 95’ in FHD, bene ma non benissimo. Se superate i 95’ non ne parliamo.
più passa il tempo e più penso di aver fatto una scelta azzeccatissima che quando cambiai vga scelsi amd ,all'inizio stavo puntando ad una rx 6700xt ma poi feci un piccolo sforzo alzando il budget e optai per una rx 6800 che oltre ad avere una gpu migliore ha anche 16gb di vram.
@A_boy_called_Tatore l'ho presa quasi un anno fa in sconto a 650 euro ,quando in quel periodo le 6800 e le 3070 giravano tra gli 800 e i 900 euro. In ogni caso sono rientrato in buona parte del budget poiché ho venduto la rx5700xt quando ancora si vendevano bene. Cmq ti posso garantire che in quad HD con la 6800 gioco benissimo a tutto.
Trovo che ci sia troppo allarmismo, non e' per un gioco che satura un po' piu' di vram (Hogwarts Legacy), che ad esempio la mia 3080 da 10 gb, non vada piu' bene per i prossimi 2-4 anni (ah tra l'altro nel caso di Hogwarts Legacy, e' un gioco appena uscito, quindi in futuro verra' ottimizzato) , chiaro, piu' ne hai meglio e', ma non e' necessario avere 24 gb o piu' come qualcuno dice, oltre i 8 gb va tutto bene, magari dovrai fare un compromesso tra qualita' e prestazioni, ma non e' per questo che solo schede con 12, 16, 24 o piu' gb siano valide, ricordo infatti che la 1650 super a oggi e' ancora una scheda ancora consigliata purche' abbia "solo" 4 gb di vram
Ho in vendita una 3080 da 10gb perché ho preso una 3080ti ma non è per i 12gb di vram che l'ho fatto ma solo perché sono maniaco delle performance, cmq la 3080 và benone in 4k, mai avuto problemi, sarei curioso di provarla su hogwarts legacy e resident 4 che ho attualmente ma sono fiducioso che gira bene a quella risoluzione e in ogni caso si può sempre attivare dlss o fsr tanto in 4k la differenza è minima rispetto che attivare queste 2 tecnologie sul 1440p o sul 1080.. li si vede di brutto il downgrade grafico
@@Uzz1311 i PC non girano in 4k ok bisogna avere un PC adeguato ma la risoluzione vera non il 4k ps5 Xbox e PC girano a 2k il 4k lo fa la risoluzione le smart TV ultra HD 4k in realtà sono 2k non 4k o viceversa
@@MVHardware Grazie mille. Effettivamente nei changelog dei driver video Nvidia o comunque in quello che si trova su internet si parla sempre molto dei miglioramenti fatti per la generazione di schede video più recente in quel momento e non di quelle precedenti e mi sono sempre chiesto se il supporto per quelle si limiti ad un il gioco o l'applicazione funziona senza crashare ed è finita lì, in pratica se sia un supporto solo "di facciata" o meno. Non correlato: ho visto il pacciugo che sta succedendo anche con The Last of Us part 1 e l'uso della VRAM, va bene che quasi certamente ha ampi margini di miglioramento perchè mi sembra sia stato fatto uscire con fretta per monetizzare il fatto che ci sia la serie TV che ha riscosso un buon successo, ma questa ormai sembra essere la norma. Ho visto il tuo video 2 anni fa sulla VRAM e anche quello di qualche giorno fa. Guardando i rumour delle 4060 e delle 4050 Nvidia sembra voglia farsi buttare "under the bus" come dicono gli americani, 8 GB di VRAM con bus a 128-bit e 6 GB di VRAM con but a 96-bit rispettivamente non li vedo per niente bene, se con gli 8/10 GB sulle schede di fascia alta o comunque con target 1440p/4K Nvidia ha fatto un buon lavoro di obsolescenza programmata qua mi sa che stiano facendo il passo più lungo della gamba con schede video che potrebbero avere dei problemi di VRAM sin dai primi mesi dopo il lancio visto che comunque per mal ottimizzazione o meno i requisiti della VRAM sembrano essere in aumento rispetto al passato. Edit: non vorrei essermi espresso male sul discorso dei driver. Non penso tanto che Nvidia con i nuovi driver faccia andare peggio le vecchie schede video sui giochi per cui erano già ottimizzate (ad esempio se la 1080 faceva x fps sul gioco x del 2017 non penso proprio che con i driver nuovi del 2023 ne faccia di meno) ma se Nvidia effettivamente cerca di massimizzare le performance delle schede video più vecchie sui giochi nuovi oppure si limiti solo a quelle della gen corrente ed il supporto per quelle vecchie è semplicemente un si accende e funziona abbastanza bene e chissene di estrarre il massimo.
Ciao mi potresti dare un consiglio? Gioco in full hd con un ryzen 5 3600xt, vorrei prendere una RX 6750 XT oppure mi consigli un'altra scheda? Non vorrei spendere oltre 450 euro. Mi interessa giocare ad alto frame rate
Ciao! Guarda se il tuo target è il 1080p secondo me la 6750XT è na bomba per quello che costa. Soprattutto se non ti interessa l'RT. Inoltre sui tripla A giochi cmq tranquillamente con ottime prestazioni.
avevo una 3060 ti e sono stato costretto a prendere una ARC A770 DA 16GB per poter giocare tutto nei prossimi anni e presente... ormai le 8 10 12 GB non valgono la pena piu. le scelte ottime attualemente sono le radeon rx 16gb o piu e idem per le nvidia da 16 gb in poi... evitate tutte le fasce inferiori fidatevi. da quando ho preso la ARC A770 ho risolto tutti i problemi che avevo dei crash con i titoli nuovi
@@ValentiBruno ci faccio tutto quello che facevo con la 3060 Ti, e su questa mi riesce meglio e va piu veloce, faccio giochi e guardo video in 4k un po di tutto, va alla grande per il prezzo che costa la consiglio mia opinione ovviamente, non ho riscontrato nessun problema rispetto alla 3060 Ti che avevo anzi ultimamente non reggeva nemmeno piu il 1440p ero costretto ad andare in 1080p e con le texture medie...se sei in cerca di una bella gpu buona anche in ray tracing questa e la scelta giusta, oppure parti da una 4080 in su , orientati sulle 16 gb di video. se non ti interessa il ray tracing prova le rx 6800/6800xt in su
C'è la questione direct storage che con forskspoken per via dei caricamenti rapidi mangia anche 16/20gb di vram...e sfruttando la memoria RAM delle schede video per caricamenti iper rapidi...la mossa di Intel dei 16gb non è del tutto scontata sulla fascia media e medio-bassa
la tendenza di mettere molta vram di cui parli forse la hanno amd e intel, ma nvidia continua a darci gpu con ram misurata col contagocce. sembra che la nuova 4060 in uscita non superi gli 8gb e che avrà apposta un bus ridicolo per limitarla.
Per adesso riesco a giocare a 1080p con impostazioni grafiche medio~alte con una 3050ti da 4gb su laptop. Spero di poter continuare a sfruttare questa scheda per i prossimi anni.
Ragazzi parto da una 5600xt che mi sta dando segni di cedimento per gaming 2k 144hz (gioco competitive mi interessa 0 la qualità), per che scheda dovrei optare ?
io cel'ho e dipende tutto dai giochi ovviamente. in 1080p tutto maxato spazia da i 70 a i 120+ fps. tutto dipende da cosa giochi. nessun gioco ha dato problemi di vram
io ho comprato un laptop con 3070 8gb, i7 11 gen e schermo 1080p 360 hz solo un anno fa.... ed ora sono uscite le le 4000, la 13 gen ed ho comprato un monitor 4k. ma io mi chiedo: posso bestemmiare? 😅
Vabbè tu dovevi bestemmiare già all'epoca...quando hai preso un laptop...ahahhahaha. Scherzo ovviamente! Cyrus purtroppo i chip mobili sono già castrati di loro...la 3070 da 8GB che hai tu fidati che va bene per le prestazioni che ha sono sufficienti.
Dipende dall'editing che fai e dai software che utilizzi. Io con 8Gb mi sono trovato un po' strettino...su Premiere con delle sequenze 4K a 60fps. Infatti per un po' ho usato la 3060 da 12Gb e nonostante perdesse qualcosa in fase di rendering...mi sono trovato bene in tutto il resto del lavoro.
Sono d'accordo ma non del tutto... molto spesso i giochi saturano la memoria della scheda video per "ottimizzare" i processi grafici a favore delle prestazioni e non perché serve davvero riempire tutta quella RAM... io ho giocato alla demo di Resident Evil 4 in 4k maxato con 8 GB di RAM (ho la RX 5700 XT Thic III Ultra) e, al contrario dei bench patacca su youtube, ero in media sui 55 fps!! Non so se ho il pc alieno ma garantisco che è così! Hogwards legacy non ce l'ho e quindi non metto parola... ahah Comunque bravissimo nell'esporre i concetti in modo base alla portata di tutti :P
maxato. ma cosa dici? sai cosa significa maxxato?? ci vogliono almeno 18 gb di video per maxxarlo si parla almeno di una 4090, rx 7900xtx al massimo, e tu con 8 gb dici maxxato?? piuttosto dici ( settaggi per la mia configurazione) invece di dire maxxato, nemmeno 16gb bastano per maxxarlo al massimo figurati tu con 8gb... boh
@@mariolamberti-90909 mi aspettavo già la risposta del mr so tutto io ecco perché non commento mai... Maxato vuol dire mettere tutti i dettagli su molto alto/ultra... Non ho modo di poter fare un video e pubblicarlo se no avrei fatto molto volentieri un gameplay... P.s.: lavoro con i PC da quando ho 19 anni (ho iniziato ad 8 con mio padre con msx e linguaggio basic) e ad oggi ho 44 anni... Scusa se ho esperienza al contrario tuo sicuramente! Buona vita
@@Palestrato78 ma ti credi che io non sappia il significato maxato cosa vuol dire?? beh ti sbagli.. riguardo all' età io ne ho 43 di anni e lavoro da molto piu di tempo di te nel settore , sono un tecnico informatico da ben 25 anni iniziai nel lontano 1997, quindi detto questo passiamo al dunque, ti dico che con 8gb è impossibile maxarlo almeno resident evil 4 intendo, tu li avrai messo di tuo piacimento ovviamente tralasciando tutti i dettagli che secondo tè sarebbero maxati ma in realtà non lo sono, ripeto ce ne vogliono almeno 16 18 gb in su per maxare resident evil 4, almeno al mio paese quando parliamo di TUTTO AL MASSIMO si intende tutti i dettagli su ultra e non medio alto ok?? che poi nei settaggi del gioco c'è l'indicatore apposta della VRAM per darti un idea di quanta ram video usi, quindi dai un occhiata li prima di dire MAXXATO...i computer 8 bit li ho avuti tutti tranquillo ho iniziato nel mondo PC nel 1997, ma in realtà a casa mia già c'era chi ci smanettava prima di me in famiglia dagli anni 80 ad adesso...
concordo pienamente con mario, il gioco e di una pesantezza enorme e dirlo che con 8 gb di VRAM sia al massimo sembra una trollata del 2023, ci vuole almeno una 4090 per massimizzarlo e poi dopo possiamo parlare di dire lo provato al massimo.
@@micheleverace forse ti sfugge la potenza della 4090... Secondo me parlate per video RU-vid e non l'avete mai provata (anche se per orgoglio e non essere smentiti sarete pronti a dichiarare di esserne addirittura possessori)... Con la 4090 ci fai 120 FPS a quel gioco... Ennesima dimostrazione dello scrivere per sentito dire... Non risponderò più... Inutile il confronto con chi vuole imporre le sue idee... Ciao ciao
3gg fa riunione (telefonica) con il direttore di un famoso gruppo che per la renderizzazione sta passando dalle macchine in rete ad un server centrale. Stanno facendo i conti con una proiezione dei costi dell'energia elettrica sui prossimi 5 anni per scegliere nVidia o AMD. Un dipendente dell' IT a metà riunione: meglio prendere schede video con più di 12 GB !! (tono assolutistico). DOmanda ( di tutti, un po' sbigottiti, pensando: questo ne sa a pacchi): perché?. Perché i motori grafici stanno peggiorando, guardate anche con i giochi cosa sta succedendo. Brusio. (Mi hanno raccontanto che lo hanno confinato in una stanza a giocare con il Z80 perché il mobbing in Italia non è legale) :D
Secondo me nel futuro i giochi spingeranno sempre più sulla vram. Alla fine i chip piu di tanto non riusciranno a scendere con i nm e pure il clock piu di tanto spingerlo in alto non ha senso la vram potenzialmente la puoi usare in diversi modi e quindi alle software house converrà spingere sulle texture
non ci giriamo attorno la soluzione è la 6750 xt spendi 100 euro in più e giochi almeno in 1440p a tutto e sempre al massimo..io da possessore di una 6650xt me ne sono accorto quindi ho deciso di venderla e prendere la 6750xt
Ma guarda sono sincero, secondo me la questione degli 8Gb non è una situazione pregiudizievole su una 3070. E' una gpu attualmente ottima per giocare in 1440p e su tanti giochi anche oltre. Nel video parliamo ovviamente di giochi pesanti, di titoli usciti da pochissimo che sono un po' un estremo. Dall'altra parte ci sono decine e decine di giochi che invece sulla 3070 ci girano benissimo. In ogni caso se ti sentivi di fare questo upgrade hai fatto bene non c'è che dire.
@@MVHardware esatto Marco. Anche se con la 70 ci si poteva restare ancora un po’, ho voluto fare questo salto per beneficiare dei giochi pesanti alle alte risoluzioni senza sacrificare nulla.
State facendo passare Nvidia come incapace di fare schede video!!!in una GPU nn conta solo la vram ....allora una 3060 liscia con 12 GB vá più di una 3070ti 8gb?certo che no!!!la 3070ti e anche la futura 4060ti anche se hanno solo 8 GB sono ottime per il 2k e dettagli alti per ancora anni ..il problema non sono le gpu ma i giochi che vengono fatti male
Vi dico la mia se avete una vga cn 8 GB per il fhd che si affaccia al 2k dormite sogni tranquilli per ancora un bel po' se dovete acquistare una scheda con uno sguardo al futuro andate almeno Di 12 GB . In full hd 8 GB sn il minimo sindacale in 2 k in rari casi iniziano ad essere stretti .
La tua osservazione è giusta a mio avviso, l'ho detto anche nel video che per chi possiede una 3070 oggi...alla fine problemi grandi non ce ne sono. Certo...quanta più Vram c'è meglio è....e i giochi sembra proprio che ne facciano ingordigia a prescindere da quanta gliene serva realmente. Io come detto non mi allarmerei troppo...anche se il problema penso sia solo rimandato di 6/12 mesi con questo andamento.
Ovviamente intendevo la 6750XT dato che, se segui il discorso, parlavo di GPU simili ma con più Vram. La 6650XT ne ha sempre 8GB quindi è palesemente un errore mio. Sono dislessico perdonatemi...con AMD specialmente mi confondo in continuazione.
@@Mar0_1985 diciamo che l'ho presa anche per il nome certo, ci ho anche pensato di aggiungere sul backplate due lineette bianche con un pennarello uniposca
Perdonami eh...per carità tutto giusto. Ma giocare a Hogwarts Legacy con la 1660 super in 1440p...e poi attivare l'fps...vuol dire che stai giocando manco in 1080p probabilmente. Queste gpu sono buone ancora per un fullHD senza pretese, ma è ovvio che qui sei limitato a prescindere dalla VRAM, che credo sia l'ultimo dei problemi nel tuo caso. Pure se ne avessi 12 sulla tua 1660 super probabilmente non te ne accorgeresti nemmeno.
Ma in realtà non è vero...io ho la 4090 Tuf e questi giochi girano perfettamente in 4K ultra oltre i 100fps...non so dove lo hai visto che fanno 50fps su una gpu del genere.
@@MVHardware si come Tlous... Un conto è parlare di tecnologia un altro di giochi, su PC... i giochi hanno stuttering Cali di frame mala ottimizzazione e spesso anche il famoso raytracing non serve praticamente a nulla nei giochi stessi anche fatti bene... Alla fine sono tutte schede potenti che non possono essere sfruttate al massimo perché gli attuali giochi o non lo consentono o vengono fatti così male che piange il cuore... Wo long un altro gioco che puoi avere anche la 4090 che tanto ti gira male o ti dimezza i frame che dovresti avere..... In questo momento gli unici che ci guadagnano sono chi ha le 3060 e le 3060ti, basso consumo, e si gioca a tutto in 2k a60 fissi almeno per la 3060ti... se però ci si accontenta dei 30 in 2k o degli illimitati frame a 1080 maxati con la 3060..non c'è mai stato un periodo migliore vedendo quello che offre il mondo videoludico attuale coi suoi prodotti e le sue qualità scadenti. Poveretti chi ha speso il triplo per le 3090 e oltre per ritirovarsi giochi sul mercato, che non sfruttano nemmeno metà del potenziale di quelle schede