Mogłeś dodać na początku, że to jest dla świeżych kart. Człowiek myśli, że ma starszą kartę i może jakoś sobie FPS'y poprawić, ale to nie dla psa kiełbasa XD To jest dla ludzi którzy mają nowe i drogie karty z dużą ilością FPS'ów żeby mieli jeszcze więcej XD
ale to na słabszych kartach ucinasz detale aby mieć ok 60 natywnie. Nie mniej - zgodzę się - generatory działają najlepiej jak bazowo masz sporo klatek, bo wtedy nawet jeśli generowanie coś psuje w obrazie, to przez ilość klatek nie tak łatwo to zobaczyć. Z tego względu nabierają sensu monitory 160Hz+, gdzie jeśli gra wypluwa 80-90 klatek, dublujemy je i mamy powyżej 150 to nadal łapiemy się w zasięg VRR, a obraz no będzie całkiem przyjemny.
@@decorator21 Ja obecnie używam lossless scaling na bazowo 80fps. Obraz czasami wypluwa artefakty ale w grach które nie wymagają szukania pixeli działa bardzo dobrze
Używam na GTX1070 (i7 7700k - 4.8 Ghz na sztywno) w MSFS2020 i niewyobrażam sobie latania bez tego. Fenix A320/VATSIM/1080/FPS lock na 37. Działa świetnie.
Świetnie, test generatora klatek od AMD i Nvidii na pewno się przyda. Jeśli chodzi o upscaling, sprawa jest dość jasna, ale przy frame generation sytuacja niezbyt. Warto byłoby też rozwinąć temat, dlaczego FG od zielonych czasem zamiast podwajać liczbę klatek, daje tylko kilka procent więcej klatek, szczególnie na kartach z 8 gb vramu
O Lossless Scaling wcześniej wiedziałem tylko tyle, że jest i co mniej więcej robi. Niedawno zacząłem grać w Dark Souls Remastered, który ma lock na 60fps. Twoje materiały przyczyniły sie do tego, że kupiłem LS i muszę przyznać, że te 27 zł było warte efektu. Gra z generowanymi klatkami jest znacznie płynniejsza, artefaktów nie widzę.
AFMF nie działa w starszych API [DX9]. Loseless omija ten problem. Trochę brakowało tego zdania w podsumowaniu. Ale fajnie że jest wybór, fajnie że AMD działa i próbuje ten algorytm poprawić.
Szkoda że już nie wystarczy mieć świetną kartę, komputer itp, jeszcze trzeba się bawić w „ulepszacze”. Takie rzeczy powinny powstawać przede wszystkim dla kogoś kto ma słabszy czy stary sprzęt i nie stać go na nowe podzespoły.
Co nam zostalo jak najnowsze tytuly nawet z RTX4090 potrafią wycisnąć ostatnie soki a i tak w 4K macie 30 FPS 😂😂😂 bez tych polepszacze i generatorów 😂😂😂
Ciekawie by było zobaczyć porównanie w większej ilości gier First-Person (np. Ultrakill) oraz także testów gier 2D, na przykład Dead Cells (są zaskakująco wymagające dla integr)
Nieważne jak to nazwiemy to nie mamy obecnie grania w 4k 120fps tylko 1080p i 60fps. Przypominam że większa ilość klatek to nie tylko wyższa płynność ale też nisze opóźnienia. Ostatecznie stoimy w miejscu z technologią a nawet się cofamy.
Co ty za głupoty wypisujesz. :) Oczywiście, że technologia idzie do przodu i to znacznie. Zarówno sprzęt jest mocniejszy(ostatnia generacja przyniosła wzrosty mocy obliczeniowej nawet o +50%) jak i gry wyglądają coraz lepiej. Teraz na średniopółkowej karcie spokojnie pograsz w 1440p, czy 1440p+. Zejdź na ziemię i przestań patrzeć na cyferki.
@@olof1pakogwarantuje Ci ze tsmc na to nie pozwoli. Załozymy się ze tdp bedzie bardzo podobne co obecnych wersji? Ps. Rtx 4090 450w wykorzystuje dopiero w 4k i to nie we wszystkich grach. Obecnie kazdy procesor ma lekki bottleneck na tej grafice i srednio w 140p 350w pobiera. Takze nie przesadzajmy. Poza tym na 4k nowe gry? Litisci. Wukong na rtx 4090 natywnie 22klatki z włączonym rt. Nie ośmieszajmy sie. Przyszłoroczne zarowno amd jak i nvidie do 1440p to będą overkille, ale do 4k jeszcze trzeba poczekac by realnie grac natywnie w 4k. Jesli kogos upscalling nie interesuje. Choc fakt widac ze niektore nowe gry na upscallingu mają o dziwo lepszą jakosc niz na natywnym 4k co jest zastanawiajace.
Mnie jeszcze LSFG nie przekonuje, szczególnie przez te artefakty UI (np celownik), znikająca głowa w grach tpp (elden ring, wiedzmin 3 przykładem). Potencjał jest ogromny, bo opóźnienia nie są aż tak złe, tylko właśnie to te artefakty są najgorsze. Ale też samo to, że można tego użyć na youtubie to w ogóle wspaniała rzecz, 30fps do 120 robi na luzie i serio dobrze to wygląda.
Z mojego doświadczenia z lossless scalingo to działa to słabo, ale przynajmniej są okropne artefakty. Lepiej obniżyć do FHD lub niżej jak sprzęt nie wyrabia
Dlatego nie używam ani DLSS ani AFMF ani LSFG. Przy wyborze GPU najważniejsza jest dla mnie jej natywna wydajność a nie ile potrafi "wygenerować oszukanych" klatek.
Może i ma wsparcie do gsync i inne bajery, ale mi by przeszkadzały te artefakty na głównej postaci przy obracaniu kamerą jakie widać na przykładzie Wiedźmina. To pewnie jest ten problem z brakiem wektorów ruchu i obraz się rozjeżdża.
Zatrzymałem się na AMD 23.12.1 z 28.11.2023 ponieważ następne aktualizacje powodowały blokowanie się randomo co chwile kursora oglądając yt lub przewijając go. Z tego co widzę aktualnie jest 24.8.1
Te wszystkie sztuczne skalowania są dla mnie mega KUPĄ bo działają tylko w miejscu (statyczny obrazek) a w ruchu to wygląda gorzej niz sama natywna (wyjściowa ) rozdzielczość która jest dużo mniej rozmazana. Jedyne co to dość dobry jest dlss ale to jest sprzętowe więc inna sprawa
Dlatego kupiłem na wiosnę najtańszą opłacalną kartę z DlSS czyli 4060 (nie Ti). W porównaniu z poprzednim 1660s wydajność X2, a przy FG nawet x3. Do mojego Rożena 5500 i tak lepszej nie trzeba, bo czasami brakuje mu mocy żeby ogarnąć 100% bajerów.
Używałem generatora z dlss fg i powiem, że obraz jest płynniejszy, ale to dodatkowe opóźnienie jest mocno odczuwalne i trzeba się przyzwyczaić. Przy 80 fps nie zauważałem też jakichś znacznych artefaktów, ale zawsze coś się znajdzie.
Lossless swietnie sie sprawdza do emulacji np ps2. Podbijasz sobie z 60 fps do 120 i wyglada to swietnie. Z 30 artefakty sa ogromne, ale dalej wole grac z artefaktami, niz miec pokaz slajdow.
Odnośnie Lossless scaling i cyberpunka 2077, ktoś ma pomysł czego to jest wina? Cytuje recke na steam bo tak jest mi prościej. "W Wiedźminie 3 (next gen) narzędzie działa bardzo dobrze, ale głównie zależało mi na Cyberpunku 2077. No i niestety nie jest dobrze. Po minucie, obraz gry zawiesza się dopóki nie wyłączę nakładki programu, często zdarzają sie przycinki no i generalnie słabo to działa w przypadku CP. Próbowałem różnych ustawień i raz było lepiej, a raz gorzej. Najlepiej program chodził przy ustawieniach w grze: DLSS w trybie jakości, licznik zablokowany na 72fps, odświeżanie na poziomie 144hz, v sync ustawiony na 72hz. Włączanie generatora klatek dlss jedynie pogarszało działanie. Jeżeli chodzi o Lossess Scaling to uruchamiałem grę przy następujących ustawieniach: tryb skalowania ustawiony na amd fsr (ostrosc 5, tryb wydajnoci), generacja klatek LSFG 2.2.1, tryb X3, tryb wydajnosci, synchronizacja wylączona, API przechwytywania ustawiony na DXGI. Testowałem inne tryby i było tylko gorzej"
Reinstalowalem sterowniki i nadal jest to samo. Konfiguracja, I5 8400 + rtx 2060... a i poza miastem Lossless scaling nie wykrzacza mi sie, głównie mam tutaj na myśli obszar gdzie jest trochę więcej tłumu, czyli praktycznie teren całego Night City.
Postanowiłem polepszyć płynność Heroes 3 :) i zakupiłem w morele .... na początek mały upgrade do mojego PC. Procesor AMD Ryzen 7 - 5700X3D oraz 32GB RAM G.SKill 3200 DDR4. Płyta jeszcze sprawna Gigabyte GA - AB350M Gaming3 z PCIEx 3.0. Sprzęt dotrze za 2 dni. Gorące pytanie, bo za jakiś miesiąc dokupię grafikę. Niestety musi być w przedziale 600-1000 zł. Nawet jeśli będzie to używka. Czy Radeon RX 6600 8GB będzie pasował? Wolałbym jakiegoś RTXa ale widzę że ceny z kosmosu.... Gram głównie w stare gry, Chcę popatrzyć jak wygląda Quake 2 RTX,,,, A może i coś zajże w nowsze tytuły...
Dzięki za fajny materiał Lipton!, kupiłem dzisiaj Loseless scalling i jestem w szoku jak to dobrze działa w Assasins Creed Vallahala nawet w trybie 3x są bardzo małe opóźnienia, mam ok 115 fps,w 4k maxout, tylko zastanawiam się dlaczego tak spadają te bazowe fpsy po włączeniu scalingu, może mam procek za słaby? ( rtx 3080 , I 8700k 4800 mhz)
Kupiłem za twoją namową Lossless scalling i nie jestem zbytnio zadowolony. Owszem w kilku grach działa cuda, ale często się wykrzacza. I dodatkowo po uruchomieniu znika kursor co jest bardzo uciążliwe. Jaka może być tego przyczyną?
Ja tam nie korzystam z tych zabawek jak DLSS i FSR bo uważam, że czysty nie zmodyfikowany ekran jest najlepszy. Wolę kupić lepspzą kartę i się nie bawić w takie rzeczy
W nowych grach nie masz swobody wyboru. Domyślną metoda AA w wielu tytułach jest TAA, które robi z obrazu jeszcze gorsze rzeczy niż DLSS i w takim wypadku DLSS lepiej włączyć.
Mam prośbę czy dał byś radę z updateować zestaw komputera za 8500 zł bo płyta główna, karta graficzna i Arctic Liquid Freezer III są niedostępne na x-komie Dzięki :)
Kupiłem Lossless Scaling za 27zł (bez promocji) na steam, bo bardzo ciekawił mnie efekt. Mam GTX 1660 (bez żadnych dopisków TI czy Super) po pogrzebaniu w ustawieniach LSFG mogę odpalić wiedźmina 3 NEXT GEN na ustawieniach uber+ z włączonymi hairworksami na 60 FPS'ach. Oczywiście przy szybszych ruchach myszką zdarzają się artefakty, ale jestem pod wrażeniem działania tego programu
wiedzmin 3 to chyba jedyna gra, gdzie fsr3 mod jest praktycznie idealny pod względem obrazu i działa o wiele lepiej niż lossless scaling, w którym co ruszysz myszką ci nagle głowa postaci znika xd
Szkoda że na materiale tak dobrze to brzmi i w ogóle ale nie dość że na materiale nie widać tego wcale to do tego działa to słabo. Bo nie dość że w wielu grach nie działa to do tego przy nowszych kartach. Teraz to niepotrzebna zabawa, i są 2 opcje albo kupienie nowszej karty dla większej ilości FPS albo zjechanie z ustawień graficznych.
@@TechLipton Ja to wiem :) Ale na nagrywce było by widać różnicę jakby to tak cudownie działało a wygląda praktycznie identycznie lewa i prawa strona jak pokazujesz porównania off i on.
Czy bez trybu 'wydajność' w LSFG nie byłoby znacznie mniej artefaktów w stosunku do tego ile faktycznie więcej wydajności on oferuje? O ile w ogóle oferuje więcej wydajności. Pozdrawiam
Looseless scaling to jedynie ciekawostka, a nie realna opcja, jakość tego 'renderowania' jest tragiczna i nieporównywalna z żadnym innym rozwiązaniem typu DLSS, FSR czy XeSS
@@TechLipton to sobie przetestuje jutro, teraz w grze musiałem rezygnować z modow graficznych by gra jakoś chodziła; szkoda że gra nie wykorzystuje GPU ani CPU w "100%" przez co u każdego gra chodzi kiepsko, chyba że oglądamy pusta mapę
Dla mnie to jest kompletny bezsens. Jak masz te 60 klatek na których te techniki dopiero dobrze działają to po jaką cholerę włączać to i narażać się na opóźnienia artefakty itd. jak po prostu można grać na natywnych 60 klatkach? Bo mając kartę za 800 zł gracz jest przyzwyczajony do 120 klatek? 😂😂 Kompletnie nie widzę zastosowania.
Już Ci mówię. Kiedy masz monitor o odświeżaniu 144Hz, to nie chcesz grać w 60fps. A wtedy wkracza do gry FG podbijając płynność. To jest opcja dla ludzi posiadających monitory o wysokim odświeżaniu chcących dobić sobie fps dla większej płynności.
@@stark_2991 Podbijasz płynność generując fikcyjne klatki kosztem opóźnień i artefaktów. Na prawdę różnica między 60 klatkami a 144 klatkami w grach single player (bo do esportówek to się kompletnie nie nadaje) jest tak duża, żeby psuć sobie obraz?
Ogólnie mam problem. Moja karta zaczęła dziwnie chodzić. RTX 3070 Działałem na co dzień na głębokim UV. 0.764V i 1620mhz. Zazwyczaj w furmarku pobierała 110w a w grach 80-90w. Na stoku 1.081v 1920mhz i 220w w furmarku. Ostatnio odpaliłem go na wizji dla kumpla n discordzie aby się pochwalić i ta pokazała 180w? Po przełączeniu na stok napięcia skakały w okolicach 0.870v a zegar spadał nawet poniżej 1600 a pobór mocy pokazuje 240w (teoretyczny limit karty). Na drugim profilu (UV do poziomu stokowych zegarów 1920/0.9v/170w) to samo, też 240w na liczniku tylko zegar nieco wyższy? Aktualizowałem sterownik przy DDU i nic. Jak nic się niezmienni to za tydzień idę na gwarancję bo za pół roku się kończy. W grach jest prawie normalnie i stabilnie ale pod full obciążeniem już nie? Temperatury normalne 75 stopni z wentylatorami na 80% auto (teraz myślę że to dużo.) a hotspot 91 około?
Jak odpalasz enkodery obrazu czy inne dodatkowe funkcje, bo rozumiem, że wysyłałeś obraz z komputera do kolegi, to karta pobiera więcej mocy aby te enkodery obsłużyć, ale trochę duża ta różnica to nie wiem. A na gwarancji co powiesz? Że karta po uv działa niestabilnie, jak to nawet nie jest działanie zapewniane przez producenta?
@@skalarakwarium160l9 Co ty piszesz? U mnie normalnie było 1920 przy 220. Referent miał 1770 a ja mam wersję OC. 150mhz to tak dużo? Poza tym sekcjia karty ma limit na 240 czytam 250w i więcej nie poda? 8+6 pin 150w + 75w = 225? no jeszcze z PCIe 75 to 300w w teorii?
Nie przekonują mnie generatory. Do sensownego działania potrzebują już nie takiego złego bazowego fpsu, generowane klatki nie tak płynne jak prawdziwe, a jeszcze dorzucają artefaktów. Z kolei polecam potestować sobie bardziej wydajnościowe presety upscalerów, zwłaszcza DLSS. Bo poszło to do przodu i potrafi wyglądać zaskakująco dobrze przy dobrym podwajaniu fpsów. Do tego stopnia, że zwykle wolałbym ratować wydajność niższym presetem niż zauważalnie schodzić z ustawieniami. Niestety FSR dalej odstaje - często widzisz coś podejrzanego, przełączasz się na DLSS, a artefakt jest łagodzony albo kompletnie znika.
@@msnet-first DLSS zrobiło się fajne już od 2.0, więc ponad cztery lata temu. Odnoszę wrażenie, że z czasem poszło do przodu równocześnie w jakości i przyrostach fps. Z FSR bywa akceptowalnie, ale przy wspomnianym przeze mnie testowaniu, polegającym nie na oglądaniu analiz w necie, a realnym graniu, fundamentalną różnicą pomiędzy FSR i DLSS jest to, że przy FSR artefakty rzucają Ci się w oczy. Pomijając, że artefakty zdarzają się i w natywnym renderingu, ale przy przełączaniu upscalerów wychodzi przyczyna.
@@2MichalChojnowski2 ja to tak nie mialem do czynienia z dlss bo karta amd i upscalery w 1080p to bylo doslownie mydło. Kupilem rtx 4070 i no sorki ale fsr to nawet nie ma podejscia do dlss. Przeciez nawet do wygładzania krawedzi o niebo lepiej sie sprawdza. Reasumujac, podchodzilem sceptycznie a jestem bardzo zadowolony. Ale mimo wszystko tez zalezne od gry, prawdopodobnie wyuczenie si lepsze lub gorsze. Brak mi wiedzy dlaczego w jednej grze dlss jest perfekcyjny mozna powiedziec a w drugiej troszke gorzej to wyglada choc w obu ta sama wersja.
@@msnet-first Z upscalerami jest też tak, że w wyższych rozdziałkach natywnych wyglądają lepiej. FSR było czymś w czasach, kiedy RTXa, nową kartę, miał mało kto. Z każdym kolejnym rokiem coraz mniej nam po nim, bo przez pięć lat wielu już karty zmieniło, a posiadaczom Radeonów porządny upscaler prędzej dostarczy Intel niż AMD. Stestuj sobie jeszcze DLDSR/DSR - fajna opcja wykorzystania nadmiaru wydajności karty graficznej, kiedy np. część wydajności karty ogranicza Ci procesor czy nie chcesz wychodzić ponad jakiś klatkaż.
Jest całkowicie odwrotnie, to właśnie FG jest lepszą jakościowo technologią, mając mimimum 60 klatek odpalasz i zachowujeez ostry obraz, dostajesz niewiele większego laga, a przy takiej ilości FPS pojedyńczej uszodzonej klatki nawet nie widzisz, za to w DLSS SR dostajesz mydło, też masz czasami jakieś artefakty a jedyne co zyskujesz to lepsze opóźnienie, technika dobra ale jak masz mniej niż 60 klatek, powyżej 60 to tylko FG.
Po tym filmie aż sam zainstalowałem sterowniki z AFMF2 i po chwili muszę przyznać że to faktycznie działa , wiec na razie będę dalej testował jak to u mnie się sprawdza (ryzen 9 3900x + rx6950xt)
Spoczko ale widać róznice i rozmycie w dalekich scenach taki plaster na pupke wole 30fps z lepsza grafiką, a i na Vulkanie ten AI jest tragiczny w RDR2 słabo to wyglada ;d
Ja mam rtx 2050 i gram w msfs2020 bez fg na niskich ustawieniach i średnich. Kupiłem lossless scaling, i mam dwa razy więcej fps więc mogę grać na wysokich ustawieniach, ale niestety mam dziwny obraz przy ruszaniu myszką, ktoś wie jak to naprawić?
w fortnite z reguly sa mikrościnki, mi pomoglo wlaczenie synchronizacji pionowej i ustawienie 120fps max (mam monitor 165, wiec nizej niz hz monitora) i nie mam prawie wcale mikrościnek
@@damiannndesign4334 Możesz sie pobawić w różne wersje directx (masz chyba opcje wydajnosc, dx11 i dx12) i pozmieniać ustawienia co najwyżej. Generatory klatek nie pomagają z mikroscinkami a nawet i tak pogarszają sprawę bo dostajesz większe opóźnienia.
ta gra już taka jest. po pierwsze serwery epic je powodują, w godzinach późno nocnych gra chodzi lepiej. po drugie z każdą aktualizacją gry trzeba na nowo szukać optymalnych ustawień. Mnie raz dobrze chodzi na dx 11 a innym razem na dx12. Kiedyś po jednej aktualizacji była kompletnie niegrywalna z Dlss, musiałem wyłączyć, przez stutter. Co do synchronizacji, to też zależy od wersji gry, raz mi chodziło lepiej z włączoną a potem z wyłączoną