x-kom hosting

Frame Generation i RTX 4000..

InverShaRingan
utworzono
utworzono

Dlaczego Nvidia tak chętnie promuje tę fałszywą generację, podczas gdy w prawdziwym życiu jest ona daleka od ideału?

 

 

 Aby faktycznie móc „cieszyć się” FG, potrzebujesz przynajmniej panelu High Refresh Rate z VRR, ponieważ w przeciwnym razie będzie się zacinał i rozrywał ekran, szczególnie na wyświetlaczach 60 Hz + potrzebujesz co najmniej 60 klatek na sekundę (lub blisko), aby uniknąć wysokich opóźnienie wejściowe, które i tak występuje.

 

 

 Obraz zawiera artefakty, zauważalny input lag, błędy HUD + wysokie wymagania, takie jak co najmniej podstawowe 60 klatek na sekundę, VRR, panel o wysokiej częstotliwości odświeżania i najlepiej kurza ślepota by nie widzieć wszelkich artefaktów, czy opóźnienia.

Ale nie zauważycie ich na żadnym z „pokazów” Nvidii ani na ich porównaniach. Ładny płynny czysty obraz :)


 Zanim kupiłem 4070 myślałem, że ta „nie chęć” do Fake Generation jest nieuzasadniona, ale teraz myślę, że jest w pełni zrozumiała..

 

A już tym bardziej, dodawanie tej funkcji do gier Typu FPS, gdzie i tak czuć opóźnienie, i te dziwnie artefakty, przy ruchu kamerą.

 

Najgorsze w tym wszystkim jest że promują to jako GŁÓWNĄ funkcję.. bez której te karty są w większości słabsze od AMD.. poza 4090/4080, ale one kosztują tyle co samochód.

 

 

SkyWalker1982
komentarz
komentarz

AMD ma np. większy pobór prądu gdzie przez trzy lata będzie się obsługiwało dana kartę, gdzie wyjdzie około 300 zł za prąd więcej, o tym mało ludzi wspomina tak więc trzeba dodać tę kasę do zakupu....

Co tyczy się fg to nie wiem jak jest, ale wolał bym te funkcje posiadać, to samo tyczy się dlss i innych funkcji..... Za te funkcję płacimy więcej ale później to się bardziej wyrównuje 

  • Dobra wypowiedź 1
InverShaRingan
komentarz
komentarz

@SkyWalker1982

 

Niech moc będzie z Tobą. 

 

No cóż, AMD pokazało że można zrobić dobrze działające na wszystkich urządzeniach AFMF, ma swoje wady, jak chociaż HUD w Awatarze, działa o połowę niższym odświeżaniu, co mocno się rzuca w oczy, bo dookoła np. mapy, jest okno które odróżnia się reszty obrazu. 

 

Tylko jak już wspomniałem, niestety, NVIDIA chwali się tym FG, jak gdyby to był lepszy DLSS, który daje dużego boosta do wydajności, a tym czasem dodaje tylko input lag i sztucznie wygenerowane klatki pomiędzy dwoma prawdziwymi.. 

 

Najlepsze połączenie to AFMF z dopracowanym sposobem wyświetlania HUD-u + DLSS + Relfex. I było by sztos. Ale i tak bym nie reklamował tego jako wydajność karty. 

 

 

 

rafalluz
komentarz
komentarz

Summa summarum, dzięki FG masz więcej kl/s kosztem gorszej jakości obrazu. Gdy popatrzysz na to z tej strony, fundamentalnie nie różni się to od np. obniżenia anti-aliasingu albo jakości tekstur/efektów. Możesz więc tej opcji po prostu nie używać, jeśli jej efekty nie są zadowalające. Jest to zawsze JAKIŚ punkt marketingowy - punkty marketingowe nie muszą (i często nie są) koniecznie zyskiem dla klienta, są one głoszone po to, by firma sprzedała więcej kart.

 

Quote

AMD ma np. większy pobór prądu gdzie przez trzy lata będzie się obsługiwało dana kartę, gdzie wyjdzie około 300 zł za prąd więcej, o tym mało ludzi wspomina tak więc trzeba dodać tę kasę do zakupu....

 

Chciałbym zobaczyć dokładne wyliczenia, które doprowadziły do tego wniosku. Zapewne opierają się na nierealistycznych założeniach bądź błędnej interpretacji wykresów.

InverShaRingan
komentarz
komentarz
Quote

@rafalluz Summa summarum, dzięki FG masz więcej kl/s kosztem gorszej jakości obrazu. Gdy popatrzysz na to z tej strony, fundamentalnie nie różni się to od np. obniżenia anti-aliasingu albo jakości tekstur/efektów. Możesz więc tej opcji po prostu nie używać, jeśli jej efekty nie są zadowalające. Jest to zawsze JAKIŚ punkt marketingowy - punkty marketingowe nie muszą (i często nie są) koniecznie zyskiem dla klienta, są one głoszone po to, by firma sprzedała więcej kart.

Bez względu jak to opiszesz, bądź spojrzysz, i tak będzie to taka funkcja jaka w rzeczywistości jest, a jest co najmniej źle dopracowana, i mocno przereklamowana.

 

Masz rację, nie muszę tego używać, ale przez ich marketing, nie używając FG, moja karta jest przeciętnie wydajna. 

Nie zrozum mnie źle, nie kupiłem 4070 bo uwierzyłem Nvidii na słowo :lol2:, tylko bolI fakt że dla nich, FG to prawdziwy dopalacz wydajności.. no ale cóż, jest jak jest.

 

Quote

Chciałbym zobaczyć dokładne wyliczenia, które doprowadziły do tego wniosku. Zapewne opierają się na nierealistycznych założeniach bądź błędnej interpretacji wykresów.

Wiem że to nie do mnie, ale to chyba logiczne, że karta Co pobiera średnio 250-300W, rocznie pobierze więcej prądu, niż karta co średnio pobiera 150-180W, przy tej samej wydajności. 

SkyWalker1982
komentarz
komentarz (edytowane)

@rafalluz @rafalluz

23 minuty temu, InverShaRingan napisał:

Chciałbym zobaczyć dokładne wyliczenia, które doprowadziły do tego wniosku. Zapewne opierają się na nierealistycznych założeniach bądź błędnej interpretacji wykresówe...

 

Np. takie coś 

Nie długo szukałem .....

Edytowane przez SkyWalker1982
rafalluz
komentarz
komentarz (edytowane)

I tu jest problem, bo użył watomierza wpinanego w ścianę do pomiarów. Te odczyty nie są zbyt precyzyjne, w szczególności mogą być mylone przez niektóre obwody PFC w zasilaczach impulsowych.

No i jest też kwestia parowania CPU/GPU, gdzie realne obciążenie karty może się różnić.

 

Jak zawsze, masa założeń, które nie będą się skalować dowolnie.

Edytowane przez rafalluz
SkyWalker1982
komentarz
komentarz

@rafalluz myślę że to najmiejszy wymiar kary, te waty , są ludzie którzy grają po 8 / 10 godzin dziennie i 2 w idlu a to jeszcze wyjdzie więcej..... 

Dla takich ludzi ma to duże znaczenie.....

rafalluz
komentarz
komentarz

Nie wiem o jakiej karze mówisz, ale OK. Dodamy tylko, że to, co napisałem wyżej o pomiarze potwierdziłem doświadczalnie - sam widziałem dziwne wahania odczytów w zakresie 20W przy teoretycznie stałym (ale bardzo niskim) obciążeniu.

 

Wracając do tematu Frame Generation...

Sławomir
komentarz
komentarz

 dlss/fsr robią z gry kiszkę, jeśli grasz w 1080p

To jak ma to wyglądać skoro obraz jest cięty do 720p.. do tego jeszcze funkcja performance i jakość spada 560p dodaj frame generatora i robi się już totalne kupsko..

Minimalna rozdzielczość do dlss to 1440p a najlepiej 4k, aby to jakoś finalnie wyglądało.

InverShaRingan
komentarz
komentarz

@Sławomir Nie mówię że nie, 1080p powinno być grane natywnie, jeśli już trzeba.

Taki Alan Wake 2, ma wymagania 1080p DLSS/FSR Quality, I nawet Performance z RT przy niektórych kartach. 

Ja grałem w 1440p FSR Quality, przy ustawieniach optymalnych bez RT, na 6800XT przed zakupem 4070, I miałem 60fps, ale stuttering Tu I tam. 

 

1440p to minimum jeśli chodzi o DLSS lub FSR, i to nie niżej niż Balance czy Quality, a przy 4K Performance ujdzie w tłoku, ale tylko przy DLSS, a i tak najlepiej wygląda 4K DLSS Quality/Balanced. Ale nie każda gra jest na tyle dobrze zoptymalizowana, by dać sobie z tym radę, choć zdecywana większość na 4070 daje radę. 

Sławomir
komentarz
komentarz

stuter nie musiał być od karty na tym rx 6800xt.

InverShaRingan
komentarz
komentarz

@Sławomir Wiem, sprawdziłem na 4070, i ta gra jest po prostu beznadziejne zrobiona. 

 

Mam Ryzen 9 5900X, 32Gb 3600MT/s cl16, B550 Asus, M.2 1Tb Gen 4 i teraz 4070, więc nie sądzę by na średnio niskich, przy 1440p, DLSS Quality Bez RT, ta gra miała by się przycinać przez wzgląd na za słaby sprzęt. 

Wciąż szukasz rozwiązania problemu? Napisz teraz na forum!

Możesz zadać pytanie bez konieczności rejestracji - wystarczy, że wypełnisz formularz.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Strona wykorzystuje pliki cookies w celu prawidłowego świadczenia usług i wygody użytkowników. Warunki przechowywania i dostępu do plików cookies możesz zmienić w ustawieniach przeglądarki.