Skocz do zawartości

wojciech spychała

Redaktor
  • Liczba zawartości

    170
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez wojciech spychała

  1. Ze względu na NDA za dużo pisać nie mogę, ale warto poczekać, zwłaszcza w tym rozsądniejszym przedziale cenowym niż ten, w który celują nowe RTX… choc faktycznie wszystko się rozbije o temat łączenia chipów. Będzie trzeba wybrać mniejsze zło - 2 chipy u AMD albo klatki generowane przez AI NVIDII
  2. Nie zgodzę się z tym "znacząco". Ogólnie jest to mocno demonizowane bo zauważ że większość osób nie zauważa nawet aktywowania NV Reflex w grach przygodowych (a ten daje znacznie więcej niż wynosi różnica DLSS 3.0 ON/OFF). Jeszcze ciekawiej robi się gdy spojrzymy na gry gdzie limitem jest CPU. W takim Spider-Man Remastered w uzyskamy w następujących wariantach: a) średnio 120 FPS z 25 ms opóźnienia (natywne 1440p); b) średnio 120 FPS z 30 ms opóźnienia (z DLSS 2.0 Quality - wydajność i tak blokuje CPU ale opóźnienie wzrasta minimalnie przez skaler); c) średnio 225 FPS z 34 ms opóźnienia (
  3. Ceny sprzed premiery zawsze są dzikie… zobaczymy co będzie tydzień-dwa po premierze, jak już się dostępność unormuje.
  4. Widzę że nawet wyszły im lepsze wyniki niż mi Ale to dokładnie to o czym piszę - responsywność gry nie wzrasta (zostaje dokładnie taka sama), ale mamy znacznie płynniejszą animację. Lepiej mieć niż nie mieć taką opcję, a do tego zauważ, że opóźnienia masz 40% mniejsze (przy tych 112 FPS) niż na karcie, która w ogóle nie wspiera NVIDIA Reflex (i zapewnia 42 FPS). Dodam jednak, że z mojej obserwacji wynika, że DLSS 3.0 FG faktycznie daje dziwne wrażenia z gry, gdy bazowy FPS (przed aktywowanie tej funkcji) jest poniżej 45 FPS, zatem gdy finalny FPS jest poniżej 80-90 (z aktywnym FG). Zre
  5. To by sie wyłożyło na tzw. frame pacingu - klatki byłyby generowane bardzo nierównomiernie, co pogarsza odbiór płynności animacji. A tak mamy zawsze "w połowie" drogi między dwoma klatkami A ilość klatek pośrednich, jak na ironię, podniosłaby jakość i zmniejszyłaby artefakty, bo przejścia byłyby płynniejsze.
  6. To tak nie działa. DLSS analizuje dwie klatki które gra renderuje czy z niego korzystamy czy też nie. Na podstawie tej analizy wstawia te wygenerowane klatki pomiędzy te utworzone przez silnik gry. Jeżeli gra jest w stanie zapewnić 60 FPS to pomiędzy klatkami mamy 16,6 ms o które DLSS opóźnia obraz. W takim przypadku proces wygląda tak: czas = 0 ms => silnik renderuje klatkę nr 1 i ale jej nie wyświetla czas = 0-16,6 ms => silnik renderuję klatkę nr 2 i wyświetlona zostaje klatka nr 1 czas = 25 ms => karta wyświetla klatkę nr 1,5 wygenerowaną przez AI, a silnik gry już pracuje
  7. Opóźnienia będą takie same niezależnie od ilości generowanych klatek (nadal będą one wciskane między te same dwie klatki. Oczywiście - nie zwiększamy tu responsywnosci gry, tylko płynność jej animacji. Grając teraz w Plague Tale Requiem (nie wiem czy czytaliście nasz test kart i procesrów: https://www.benchmark.pl/testy_i_recenzje/a-plague-tale-requiem-test-kart-i-procesorow.html) na 4090 z aktywnym DLAA i DLSS FG (bez Super Resolution) w 5120x1440p realnie widzę same zalety obecności tej technologii. Dla RTX 4090 nie jest ona jeszcze kluczowa, ale taki RTX 4070 stanowczo dużo na
  8. Z 3 dni temu na kanale DF podsumowali temat premiery NVIDII i poruszyli tam ciekawą kwestię... Co gdyby DLSS 3.0 FG generowało nie jedną, a dwie klatki pośrednie A z tego co zrozumiałem, to inżynierowie NVIDI już teraz pozytywnie się o tej kwestii wyrażają... To oznaczałoby nawet 3x wyższą płynność animacji
  9. Będzie DLSS 3.0 dla RTX 20/30 tak samo, jak Ray Tracing dla GTXów odblokowali Czyli raczej ciekawostka niż realna funkcja. Typowy X-Kom -.-’ A czy ktoś się już w polskiej sieci chwalił, że ma i testuje RTX 4080?
  10. Podoba mi się ten symbol ostrzegawczy na pudełku: "No Gaming" z wielkim "X"
  11. Piękny Nie ogarniam dlaczego NV w tak drogiej i flagowej karcie nie daje adaptera, który pozwoliłby jednym przewodem przesunąć podpięcie 4 końcowe 8-PIN na tył obudowy… wystarczyłoby dać dodatkowe 15-20 cm przewodu…
  12. @Karister Piszczenie cewek to niestety loteria - ale fakt, że im więcej FPS tym bardziej sprzęt skwierczy... Btw. Dramat jak te adaptery psują wygląd wnętrza Sprawdzałeś czy producent nie przygotował do Twojego zasilacza długiego kabla 16-pin?
  13. Tak, ale po wyjęciu klatki na dyski. Ja bym dopłacił - zasilacz to zakup na lata, a ten nadchodzące nie zwiastują odwrócenia trendu w poborze energii przez topowe podzespoły...
  14. Jeżeli nie będziesz się bawić po OC obu podzespołów w furmarka + prime95 jednocześnie to powinno dać radę...
  15. Niestety - nie mam AM5 a Paweł co je teraz testuje nie ma 4090 :( Apropo wieści wyżej to tu też o tym pisali https://www.benchmark.pl/aktualnosci/geforce-rtx-4080-12-gb-anulowany-nvidia-zmienia-decyzje-z-nowymi.html
  16. Zasadniczo testuję już na nieco nowszym Intelu niż ten z testów (choć nadal i9), ale faktycznie, karta nadal trochę się leni w 4K... Teraz odpaliłem DL2 w 4K z DSR x1,5 oraz x2,0 (wyżej już karta się dławi a w 8K mam 5 FPS :P), ale taktowanie GPU stabilne jak skała - 2715 MHz (stock) niezależnie od tego czy karta pobiera 425 W czy 500 W.
  17. Bije się w pierś - faktycznie, po ustawieniu PT 600 W karta FE często przekracza 500 W poboru. Co nadal nie wpływa na wydajność praktycznie w cale (przynajmniej w 4 grach, które teraz testowałem) - najwięcej zyskało Metro Exodus bo prawie całą klatę na sekundę (1,5%). Boost nawet przez moment nie poszedł wyżej (ten fabryczny), zatem wyniki zasadniczo nie dziwią.
  18. Ale że niby jemu na domyślnie taktowanej karcie wyszło większe zużycie energii po podniesieniu limitu mocy? Aż sprawdzę to dokładnie. Z pewnością wydajność nie wzrosła bardziej niż o 0,5% (czyli mój margines błędu pomiarowego), a u niego wyraźnie wzrasta od samego poniesienia limitu... Może jakieś miejsce testowe znalazł, w którym karta jest ekstremalnie obciążona.. Bo faktem jest, że w furmarku karta weźmie ile jej pozwolimy
  19. Tylko że w przypadku 4090 testy mówią co innego :p Taktowanie jest bardzo stabilne już w FE i karta bez OC nawet 100% obciążona ciągnie ~425W. Podbicie limitu z 450 W nawet na 600 W nic w wydajności nie zmienia, przynajmniej poki nie podkręcamy karty. BTW Gigabyte Gaming OC pobiera więcej energii, aby utrzymać te same taktowania, ale z drugiej strony dał się identycznie wysoko podkręcić (na tych samych limitach mocy), więc raczej to kwestia innej krzywej napięcia, a nie „gorszego krzemu”, jak chyba w recenzji pisałem. Ogólnie to dosyć średnie sztuki mi się trafiły, bo ko
  20. Przyznam, że mam zupełnie odwrotne przemyślenia na ten temat (aczkolwiek niczym nie podparte :P) - traktuję PL (bo to w zasadzie teraz power limit, a nie target jak kiedyś?) jako taki zawór limitujący kartę w obecnych generacjach, a nie coś do czego karta dąży. Po podbiciu na FE limitu do 600 W wydajność praktycznie stoi w miejscu, bo karta i tak sama z siebie osiąga pełen boost daleko przed fabrycznym limitem 450 W. Dopiero podbicie tego zegara ręcznie wymusza większe zużycie energii co wynika z krzywych zasilania (karta podaje większe napięcie dla wyższych zegarów, wiadomo). Natomiast nie są
  21. Ale my tu o wyglądzie piszemy A co do limitów - czy widzisz potencjał, aby normalny użytkownik przekroczył te 520 W? Na Gigabyte i FE które testowałem po maksymalnym OC dosłownie 3x widziałem przez chwilę ponad 500 odczytu z poboru energii przez GPU. Tak całkiem serio pytam, zwłaszcza w kontekście tych oszczędniejszych profili.
  22. Ta technologia jest... specyficzna Ale tak, chcę przygotować porównanie na kilku filmikach. W zasadzie jedyne gdzie widziałbym sens jej stosowania to gry e-sportowe, gdzie generuje mniejsze opóźnienia od faktyczniej synchronizacji, ale jakość jej działania pozostawia jednak wiele do życzenia, przynajmniej na tym (bardzo wczesnym) etapie.
  23. Pisałem o tym w mojej recenzji Ale zabawne jest że przedstawiciel firmy która dosłownie robi zasilacze oficjalnie podważało te opinię Steve'a... Suprim w końcu zasługuje na swoją nazwę moim zdaniem Wcześniej to był taki "Gaming Z przy kości"
  24. Właśnie skończyłem oglądać - Ci to zawsze są pierwsi z tymi odkryciami Szkoda że do Spier-mana z DLSS 3.0 nie mam dostępu, bo chętnie bym sprawdził... No ale opisali/pokazali tam dokładnie to, co obserwuje w kwestii DLSS 3.0 i synchronizacji . I to, jak to wytłumaczył, ma sens - karta bardzo zwiększa input lag, gdy dobijamy do limitu odświeżania z sumą natywnych i generowanych przez AI klatek (u mnie 144 Hz w 4K). Najprostszym rozwiązaniem dla NV (na poziomie sterownika) byłoby ustawić limit FPS dla VS z DLSS 3.0 na 1/2 odświeżania, no ale wtedy mamy "responsywność" gry na niższym niż potencj
  25. 100% się zgadzam, choć niestety nasze Kingstony i tak nie dały rady nic więcej wycisnąć. Ogólnie to zabawna sprawa, bo od 3 albo 4 artykułów faktycznie używam tylko 2 kości (co widać na zdjęciach), ale oczywiście zapomniałem to wyedytować w przeklejanej platformie testowe... Oczywiście wszędzie zaraz skoryguję. Same pamięci sprawdzałem jeszcze w ramach testów 3090 Ti z taktowaniem 6000MHz CL32 i różnica była ale nie na tyle duża aby wtedy uzasadnić zmianę. Teraz sobie w brodę pluję bo RTX 4090 z pewnością by na tym zyskał Tu też 100% racji - tak to jest jak się cz
×
×
  • Dodaj nową pozycję...