Skocz do zawartości

EH_Gosu

Użytkownik
  • Liczba zawartości

    1666
  • Rejestracja

  • Ostatnia wizyta

Reputacja

1277 Doskonały

O EH_Gosu

  • Tytuł
    Perfekcjonista sprzętowy
  • Urodziny 10.04.1985

Informacje

  • Płeć:
    Mężczyzna

Ostatnie wizyty

17831546 wyświetleń profilu
  1. To nie jest dziwne, po prostu to są różnice pomiędzy chipami. Też różne miejsca testowe, różne platformy etc. Jedne zachowują się tak, inne inaczej. Wszystko w normie. Miałem 4090 STRIX jakie nie robiły nawet +150 na rdzeniu. Ten, którego mam obecnie to nie jest pierwsza karta z brzegu, nie bez powodu znalazł się w moim konfigu. Co do ustawień to jeśli chodzi o FG oraz DLSS to tak, te same ustawienia. Przy czym tam gdzie są ustawienia graficzne odnośnie jakości mam wszystkie suwaki w prawo, czyli ponad ultra. No i mam jeszcze nieco modów poprawiających jakość grafiki wgra
  2. Tak, mam stabilne + 220/+1200. Tudzież głównie używam profilu + 200/+1000 z PT 600 (nie jest to równoznaczne z poborem 600W, bo ten zależy tak jak pisałem od wielu czynników). Tutaj screen z +220/+1200 PT 600 oraz 1.07v na GPU. W CP 2077 trzyma mi 2985 do 3015, zazwyczaj równe 3000, czasem wbija na 3045. Gorący dzień, bo tak to GPU temp zazwyczaj po 46-48C. Niebawem zmiana budy z Enthoo Elite na Lian Li V3000 PLUS i robię mega single loopa, obecna buda i dual loop mi się znudziły. A, tak jak w EH "AVENTADOR" single loop (560/60 + 480/60 + 4x D5) dla 13900KS + RTX 4090 i GPU temp to okolic
  3. @kampers Realny pobór mocy GPU zależy od takich czynników jak obciążenie (nie zawsze 100% w jednych jest równe 100% w innych warunkach) w tym tego jak mocno dociążone są rdzenie CUDA / TMU / ROP / RT, Tensory (jeśli chodzi o rdzenie Tensor DLAA zwiększa pobór, DLSS obniża) etc. Dodatkowo im więcej VRAM zajęte tym również przekłada się to na większy pobór. Do tego im niższe temperatury tym też sprawniej się to przekłada na czynnik poboru mocy. Nowsze rewizje chipu z RTX 4090 AD102-301 mają zablokowane napięcie do 1.07v względem AD102-300, które to pozwalało wb
  4. @kampers A, to Ty grasz renderując jednocześnie? Kiedyś tak robiłem To odnośnie 400W na i9-14900KS. W grach masz po 100-150 zależnie od rozdziałki, tego jak na CPU gra siedzi etc. Mnie to dziwi serio, że ludziska myślą, iż te procki w grach żrą tyle Wyżej pisałem o 14900KS i regulacji, jak to się zachowuje pod PEŁNYM, obciążeniem w renderze. 400W te procki potrafią na def pod pełnym obciążeniem pobrać jednak jest to kwestia ogromnego przestrzału napięciowego względem tego co jest potrzebne realnie. Do tego dochodzi throttling na rdzeniach bo to szybko d
  5. Owszem, pierwsza część nie była problematyczna Co do 7800X3D, zostaw to fajny procek. Niemniej wyregulowany konkretnie Intel (P/E/Ring + memki) od i7-13700K wzwyż zapewnią wyższe 1% low jak i ogólnie lepszą wydajność w grach. Natomiast dla większości ludzi 7800X3D + dobre memki oraz XMP będą w zupełności wystarczające. Sam sobie szukam powoli selekta i9-14900KS, pod regulacje świetne proce. Pierwszy z brzegu z SP overall 105 i SP na P 119, robi all core 5.8 GHz P / 4.4 E / 4.8 ring + 2x32 GB ustawione na ten moment na 7200 CL38.46.46.38, początkowe szlify. Wszystk
  6. https://overclock3d.net/news/software/it_doesnt_work_dlss_sr_support_is_not_functional_in_star_war_jedi_survivor/ https://steamcommunity.com/app/1774580/discussions/0/3827551537103917875/ To jest powszechny problem "Jedi Survivor", u mnie początkowo działało potem nagle przestało. Kombinowałem z różnymi fixami, ręcznymi zmianami iteracji DLSS. Był mi temat DLSS potrzebny pod testy no ale nie działa i koniec Sprawdzałem na kilku osobnych platformach, w tym na W10 jak i W11. Ten tytuł niestety ma od początku swoje bolączki i raczej tak zostanie.
  7. Przechodziłem na moim konfigu z syga. Zanim jeszcze się pojawiło DLSS i FG. W 3440x1440p maksowanym natywnym, zakres 90 - 140 fps. Pomniejsze szarpnięcia były na planecie Koboth tuż po odpaleniu gry i załadowaniu save, potem spokój. DLSS Ci działa w ogóle? U sporej ilości ludzi nie, wydajność się nie zmienia po włączeniu DLSS czy nawet FSR. U mnie najpierw działało, potem przestało zupełnie, niemniej dla 4090 do tego tytułu zbędne. Daj w panelu sterowania "Preferuj maksymalną wydajność" i zobacz czy pomoże.
  8. Od momentu kiedy pojawiło się DSR wraz z Maxwellami, używam A, od kiedy jest DLDSR to również z niego korzystam. Już na RTX 3090 robił robotę, na RTX 4090 daje jeszcze więcej przyjemności. Częsty zestaw dla mnie to DLDSR do 5160x2160 + DLSS Quality przy max RT i PT + FG dla "Cyberpunk 2077", "Alan Wake 2". W "Alan Wake 2" oraz natywnym 3440x1440p ze wszystkim na max i DLAA (natywna rozdzielczość i rdzenie Tensor oddelegowane do ogarnięcia AA) + FG i jest pięknie. Co do DLSS oraz tego czy i o ile pogarsza jakość obrazu to w 1920x1080 nawet DLSS Quality w wielu tytułach niestety o
  9. Na jakiej podstawie uważasz, że ja nie buduje tych machin? Proszę o rzeczowe argumenty. Konkrety, dowody. Coś wykraczającego po za idiotyczny ból czterech liter jaki lubisz uprawiać bardzo często Bo widzisz tak się składa, że nie tylko jestem odpowiedzialny za dobór komponentów do danego konfigu, regulacje, projekt LC, zakładanie bloków, planowanie całego układu, budowę LC, testy etc. Ale również te kompy składam w całość. Od kilku lat Extreme Hardware prowadzę ja i można żona. Ja jestem odpowiedzialny za między innymi aspekty jakie wymieniłem wcześniej, ona za kształtow
  10. Wiesz od dawna żadnego konfigu tu nie wrzucałem nowego, a sporo kolejnych z bardzo rozbudowanymi LC powstało. Miałem akurat chęć podzielić się konfigiem z AIO oraz RTX 4080 SUPER. Jako pasjonat jaram się tym co robię dla ludzi i chętnie dzielę się swoją pasją. Absolutnie nie traktuje tego jako formy reklamy na forum, forum to forum. Traktuje to jako coś przyjemnego, dzielenie się swoją zajawką i tyle. Mogłoby się wydawać, że w dziale o kartach graficznych gdzie wypowiada się nieco entuzjastów, miło jest podzielić się czymś fajnym, szczególne ze świeżynką GPU na pokładzie. No ale sko
  11. Jest RTX 4080 SUPER ? Jest, jest info o karcie co i jak? Jest. Co masz za problem? Już któryś raz z rzędu. Służbista Ci się odpala jakiś czy może inny rodzaj bólu, czy zły dzień? Bo tak to nie fajnie z Twojej strony szczerze mówiąc
  12. Sam musisz podjąć decyzję w oparciu o to co jest dla Ciebie istotne. Moim zdaniem z punktu widzenia pragmatycznego wybór RX 7800 XT zamiast nawet obecnego RTX 4070 jest na ten moment mocno dyskusyjny. Ogólnie podobna wydajność w standardowej rasteryzacji, do tego lepsza sprawność energetyczna na RTX no i mimo wszystko dodatkowe możliwości jak DLSS/ FG. FSR czy alternatywa dla FG w postaci powoli implementowanego FSR 3 to nie jest ten sam poziom rekonstrukcji obrazu co DLSS albo interpolacja klatek co FG, takie są fakty. Cenowo te karty wypadają podobnie, a przecież zaraz wlatuje RTX 4070 SUPER
  13. Nie patrz na to zagadnienie poprzez krótkowzroczny pryzmat opłacalności gdzie w przypadku RX 7800 XT vs RTX 4070 (podstawowa) i tak i tak pozorna oszczędność to groszowe sprawy, tym bardziej jeśli rzadko wymieniasz sprzęt. Inwestując w kartę NV od RTX 4070 wzwyż (RTX 4070 SUPER to będzie fajna karta dla Ciebie) zyskujesz na dzień dobry lepiej dopracowany i bardziej funkcjonalny produkt. Coraz lepiej i sprawniej działające DLSS oraz FG, a tendencja na rynku gier jest taka, że i tak i tak te rozwiązania stają się już nową rzeczywistością w grach. Do tego wydajność z punktu widzenia holistycznego
  14. "4080S 999$ blisko 4090 w grach " Czy RTX 4080 jest blisko RTX 4090 wydajnościowo? No nie za bardzo. Także co tu niby zmieni ta większa do około 5% wydajność RTX 4080 SUPER vs RTX 4080? Korzyścią płynącą z RTX 4080 SUPER względem RTX 4080 będzie po prostu ta symboliczna wyższa wydajność od RTX 4080 za mniejszą cenę. Najciekawsza karta SUPER to będzie RTX 4070 Ti SUPER, jakieś 15% szybsza od RTX 4070 Ti także praktycznie w połowie drogi do RTX 4080 no i szyna 256 bit zamiast 192 oraz 16 GB VRAM, także fajna karta
×
×
  • Dodaj nową pozycję...