Skocz do zawartości

Revenant

Użytkownik
  • Liczba zawartości

    1752
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez Revenant

  1. 41 minut temu, Marucins napisał:

    Oczywiście, a wiesz dlaczego? Bardziej zajedzie ci GPU niż CPU.

     

    Dlatego że nie ma G. pokroju DENUVO!


    Steam przypadkiem nie miał mieć DRM jakiegoś? Osobiście kupiłem na steamie, bo mam dość używania 4059 launcherów. A kolejny to bym już ześwirował.
    A no GPU mnie bottleneckuje (odziwo nawet powerlimitem). Ale patrząc na suche dane utylizacji to Cyberpunk ma świetną optymalizację multicore. 

     

    2h gry, średnio mam 75% obciążenia na każdym wątku, a odchylenie względem średniej wynosi +-5% w skrajnych przypadkach. To dobrze wróży osobom, które mają wyższy refresh rate niż moje plebejskie 60Hz. :))

  2. Ma ktoś może Gruzena 5600X i Cyberpunka 2077? 

    Interesowałyby mnie screeny z HWInfo odnośnie Core/thread usage, Effective clock, TDP/napięcia. 

     

    Ogółem wydaje mi się że CP jest bardzo litościwy dla multi-core CPU, bo na 2600 raczej śmiga miło (przynajmniej jeszcze... bo ledwo 1h mam na liczniku). Sama gra bardzo ładnie utylizuje wątki. Ciekawe ile rdzeni/T jest w stanie wykorzystać. 

  3. Nie jest źle z Cyberpunkiem na turingu. RTX 2070S po OC daje rade pociągnąć 2160p Ultra przy wł. DLSS Quality. Przy zegarach na poziomie 2060-2100MHz i VRAM  na 15,6Gbps pobór odnotowany na Total Board Power Imput oscyluje na poziomie 285w average (i non stop przebija się przez barierę 300W, CP będzie tutaj chyba rekordzistą bo nawet Metro Exodus czy Control mniej żarło). Tak więc karty z wysokim power limitem pokażą swój pazur.

     

    Dod. z ustawień wyłączyłem film grain, głebie ostrości oraz blur (nienawidzę tych rzeczy). 

     

    Rezultat to 40-60fps. Średnio 55fps mi wyszło z 1h grania. Bez DLSS jest słabo, na rzut oka jakoś 30fps. Ani razu nie odnotowałem (jeszcze) spadku poniżej 35fps (spadki poniżej 40 są bardzo rzadkie, zakres G-Sync u mnie to 40-60). 


    O RT na Turingach w high-res definitywnie można zapomnieć, chyba że na 2080Ti jakoś to pójdzie. Na 2070S od razu dzieli liczbę klatek przez 3 w przypadku 2160p... 
    Wieczorem podepnę jeszcze PC pod swój TV 1080p i się pobawię z RT. Na 2160p nawet nie mam zamiaru się bawić... o ile w control dawało radę ustwaić low-medium to tutaj nie ma jak (fps'y wyrwą atomówką). 

     

    Zauważyłem także, że przy wł DLSS na Quality w monitorze LG warto wł. funkcję Super Resolution+ na LOW (przynajmniej w modelu 4K UL, nie wiem jak ze starszym UK albo monitorami 1440p). Nie powoduje artefaktów a ładnie poprawia dlss. Dobry duet. Nie zauważyłem artefaktów, overshoota, spowolnienia pixeli itp. 

     

    O ile całe życie kibicuje AMD i zazwyczaj narzekam na zielonych... to w przypadku Turinga cieszę się że ostatecznie nie wziąłem 5700XT. DLSS robi kupę dobrej roboty dla zwykłych śmiertelników, którzy nie chcą bulić walizki hajsu za flagowce. 

    • Popieram 1
  4. 14 minut temu, uberas napisał:

    Szkoda ze te screeny były tez od GN :O

    jak mówiłem, nie wszystkie gry - ja wybiorę takie gdzie to widać, ty odbijesz piłeczkę podając testy gdzie różnica się zaciera i tak można w kółko 

    Daj link do filmików (nie zdjęć), bo w recenzji GN z Zen2 są te gry. On nie robi testów niewiadomo ilu gier. 
    Nie przypominam sobie by GN robił takie video a tym bardziej w taki sposób porównywał oraz pisał w taki sposób tytuły gier. 

    Tu moje źródło:

    https://www.gamersnexus.net/hwreviews/3489-amd-ryzen-5-3600-cpu-review-benchmarks-vs-intel

  5. Godzinę temu, uberas napisał:

     

    Wygląda to jak testy z youtuba z nieznana specyfikacją - 90% z nich to scam a cyfry wyliczone na kalkulatorze z różnicy % w benchmarkach. 

    total war 2 battle 1440p

    Mamy tutaj stockowego* 2600, ale obok jest też 2700X. Zbliżenie się do 2700X w 1% low to kilka kliknięć w biosie. Różnica wynika tutaj głównie z różnicy w taktowaniu. 

    Wtedy mamy mniej-więcej 70-75fps 1% LOW. 3600 wypada podobnie.

    Robimy potem OC do 4.1GHz, (+jakieś 200-300MHz zależnie od tego ile mobo zapodawało na stocku- np. asus wychodził tutaj poza specyfikacje). Potem ogarniamy (kompletnie) timingi ramu wraz z ustawieniami (gearmode itp) i zmniejszamy zauważalnie latency, najlepiej przy wzroście taktowania do 3400-3533Mhz (zależnie od sztuki i kontrola jaki w niej jest). 

    Podkręcony Zen1+ bez problemu jest równy stockowemu Zen2 w przypadku 1% low. 

    Analogicznie w przypadkach poniższych:

    aco 1440pgta v 1440p

    I to są rzetelne dane. Zrobione przez wiadomo kogo, na jakiej platformie, w jakich warunkach. A nie screeny/zdjęcia z jutuba. 

    Nie widzę sensu dalszej dyskusji %-)

  6. 2 minuty temu, uberas napisał:

    O, widze ze zaczynasz gadac z sensem.

    Nie napisalem, ze ZAWSZE tak jest tylko odnosilem sie do bicia rekordow 4.3GHz ktore de facto RZECZYWISCIE nic nie da bo wydajnosc sie nie skaluje i dropy spowodowane architektura nadal pozostana. TYLKO o to mi w zasadzie chodzilo. NIC takiego nie mysle i sam mialem 1600 niedawno z jakiegos powodu, ale szybko sie obudzilem i zmienilem na 3600.

    To przeczytaj mój 1 post jeszcze raz. I spotkamy się na skrzyżowaniu. 

    W HOI4 (w kontekście tej gry jak napisałem wcześniej robiłem to OC - tylko i wyłącznie) "wydajność się skaluje" (i to bardzo dobrze). Gra korzysta praktycznie z 2 rdzeni, z czego głównie na 1 (który odpowiada za zadania, które najbardziej go obciążają i spowalniają grę - turowanie AI; dywizje, szwadrony, floty itp).

    Dwa pozostały rdzenie zostają żeby się obijać lub ograniać windę itp. Bo nie da się więcej wyłączyć po prostu i muszą zostać (4C/4T to max stopień kastracji dla 2600).

    Na gamesave'ie, na którym testowałem jako UK (ponad 3,3mln w polu) w latach 1947+, gdzie każdy ma tonę dywizji w polu average FPS (a przez co i czas potrzebny by upływał czas w grze) wzrósł o adekwatnie 5fps (16,6%) a pora dnia zmienia się zauważalnie szybciej. A mówię to w kontekście najszybszego możliwego time-speed (a nie przedostatniego). 

    Jest to element gry, na który każdy gracz HOI czy innej gry paradoxu narzeka (mierna optymalizacja multi-core - a raczej jej totalny brak, która spowalnia late game lub przy słabych kompach uniemożliwia sensowne granie - tym bardziej że late game jest najfajniejsze - szczególnie na multi oraz modami rozbudowującymi gre).

    I właśnie dla tego zrobiłem ów profil, maksymalizując możliwości pojedynczych rdzeni Zen+. Ostatecznie pewnie zostaną dwa rdzenie na 4325Mhz oraz pozostałe dwa na 4100Mhz (bo po co więcej) przy 1.39v (1.37v LCC) - temperatury nie przebiją najpewniej nigdy 55*c w syntetyku. Na koniec zajmę się pamięciami by osiągnąć jak najniższe latency. 

  7. 10 minut temu, uberas napisał:

     

     

    2600 nie zawsze jest wystarczający (pytanie czego oczekujesz i do czego - ludzie wykorzystują komputery do różnych zadań, programów, gier...). Oferuje po prostu świetną wydajność per pln (perf per $/€). I zawsze podkreślam że przy posiadaniu ekranu 60Hz. ;)
    I musiałbym zgłupieć by kupić 3600/3600X/3600XT mając świetną sztukę 2600. Dla może 10% wydajności (w kilku scenariuszach może 15%) wydać kafla to taki średni biznes. A tak sobie grzecznie czekam na dostępność Zen3 i premierę stable biosu (lub znośne ceny B550 Aorus Mastera lub alternatywy z WiFi6). Zwykła matematyka i umiejętność policzenia czy coś jest opłacalne czy nie.

    Każdy wie że Zeny1, 1+ i czasami 2 miały słabe low fps względem Intela... (eureka)

    Ale zorientuj się lepiej w temacie stutteringu. Bo to nie koniecznie (nie zawsze) jest to samo co low% fps. Podnosisz wszystko to takiej irracjonalnej skali jakby nagle i wszędzie były uber mega dropy fps i hurr durr niegrywalne a architektura Zen miała co najmniej 6-10 lat. :co: Albo w cudowny sposób myślisz że Zen2 jest jakieś 30-40% mocniejszy (i wszystkie problemy świata jak ręką odjął) niż wyżyłowany i zoptymalizowany na tiptop Zen+ (wiadomo że Zen2 jest mocniejszy, można to nazwać ewolucją ale absolutnie nie rewolucją - nie wspominając o latency, temperaturach i degradacji - a już na pewno nie jest na tyle mocniejszy by miało to mega znaczenie w kontekście tego co piszesz).

     

  8. Godzinę temu, uberas napisał:

    moze ty nie próbuj być mądrzejszy? Podajesz tylko przykład anegdotyczny nie mając nigdy ryzena 3000 wiec niby jakie masz porównanie? „Bo mi działa dobrze” 

    powiem tyle: X D

    a widzisz, miałem 3900X przez parę dni w swoim kompie (na moich bebechach). Składałem i konfigurowałem także kilka kompów z Zen2 (z jednego czy dwóch komputerów screeny i zdj konfigów tutaj wrzucałem). Tak więc tutaj chybiłeś. 

    Piszesz głupoty i tyle... albo miałeś wadliwy sprzęt albo coś źle ustawiłeś. Innej opcji nie ma... bo gdyby tak było to byłaby mega afera (której nie było?). 

    A to twoje "XD" ukazuje poziom twojej argumentacji i dowodów. Sorry misiu, walisz ścieme. :menda:

    Miałeś coś nie tak i teraz na siłę (w żenujący sposób) implikujesz że każdy tak miał... "XD" cytując 

  9. 3 godziny temu, uberas napisał:

     

    Albo miałeś mierne mobo (lub bios), albo mierne pamięci (np. <3200Mhz lub 3200Mhz z bardzo tragicznymi timingami ustawionymi przez mobo na XMP - często tak jest na chipsetach AMD, nawet na B-DIE pozostawiały mega pole do popisu). Takie rzeczy może też powodować zasyfiony windows. 

    uberas wybacz ale ci nie wierzę, bo to się nie pokrywa z rzeczywistością a twoje doświadczenie najpewniej biorą się z błędów w ustawieniach/konfiguracji. 

    Cytat

    zen1/+ z doświadczenia - ciagle spadki fps do 20-40, rwanie i raz na jakiś czas zwiecha na sekundę czy coś takiego - zen2 po prostu płynna rozgrywka z jakimś spadkiem czasami ale to wiadomo

    Gdyby tak bylo to po 2 dniach uzywania wrociłbym do 6700K po zakupie (a przesiadłem się ze Skylake'a)... bo takie dropy są niegrywalne. Nic takiego absolutnie nie ma (a grałem w w prawie każdy tytuł AAA ostatnich lat - poza kotletami AC od Ubi). 

    Jeżeli nie umiesz w biosie ustawić wszystkiego* manualnie (włącznie z subtimingami ramu) to proszę nie próbuj być mądrzejszy. 

    Godzinę temu, korzychxp napisał:

    Oczywiście, że stare Ryzeny mają gorsze 0.1 i 1% lows niż 3xxx i 5xxx...

    Nawet nie brak wiedzi co bujanie w chmurach (jeżeli mowa o stock vs stock). To jest całkiem logiczne i oczywiste... chyba że ktoś porówna 2700X vs 3100 w multicore. :menda:

  10. Godzinę temu, uberas napisał:

    I tak to nic nie da bo zen1 i zen+ maja skopana architekture i bedziesz mial slabe low fpsy. 

    W HOI4 mam więcej FPS. Gra żre z 1-2 rdzeniów (najważniejsze na 1). Podobnie widzę na WOW MOP. Teoria o low fps w ogóle nie trzyma się kupy.

    I co to niby znaczy "skopana architektura"? Bo mi sie  wydaje że to jakis najnowszy wymysł. Po prostu jest "stara", ale nie skopana... Na pewno na plus jest jeden CCD i temperatury...

    PS: nigdy nie miałem żadnego stutteringu na 2600... więc albo cos nieumiejetnie skopałeś albo miałeś jakiś inny HW problem. :) A jestem na to mocno wyczulony + mam nawet wykresy na OSD (m.in) z frametime, fps i usage). 

  11. Parę dni wolnego... granie w HOI4... no i single core performance need.

    Pękło 4.3GHz na 1.406v na R5 2600 (stable). Ale na 4C/4T (SMT OFF, 2 najsłabsze rdzenie off). Max temp 52*c (20m cinebench), single core max 40*c. W HOI4 napięcie oscyluje przy 1.36-1.37v. 

    4107pkt MC w cinebenchu R23. Taki chyba trochę Skylake bez MT. :rotfl:

  12. Jeżeli chodzi o AIO to można wcisnąć Liquid Freezera 280. 

    Ale przy montażu na froncie trzeba się upewnić czy np. GPU nie utrudni poprowadzenia węży w taki sposób, by te wychodziły ze spodu radiatora (w pozycji frontalnej węże powinny wychodzić ze spodu, aby uwięzić powietrze w chłodnicy). 

    Zastanawiam się tylko czy jest sens w takiej sytuacji pchać się w AiO. Można by się pokusić o jakieś AC Noctuy lub BQ (nie koniecznie "behemoty"). Primo radiator na froncie podniesie temp. GPU o parę stopni (ucierpią zegary turbo i potencjał OC). Po drugie bardziej upierdliwy (według mnie) montaż. A wymienione wyżej procesory (jak i zastosowania) nie wymagają mega chłodzenia.

    Procesory Intela nie są też tak bardzo wrażliwe na temp. jak Ryzeny (z punktu widzenia żywotności/degradacji). 

    Btw: z tego co dziś na FB widziałem do EK AIO dzisiaj (i chyba jutro) dorzucają 3 darmowe wentyle do push &  pull (RGB). 

     

  13. C7H otrzymał support Zen3.

     

    ROG CROSSHAIR VII HERO (WI-FI) BIOS 4001
    1. Update AMD AM4 AGESA V2 PI 1.1.8.0 for new CPU support
    2. It’s highly recommended not to update this beta BIOS when using AMD AM4 Socket for AMD Ryzen™ 3000 Series/ 2000 Series/ 1000 Series/ A-Series Desktop Processors.
    3. This beta BIOS can only be reversed by BIOS Flashback.

  14. W Metro nie masz DLSS 2.0, w Control DLSS 2.0 działa i wygląda rewelacyjnie. Gram w 3440x1440p i w 4K (ale preferuje 21:9). Jakie masz artefakty u siebie, używasz może wyostrzenia obrazu w panelu NV?

     

    Oczywiście że nie, po prostu przypatrz się na niektóre obiekty, kratki, siatki itp. nvidia ciągle sobie nie może z tym poradzić.

    Dodatkowo "doczytywanie się" lub wyostrzanie niektórych* elementów dopiero po bezpośrednim podejściu do nich (np. niektóre napisy/znaki/tablice) - co jest mega irytujące momentami. 

     

    DLSS jest mega, ale nigdy bym z niego nie skorzystał mogąc cisnąć tylko na natywnej rozdzielczości. Mam dobre oko do szczegółów i wyjątkowo mnie to kłuje nawet gdy nie chce tego widzieć. 

    • Popieram 1
  15. RXy mają dziwne zachowanie, na ten moment raz wygrywają, nawet przebijają 3090, raz dostają ostre baty. Widać, że ten cache w jednej grze robi swoje, w drugiej nie, i gruby bottleneck 256bit.

     

    Bo walka teraz trwa na wielu polach. Nie tylko surowa wydajność.

    - "surówka"

    - Raytracing

    - DLSS i podobne technologie

     

    Ale także:

    - dostępność kart (możliwości produkcyjne)

    - TDP i pobór prądu

    - możliwość OC (ważne dla grupy entuzjastów) 

    - kryptowaluty (wpływa na ceny i dostępnóść + generuje zysk u innej grupy odbiorców) 

     

    Jak dla mnie nie da się wybrać co jest lepsze, czy 3080 czy 6800XT. Bo zawsze jest kilka "ale". 

  16. Noo tylko nie wszystkie gry to mają, dla mnie, osobiście RT nie jest kartą przetargową - nie jest wskazane używane w grach w które gram (multi FPS)

    Teraz duża ważniejszym aspektem jest dostępność.

     

    Nie zapominajmy, że 6800XT to ciągle szybsza karta od 2080TI  za 40% wartości  

     

    Ale jednak DLSS się czasami przyda. Co prawda głownie w grach single - ale jest. Pytanie czy AMD zrobi coś co może konkurować z DLSS - czy tylko udawać. 

     

    Jak na razie zapowiada się świetnie. Ale z RT itp bym poczekał z 2 generacje  by dać się technologii rozwinąć.

  17. Poznałem ceny na Radeony w wydaniu ASUSa. Info z dystrybucji, zobaczymy czy to się potwierdzi wszystko. Słaba dostępność to i windowane cen będzie.

     

    RX 6800 XT TUF - 4499 zł

    RX 6800 TUF - 3899 zł

    RX 6800 XT STRIX - 5090 zl

     

    Z takimi cenami nic nie sprzedadzą. Poza tym ostatnimi czasy ASUS'y ssały w radeonach. Np. słynny brak chłodzneia VRM na strixach.

     

    Imo czekałbym na oficjalne ceny Szafira, Powercolora i klasycznie (eco) gigabyte'a. 

  18. A więc kupiłem. Dla osób, które w przyszłości mogą być zainteresowane tym pendrivem.

    Dodatkowo grzeje się on mniej niż np. Ultra Flair. 

    * MB/s = 1,000,000 bytes/s [SATA/600 = 600,000,000 bytes/s]
    * KB = 1000 bytes, KiB = 1024 bytes
    
    [Read]
    Sequential 1MiB (Q=  8, T= 1):   390.237 MB/s [    372.2 IOPS] < 21429.52 us>
    Sequential 1MiB (Q=  1, T= 1):   387.172 MB/s [    369.2 IOPS] <  2707.55 us>
        Random 4KiB (Q= 32, T=16):    14.587 MB/s [   3561.3 IOPS] < 90271.89 us>
        Random 4KiB (Q=  1, T= 1):    13.206 MB/s [   3224.1 IOPS] <   309.98 us>
    
    [Write]
    Sequential 1MiB (Q=  8, T= 1):    67.492 MB/s [     64.4 IOPS] <122572.76 us>
    Sequential 1MiB (Q=  1, T= 1):    67.521 MB/s [     64.4 IOPS] < 15509.89 us>
        Random 4KiB (Q= 32, T=16):    19.165 MB/s [   4679.0 IOPS] < 79584.35 us>
        Random 4KiB (Q=  1, T= 1):    25.558 MB/s [   6239.7 IOPS] <   160.03 us>
    
    Profile: Default
       Test: 1 GiB (x5) [Interval: 5 sec] <DefaultAffinity=DISABLED>
       Date: 2020/11/12 16:33:32
         OS: Windows 10  [10.0 Build 19042] (x64)
    
    
    
    • Popieram 1
  19. LG 27UL - wersja do wyboru. DP 1.4 + IPS + niska cena. Używam od roku (przesiadłem się z Momentuma 32').

     

    Philips ma lepsze kolory (DCI P3 - duża zaleta). Ale ma problemy z BLB i IPS Glow na ponadprzeciętnym poziomie (można trafić dobrą sztuke, albo nie trafić na taką nawet po 5 szt.). Niestety DP tylko 1.2. 

     

     

    https://www.displayspecifications.com/en/comparison/caf91608cc

     

    Porównanie na papierze.

     

    Do oglądania filmów jednak patrzyłbym na coś z matrycą VA a nie IPS. Primo czerń, po drugie kontrast.

×
×
  • Dodaj nową pozycję...