Skocz do zawartości

DjXbeat

Użytkownik
  • Liczba zawartości

    3046
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez DjXbeat

  1. @up Problemem nie jest samo w sobie to, że gra nie chodzi dobrze w 4k na topowej karcie. Problemem jest to, że ona nie chodzi dobrze mimo iż nie wygląda dużo lepiej niż inne które śmigają aż miło. 

     

    Gdyby zaprezentowali skok grafiki na poziomie pierwszego crysisa nikt by im nie miał za złe, że gra zajeżdża każde gpu. Rzecz w tym, że tu po prostu skopana po całości jest optymalizacja, bo gra która w 4k chodzi na konsoli z GPU na poziomie niskiej półki w PC zajeżdża gpu za 5 kafli.

    Jak ustawisz detale takie jakie są na XoX to na 2080Ti pograsz komfortowo w 4K 60fps. 

    Na XoX masz mieszankę ustawień low/med/high z krótszym zasięgiem rysowania a to zaraz po dopakowanej jakości cieni, wolumetrycznym oświetleniu najbardziej zabija GPU. 

    Dostałeś suwaki po to by się nimi bawić i ustawić odpowiednią jakość do możliwości sprzętu. 

     

    https://www.youtube.com/watch?v=QqNdX2NIdVo

    • Popieram 1
  2. Widziałem RDR2 u znajomego na konsoli. Ładnie jest owszem, ale nie leżało to nawet obok tego co oferuje topowy PC.

    Mam obydwie wersję i różnice nie są aż tak duże jak by się mogło wydawać. 

    -dalszy zasięg rysowania cieni, osób i roślinności (na XoX LOD jest bardziej rozmazany)

    -wyższa rozdzielczość cieni (tutaj widać największą różnicę)

    -wyższa jakość Global GI i AO na PC (można regulować) 

    -wyższa rozdzielczość tekstur na PC (XoX nadrabia o dzięki 4K). 

    I to wszystko 

    Zapomniałem jeszcze o Wolumetrycznym oświetleniu, które na PC również wygląda lepiej ale w lesie na bagnach zarżnie każde  GPU  8-)

     

    4k na konsolach to też nie jest prawdziwie 4k :) Ludzie zbyt często ten błąd w postrzeganiu światów sprzętowych popełniają.

    Na XOX RDR2 działa w pełnym 2160p. 

     

     

     

     

  3. Na śmiesznym Xbox one x ze specyfikacją o mocy 20% mojego komputera potrafili ogarnąć natywne 4K ale oczywiście na PC już się nie chciało dopracować kodu.

    Wiesz na czym głównie polega optymalizacja gry pod konsole?

    Na cięciach grafiki tam gdzie się da aby zyskać wydajność i nie stracić za dużo na jakości!. W 90% to jest ta cała optymalizacja, której dokonuje developer. 

    Na PC dostajemy możliwość ustawienia lepszej grafiki i "suwaki" do jej regulacji i to Ty czy ja sami optymalizujemy ustawienia pod swój zestaw. 

    Widocznie masz zbyt wygórowane wymagania. 

     

    EDIT

    Na XOX jest mieszanka poszczególnych ustawień low/med/High... Ustaw tak u siebie to zyskasz wydajność. 

    • Popieram 1
  4. Ja wysłałem wczoraj R5 3600 do kuzyna, tydzień testowałem na swoim Asusie X570 (wciąż nieaktualna sygnatura). W csgo PBO potrafiło podbić jeden rdzeń do 4260 (mnożnik 42.75x) co skutkowało minimalnie lepszym fps niż ręczne OC do 4.2GHz ;)

    Po pierwsze R5 3600 maksymalnie boostuje do 4.2Ghz na 1 wątku i w tej kwestii monitoring przekłamuje a po drugie przelicz sobie stosunek gier bazujących na 1 wątku vs wielowątkowych i wyjdzie CI, że 98% gier siedzi na więcej niż 1 wątku ;) 

  5. Wyniki po OC są zazwyczaj gorsze (gry) niż przy AutoOC, 

    Wyniki po OC czyli przy stałym taktowaniu dla wszystkich rdzeni są lepsze a R5 3600 czyli procesor polecany w tym temacie 4.2Ghz na wszystkich rdzeniach uzyska zawsze ;) 

    Przerabiałem temat podkręcania tego procesora - jak pracujesz na domyślnych ustawieniach z działającym PBO to nawet jeśli taktowanie wskazuje na 4.2Ghz to i tak uzyskujesz niższe wyniki niż na sztywno ustawionym taktowaniu 4.2Ghz dla wszystkich rdzeni.

    Wielokrotnie o tym już napisałem - monitoring taktowania z PBO potrafi wprowadzić w błąd bo wskazuje taktowanie 4.2Ghz a wyniki są znacznie niższe niż dla 4.2Ghz. 

  6. Są to najbardziej budżetowe konstrukcje pod najsłabsze Ryzeny.

    Najpierw powiedz nam proszę, jaki procesor planujesz tam wsadzić. Jeżeli np 3200G, to wszystko jedno, te dwie płyty oferują w tym zakresie identyczne parametry.

     

    Nic mocniejszego do tych płyt nie radziłbym instalować, ponieważ posiadają kiepską, a do tego pozbawioną chłodzenia sekcję zasilania procesora, czyli przy większym poborze prądu będzie się ona strasznie grzać, a może i przegrzewać.

    Stek bzdury osoby, która tych płyt na oczy nie widziała!

    Tak się składa, że jestem użytkownikiem płyty B450M DS3H i choć jest to budżetowa płyta główna świetnie daje sobie radę nawet z 16cores. 

    Miałem na tej płycie 3 miesiące Ryzena 7 1700 podkręconego do 3.7Ghz 1.28v na wszystkich wątkach i sekcja zasilania po 4 godzinnym renderingu dobijała do 75C. Dużo? 

    Obecnie na płycie siedzi Ryzen 5 3600 4.2Ghz 1.37v i sekcja zasilania po mocnym katowaniu renderingiem łapie 61C.

    Sekcja zasilania na tej płycie głównej jest nie wiele słabsza niż na B450Gaming

    • Popieram 1
  7. Nie ma znaczenia ile gier w teście. Praktycznie każdą można ustawić tak aby to cpu ograniczał. 

    Jak najbardziej ma znaczenie bo są gry gdzie różnicę po między procesorami będzie widać od razu i są również gry gdzie musisz stworzyć odpowiednie warunki aby ograniczeniem stał się procesor. Pozostaje pytanie ile ustawień graficznych będziesz musiał obciąć i do jakiej rozdzielczości zjechać aby zaczęły pojawiać się różnicę po między poszczególnymi procesorami. 

    Idąc tym sposobem dojdziemy do wniosku, że każdy procesor jest za słaby dla RTX2070S 

  8. Prawdopodobnie ktoś kto ma odświeżanie monitora większe niż 60 Hz.

    Po pierwsze nie znam osoby, która kupiła by RTX2070S/2080S do rozdzielczości 1080p a po drugie w 1440p nawet po ścięciu detali będzie problem od strony GPU żeby uzyskać wydajność przekraczającą 100kl/s 

    Kolejna sprawa nawiązująca do materiału Blacka... 2 gry ze ściętymi detalami i wniosek żeby nie parować mocnych kart ze słabszymi procesorami? 2 gry? 

    Żeby chociaż z 6-8 gier sprawdził a On wyciąga daleko idący wniosek na podstawie 2 produkcji. A co jeśli w 2 kolejnych grach sytuacja nie była by klarowana? 

    Dla mnie materiał do d.... 

    • Popieram 4
  9. Nie jest to w żaden sposób słaby materiał. Bardzo konkretnie uzmysławia jak wydajność CPU jest istotna w kontekście wykarmienia mocnego GPU. Dobrze, że na tak dużym kanale jak X-Kom pojawił się taki materiał.

    Materiał bardzo słaby ze względu na podsumowanie i wnioski

    Nie kupować drogich kart pokroju 2070S/2080  do procesor np. R5 3600 bo nie wykorzystacie pełni możliwości kart ale żeby doprowadzić do sytuacji gdzie różnice będą mocno widoczne black  musiał zjechać z detalami w grach. 

    Kto kupuje RTx2070S/2080 po to by w 1080p zjeżdżać z detalami?  :roll:

  10. 1660-ki biją na głowę 1070-ki w nowszych grach, nie ma zbytnio sensu teraz pascali kupować.

    GTX1070 to w dalszym ciągu wydajniejsza karta od GTX1660/1660 Super (po za grami z fp16) ale niestety większość z Was dała się ogłupić i nie widzi tego, że w testach macie zestawienie nisko taktowanego referenta GTX1070 z konstrukcjami niereferencyjnymi GTX1660/1660 Super.

    Prosty przykład z testu Modern Warfare 1920x1080 na PurePC

    GTX1660 Super (1975Mhz) - 78/84.7 fps

    GTX1660 (1965Mhz) - 71/77 fps

    GTX1070 (1720Mhz) - 69/74.5 fps

    ~13% straty z samego taktowania. Jak wrzucicie nie referenta GTX1070 o zbliżonym taktowaniu np. ~1950Mhz to się okaże, że jednak jest wydajniejszy ;) 

  11. Obecnie mam Gigabyte B450M DS3H, który ma słabszą sekcję od tych z MSI, dodatkowo zamontowany jest bardzo mały radiatorek

     

    Rqyq21e.gif

     

    a z procesorem R7 1700@ 3.7Ghz 1.28v po 4 godzinnym renderingu zanotowałem 75C na sekcji zasilania.
    Obecnie z R5 3600 stock ~4.2Ghz 1.37v sekcja nie łapie nawet 70C a w grach typu BF5 gdzie procesor jest obciążony w granicach 80% sekcja notuje maksymalnie 61C

  12. MSI B450 A -Pro, Tomahawk i Gaming Plus mają tą samą sekcję zasilania. 

    Po między R5 2600 a R5 3600 jest jednak spora różnica wydajności! Szczególnie mocno poprawił się kontroler pamięci, który teraz pozwala osiągnąć znacznie wyższe, stabilne taktowanie dla pamięci ram. 

  13. W 1440p różnica się zaciera ze względu na ograniczenie od strony karty graficznej. Jak zjedziesz detalami tak aby wyciągnąć wyższą wydajność to znowu R5 3600 zacznie odjeżdżać.

    Prawda jest taka, że R5 3600 pozwoli Ci na grę w 120-144kl/z więc jeśli ktoś ma monitor z takim odświeżaniem to procesor zrobi robotę. Starsze serię R5 1600/2600, R7 1700/2700 nawet po oc niestety nie udźwigną takiej wydajności ;)

    • Popieram 2
  14. Coraz więcej gier korzysta z wielordzeniowosci.

    W takich grach jak nowy TR, FC5, BF-y 2700 radzi sobie lepiej niż 2600.

    Wrzuć R5 3600 i porównaj go do R7 2700 i Twój argument o lepszym wykorzystaniu wielordzeniowości zginie. 

    R5 3600 w grach rozłożył na łopatki R7 1700@ 3.7Ghz i to o ponad 30%. 

    W BF5 gram od początku i jestem nastawiony na wysoką wydajność kosztem jakości obrazu. Z R7 1700@3.7Ghz + RTX2060 w ustawieniach low/med. 1080p notowałem ~110kl/s ze spadkami do ~90kl/s. Zmiana na R5 3600 i wydajność oscyluje w granicach ~150kl/s ze sporadycznymi, rzadkimi spadkami do ~110kl/s 

    Wyniki są przy tak samo ustawionej pamięci ram 3400 14.14.14 28 1T. 

    • Popieram 1
  15. Nie gram w BF-y, 

    Grasz w gry i przewaga R5 3600 nad poprzednią serią jest bardzo duża!

     

    8R to 8R :D

    Tylko na papierze i przed znajomymi ;)

    Sam bawię się w rendering i o dziwo stockowy R5 3600 osiąga wydajność R7 1700@ 3.7Ghzprzy kilkugodzinnym renderingu jednocześnie zużywa ~25% mniej watt. 

    Kolejny plus to obsługa ram. Z R7 1700 mój ram kończył się na 3400Mhz 14.14.14 28 1T a z R5 3600 3800Mhz 14.16.14.32 1T. Płyta główna ta sama. Niestety  płyta ma problemy bo przy 1900Mhz dla szyny są zakłócenia AUDIO ale czego wymagać od płyty Gigabyte B450M DS3H za 270zł  :roll:

  16. Ile zaoszczędzisz przy przesiadce XT -> non XT, 250 pln? Między tymi kartami jest niecałe 20% różnicy w wydajności, flashem biosa z XT nadrabiasz 7-8%. Jeżeli wydajność zwykłego 5700 +8% Ci styka to zawsze zostaje dwie i pół stówy na dziwki i koks ;)

     

    Gaming XT bym sobie podarował, mając Pulsa.

    Po między XT a non XT przy takim samym taktowaniu jest ~7% różnicy w wydajności na korzyść XT. XT na starcie ma wyższą wydajność ze względu na wyższe taktowania.

×
×
  • Dodaj nową pozycję...