-
Liczba zawartości
3046 -
Rejestracja
-
Ostatnia wizyta
Typ zawartości
Profile
Blogi
Forum
Kalendarz
Posty dodane przez DjXbeat
-
-
Przy odpowiednim cięciu efektów graficznych 4K i 60fps jest do osiągnięcia na RTX2080Ti ale posiadaczą tych kart duma by nie pozwoliła cokolwiek obciąć
-
Widziałem RDR2 u znajomego na konsoli. Ładnie jest owszem, ale nie leżało to nawet obok tego co oferuje topowy PC.
Mam obydwie wersję i różnice nie są aż tak duże jak by się mogło wydawać.
-dalszy zasięg rysowania cieni, osób i roślinności (na XoX LOD jest bardziej rozmazany)
-wyższa rozdzielczość cieni (tutaj widać największą różnicę)
-wyższa jakość Global GI i AO na PC (można regulować)
-wyższa rozdzielczość tekstur na PC (XoX nadrabia o dzięki 4K).
I to wszystko
Zapomniałem jeszcze o Wolumetrycznym oświetleniu, które na PC również wygląda lepiej ale w lesie na bagnach zarżnie każde GPU
4k na konsolach to też nie jest prawdziwie 4k
Ludzie zbyt często ten błąd w postrzeganiu światów sprzętowych popełniają.
Na XOX RDR2 działa w pełnym 2160p.
-
A jakie mam mieć wymagania - posiadam najmocniejszą dostępną na rynku kartę graficzną i gra nie działa na niej płynnie.
To dopasuj ustawienia tak aby działała płynnie i po problemie.
-
Na śmiesznym Xbox one x ze specyfikacją o mocy 20% mojego komputera potrafili ogarnąć natywne 4K ale oczywiście na PC już się nie chciało dopracować kodu.
Wiesz na czym głównie polega optymalizacja gry pod konsole?
Na cięciach grafiki tam gdzie się da aby zyskać wydajność i nie stracić za dużo na jakości!. W 90% to jest ta cała optymalizacja, której dokonuje developer.
Na PC dostajemy możliwość ustawienia lepszej grafiki i "suwaki" do jej regulacji i to Ty czy ja sami optymalizujemy ustawienia pod swój zestaw.
Widocznie masz zbyt wygórowane wymagania.
EDIT
Na XOX jest mieszanka poszczególnych ustawień low/med/High... Ustaw tak u siebie to zyskasz wydajność.
-
1
-
-
Ja wysłałem wczoraj R5 3600 do kuzyna, tydzień testowałem na swoim Asusie X570 (wciąż nieaktualna sygnatura). W csgo PBO potrafiło podbić jeden rdzeń do 4260 (mnożnik 42.75x) co skutkowało minimalnie lepszym fps niż ręczne OC do 4.2GHz
Po pierwsze R5 3600 maksymalnie boostuje do 4.2Ghz na 1 wątku i w tej kwestii monitoring przekłamuje a po drugie przelicz sobie stosunek gier bazujących na 1 wątku vs wielowątkowych i wyjdzie CI, że 98% gier siedzi na więcej niż 1 wątku
-
Wyniki po OC są zazwyczaj gorsze (gry) niż przy AutoOC,
Wyniki po OC czyli przy stałym taktowaniu dla wszystkich rdzeni są lepsze a R5 3600 czyli procesor polecany w tym temacie 4.2Ghz na wszystkich rdzeniach uzyska zawsze
Przerabiałem temat podkręcania tego procesora - jak pracujesz na domyślnych ustawieniach z działającym PBO to nawet jeśli taktowanie wskazuje na 4.2Ghz to i tak uzyskujesz niższe wyniki niż na sztywno ustawionym taktowaniu 4.2Ghz dla wszystkich rdzeni.
Wielokrotnie o tym już napisałem - monitoring taktowania z PBO potrafi wprowadzić w błąd bo wskazuje taktowanie 4.2Ghz a wyniki są znacznie niższe niż dla 4.2Ghz.
-
Na poprzedniej stronie neo88 ma ze swoim 2700x ponad 40000, poza tym mój wynik jest praktycznie taki sam jak i7 3 generacji intela
, w przypadku odczytu już jest lepiej.
2700X to nie R 3600.
-
https://prnt.sc/pspmp1 co taki słaby wynik?
W jakim sensie słaby?
Ryzen 5 3600 ma taki słaby zapis i nic z tym nie zrobisz.
-
1
-
-
Są to najbardziej budżetowe konstrukcje pod najsłabsze Ryzeny.
Najpierw powiedz nam proszę, jaki procesor planujesz tam wsadzić. Jeżeli np 3200G, to wszystko jedno, te dwie płyty oferują w tym zakresie identyczne parametry.
Nic mocniejszego do tych płyt nie radziłbym instalować, ponieważ posiadają kiepską, a do tego pozbawioną chłodzenia sekcję zasilania procesora, czyli przy większym poborze prądu będzie się ona strasznie grzać, a może i przegrzewać.
Stek bzdury osoby, która tych płyt na oczy nie widziała!
Tak się składa, że jestem użytkownikiem płyty B450M DS3H i choć jest to budżetowa płyta główna świetnie daje sobie radę nawet z 16cores.
Miałem na tej płycie 3 miesiące Ryzena 7 1700 podkręconego do 3.7Ghz 1.28v na wszystkich wątkach i sekcja zasilania po 4 godzinnym renderingu dobijała do 75C. Dużo?
Obecnie na płycie siedzi Ryzen 5 3600 4.2Ghz 1.37v i sekcja zasilania po mocnym katowaniu renderingiem łapie 61C.
Sekcja zasilania na tej płycie głównej jest nie wiele słabsza niż na B450Gaming
-
1
-
-
-
Nie ma znaczenia ile gier w teście. Praktycznie każdą można ustawić tak aby to cpu ograniczał.
Jak najbardziej ma znaczenie bo są gry gdzie różnicę po między procesorami będzie widać od razu i są również gry gdzie musisz stworzyć odpowiednie warunki aby ograniczeniem stał się procesor. Pozostaje pytanie ile ustawień graficznych będziesz musiał obciąć i do jakiej rozdzielczości zjechać aby zaczęły pojawiać się różnicę po między poszczególnymi procesorami.
Idąc tym sposobem dojdziemy do wniosku, że każdy procesor jest za słaby dla RTX2070S
-
Prawdopodobnie ktoś kto ma odświeżanie monitora większe niż 60 Hz.
Po pierwsze nie znam osoby, która kupiła by RTX2070S/2080S do rozdzielczości 1080p a po drugie w 1440p nawet po ścięciu detali będzie problem od strony GPU żeby uzyskać wydajność przekraczającą 100kl/s
Kolejna sprawa nawiązująca do materiału Blacka... 2 gry ze ściętymi detalami i wniosek żeby nie parować mocnych kart ze słabszymi procesorami? 2 gry?
Żeby chociaż z 6-8 gier sprawdził a On wyciąga daleko idący wniosek na podstawie 2 produkcji. A co jeśli w 2 kolejnych grach sytuacja nie była by klarowana?
Dla mnie materiał do d....
-
4
-
-
Nie jest to w żaden sposób słaby materiał. Bardzo konkretnie uzmysławia jak wydajność CPU jest istotna w kontekście wykarmienia mocnego GPU. Dobrze, że na tak dużym kanale jak X-Kom pojawił się taki materiał.
Materiał bardzo słaby ze względu na podsumowanie i wnioski
Nie kupować drogich kart pokroju 2070S/2080 do procesor np. R5 3600 bo nie wykorzystacie pełni możliwości kart ale żeby doprowadzić do sytuacji gdzie różnice będą mocno widoczne black musiał zjechać z detalami w grach.
Kto kupuje RTx2070S/2080 po to by w 1080p zjeżdżać z detalami?
-
Ja osobiście do 1000zł celował bym w Sapphire Vega 56 Pulse za 996zł w sklepie Proshop.pl
W zestawie Xbox Game Pass a sama karta graficzna jest wydajniejsza od GTX1660Ti
-
1660-ki biją na głowę 1070-ki w nowszych grach, nie ma zbytnio sensu teraz pascali kupować.
GTX1070 to w dalszym ciągu wydajniejsza karta od GTX1660/1660 Super (po za grami z fp16) ale niestety większość z Was dała się ogłupić i nie widzi tego, że w testach macie zestawienie nisko taktowanego referenta GTX1070 z konstrukcjami niereferencyjnymi GTX1660/1660 Super.
Prosty przykład z testu Modern Warfare 1920x1080 na PurePC
GTX1660 Super (1975Mhz) - 78/84.7 fps
GTX1660 (1965Mhz) - 71/77 fps
GTX1070 (1720Mhz) - 69/74.5 fps
~13% straty z samego taktowania. Jak wrzucicie nie referenta GTX1070 o zbliżonym taktowaniu np. ~1950Mhz to się okaże, że jednak jest wydajniejszy
-
Obecnie mam Gigabyte B450M DS3H, który ma słabszą sekcję od tych z MSI, dodatkowo zamontowany jest bardzo mały radiatorek
a z procesorem R7 1700@ 3.7Ghz 1.28v po 4 godzinnym renderingu zanotowałem 75C na sekcji zasilania.
Obecnie z R5 3600 stock ~4.2Ghz 1.37v sekcja nie łapie nawet 70C a w grach typu BF5 gdzie procesor jest obciążony w granicach 80% sekcja notuje maksymalnie 61C -
Fazowo tak - ale już chłodzenie jest inne na tych sekcjach.
Sądzisz, że te ~20g aluminium więcej zrobi jakąś różnicę w schłodzeniu sekcji?
Miałem w domu B450 A-pro i Gaming Plus z R7 1700.
-
MSI B450 A -Pro, Tomahawk i Gaming Plus mają tą samą sekcję zasilania.
Po między R5 2600 a R5 3600 jest jednak spora różnica wydajności! Szczególnie mocno poprawił się kontroler pamięci, który teraz pozwala osiągnąć znacznie wyższe, stabilne taktowanie dla pamięci ram.
-
W grach w dalszym ciągu liczy się wydajność pojedynczego wątku i ta sytuacja jeszcze bardzo długo się nie zmieni.
-
W 1440p różnica się zaciera ze względu na ograniczenie od strony karty graficznej. Jak zjedziesz detalami tak aby wyciągnąć wyższą wydajność to znowu R5 3600 zacznie odjeżdżać.
Prawda jest taka, że R5 3600 pozwoli Ci na grę w 120-144kl/z więc jeśli ktoś ma monitor z takim odświeżaniem to procesor zrobi robotę. Starsze serię R5 1600/2600, R7 1700/2700 nawet po oc niestety nie udźwigną takiej wydajności
-
2
-
-
Coraz więcej gier korzysta z wielordzeniowosci.
W takich grach jak nowy TR, FC5, BF-y 2700 radzi sobie lepiej niż 2600.
Wrzuć R5 3600 i porównaj go do R7 2700 i Twój argument o lepszym wykorzystaniu wielordzeniowości zginie.
R5 3600 w grach rozłożył na łopatki R7 1700@ 3.7Ghz i to o ponad 30%.
W BF5 gram od początku i jestem nastawiony na wysoką wydajność kosztem jakości obrazu. Z R7 1700@3.7Ghz + RTX2060 w ustawieniach low/med. 1080p notowałem ~110kl/s ze spadkami do ~90kl/s. Zmiana na R5 3600 i wydajność oscyluje w granicach ~150kl/s ze sporadycznymi, rzadkimi spadkami do ~110kl/s
Wyniki są przy tak samo ustawionej pamięci ram 3400 14.14.14 28 1T.
-
1
-
-
Nie gram w BF-y,
Grasz w gry i przewaga R5 3600 nad poprzednią serią jest bardzo duża!
8R to 8R
Tylko na papierze i przed znajomymi
Sam bawię się w rendering i o dziwo stockowy R5 3600 osiąga wydajność R7 1700@ 3.7Ghzprzy kilkugodzinnym renderingu jednocześnie zużywa ~25% mniej watt.
Kolejny plus to obsługa ram. Z R7 1700 mój ram kończył się na 3400Mhz 14.14.14 28 1T a z R5 3600 3800Mhz 14.16.14.32 1T. Płyta główna ta sama. Niestety płyta ma problemy bo przy 1900Mhz dla szyny są zakłócenia AUDIO ale czego wymagać od płyty Gigabyte B450M DS3H za 270zł
-
Nie lepiej zmienić na R5 3600? Mniejszy pobór, sekcja bez problemu da radę i wydajność w grach w górę ~15%.
Ja zmieniłem R7 1700@ 3.7Ghz na R5 3600 i w BF5 wydajność ze ~110kl/s skoczyła na ~150kl/s
-
Ile zaoszczędzisz przy przesiadce XT -> non XT, 250 pln? Między tymi kartami jest niecałe 20% różnicy w wydajności, flashem biosa z XT nadrabiasz 7-8%. Jeżeli wydajność zwykłego 5700 +8% Ci styka to zawsze zostaje dwie i pół stówy na dziwki i koks
Gaming XT bym sobie podarował, mając Pulsa.
Po między XT a non XT przy takim samym taktowaniu jest ~7% różnicy w wydajności na korzyść XT. XT na starcie ma wyższą wydajność ze względu na wyższe taktowania.
Temat o kartach Nvidia RTX Turing (TU1xx).
w Karty graficzne
Napisano · Edytowane przez DjXbeat
Jak ustawisz detale takie jakie są na XoX to na 2080Ti pograsz komfortowo w 4K 60fps.
Na XoX masz mieszankę ustawień low/med/high z krótszym zasięgiem rysowania a to zaraz po dopakowanej jakości cieni, wolumetrycznym oświetleniu najbardziej zabija GPU.
Dostałeś suwaki po to by się nimi bawić i ustawić odpowiednią jakość do możliwości sprzętu.
https://www.youtube.com/watch?v=QqNdX2NIdVo