Skocz do zawartości

Lipton

Bloger
  • Liczba zawartości

    1082
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez Lipton

  1. @up, O czym ty mówisz? Z ostatecznymi wnioskami należy się wytrzymać, jednak jak ReznoR zauważył GPU jest w obu przypadkach wykorzystane niemal w 100%, a procesor w 60%. Jeżeli nagle zyskujemy 20%, pomimo, że GPU nie miało już zapasu, to raczej GPU było ograniczeniem.

    :)

     

    Uśmiecham się, gdy ktoś aż tak mocno bazuje na wskaźnikach z MSI:AB. Okej, ale pozostańmy na chwilę w tej strefie.

    W DX12 pewna część obliczeń powędrowała na CPU, odciążając GPU. Wzrosło użycie CPU, a GPU teoretycznie powinno być na tym samym poziomie lub wyższym co przy DX11. Nie znamy jednak szczegółów pracy silnika graficznego i jedyne co w tej chwili możemy to poteoretyzować, dlaczego tak się nie stało. Uruchom Dying Light przy konfiguracji i5-6600K + Maxwell/Pascal (+1000 PLN). Użycie GPU w 80%, CPU 50-60%. Teraz piszę z pamięci, mogę się mylić o 5% w tą czy w tamtą, ale są pewne gry, które same z siebie nie wykorzystują zasobów procesora i karty graficznej, w takim stopniu w jakim chciałbyś to widzieć na monitoringu MSI:AB.

  2. DX11 - Avg 98% GPU / 61% CPU - 76,3 FPS

    DX12 - Avg 96% GPU / 82% CPU - 95,8 FPS

    Użycie GPU jest nawet ogólnie mniejsze niż na DX11. Także albo wskaźnik użycia GPU można o kant d. rozbić, albo faktycznie DX12 odkrywa ukrytą moc CPU, który zaczyna pomagać karcie w renderingu.

    Ile jest przypadków gier, które nie wykorzystują w pełni zasobów CPU i GPU? The Division na DX12 uwolniło moc CPU, a to że nastąpił spadek użycia GPU to efekt takiego działania. 

  3. @maniuox

    Odpal sobie gry na DX12 i podziwiaj jak RX 480 jest wydajniejszy od GTX1060. W praktycznie każdej nowej, nadchodzącej grze będzie DX12 więc RX 480 będzie zyskiwał a jeśli gra będzie z Asynchronicznymi Obliczeniami to GTX1060 dostanie mocno po d....

    Chyba samo AMD w to nie wierzy. Zbyt dużo macek Nvidia sięga do deweloperów gier. Zresztą, kto jak nie oni stwierdzili że async daje niewielkiego kopa grom i jest trudne w implementacji? Potem niby Oxide i twórcy Cywilizacji to storpedowali, ale czy można im wierzyć? 

     

    Masz gdzieś testy w Tomb Raider DX12 z patchem pod async? 

  4. Nie chcę już robić zbędnego offtopu, ale kolega posiada g4400 i chwilowo 750ti fpsy pdoobne do tych: https://www.youtube.com/watch?v=3Qgv72XmqOY, myślę, że to nie zły wynik :) a zawsze w przyszłości, gdy będzie chciał nowy komputer, może zdecydować się na rozbudowę zamiast składać od nowa zestaw i tu łatwiej będzie z 6 generacją niż 4 :)

    Ogólnie rzecz biorąc Pentek jest dobry dla majsterkowicza, dla osoby która poradzi sobie z wszelkimi narzędziami uwalniający Pentka od nagłych "czkawek" wydajnościowych. Nie testowałem G4400 w porównaniu z kręconym G3258, ale strzelam w ciemno że lepiej by nie było.

  5. http://i.imgur.com/7LaFVln.jpg

     

    http://i.imgur.com/LqJDe91.jpg

     

    http://i.imgur.com/xERJO7N.jpg

     

    http://i.imgur.com/1bCjwCQ.jpg

     

     

    Do końca prac jeszcze trochę. Na razie męczę się z riserem, który w spoczynku jest powodem zacięć obrazu.

    Wiem, wiem. Mnóstwo kurzu od dywanu. Za miesiąc PC wyląduje na ścianie.

    • Popieram 7
  6. Duzo osob niestety z racji ceny 1070, wybierze pewnie duzo tanszego polarisa 10.

    Oczywiscie mam na mysli nowych klientow.

    Nie zapominaj o GTX 1060. Nvidia prawdopodobnie wprowadzi go w pośpiechu z racji dużej ilości odrzutów chipów z wafli krzemowych. To normalne, że na początku procesu mamy do czynienia z takim zjawiskiem. 

     

    Polaris może być ciekawym kąskiem, pod warunkiem że modele niereferencyjne nie będą miały kosmicznej wyceny. Do tego dochodzą obniżki Fury i wejście ich na rynek poniżej 2 tys. PLN. Bardzo gorące lato się szykuje.

  7. Pewnie w ciągu najbliższych 2 tygodni powinna być dostępna. Producenci będą teraz się ścigali z dostępności jak to było po premierze GTX 970

     

    Poza tym cena dyżo lepsza w X-kom http://www.x-kom.pl/p/309251-karta-graficzna-pci-e-msi-geforce-gtx-1080-gaming-x-8gb-gddr5x.html

    Ta cena może być "promocyjna". Pojawiają się głosy o okolicach 4K. Jutro to będę weryfikował u samego źródła. 

    x-kom wszystkim 1080 dał taką samą cenę.

  8. Punkt widzenia zależy od punktu siedzenia. Już dawno temu przestałem upraszczać podejście do metodologii testowej. Tu, w temacie o PCL jak bumerang wraca sprawa miejsc procesorowych i ich wpływu na kształtowanie rozgrywki przy kartach AMD i NVIDII. Myślę że każdy z nas się zgodzi z tym, że Radeony mają problem z działaniem sterownika pod DX11. Nie wiem, czy PCL pierwszy to odkrył (zapewne nie), ale nie to jest najważniejsze. Myślę że część osób słusznie zarzucała swego czasu PCL zbyt mocne przywiązywanie uwagi do miejsc procesorowych. Do momentu wprowadzenia w artykułach trzech lokacji z gier typu Fallout, GTA i Wiedźmin wszyscy wyrywali sobie włosy z głowy i zastanawiali się, o co tej redakcji chodzi. Dlaczego na zagranicznym portalu X Radeon R9 380 wygrywa z GTX 960, by na PCL przegrywać z nim o kilka dobrych procent. Sprawa jest bardzo złożona i szczerze żałuję, że PCL nigdy nie podjął się przedstawienia tego w grubym jak książka artykule. 

     

    Z reguły fani miejsc procesorowych operują na trzech przykładach: GTA V, Crysis 3, Wiedźmin 3 czasem zastępuje go Fallout 4.

    Czy oznacza, że tylko w tych tytułach są problemy z narzutem? Oczywiście że nie. Istnieją inne gry, gdzie problem się objawia, ale w znacznie mniejszym stopniu, dlatego często nie bierze się ich pod uwagę. 

     

    Trzy czy cztery gry? Mało, nie sądzicie? Dlatego zawsze doceniałem testy, w których pojawiało się kilkanaście różnych tytułach (FPS, symulatory, MMO, MMORPG, RPG) nawet z uwzględnieniem takich rarytasów jak The Forrest, ARK, Rust - czy tego chcemy, czy nie to w tym kierunku idą trendy graczy. 

     

    Problem z narzutem ma inne odniesienie dla osoby, która żyłuje R9 380/R9 380X/R9 390, a tej która chce uzyskać stabilne 60 kl./s. Pierwsza prawdopodobnie go w ogóle nie odczuje w porównaniu z GTX 960/GTX 970, drugą z kolei może spotkać przykra niespodzianka.

     

    Ilość miejsc procesorowych w grach. Tłok i efekty fizyczne w GTA, NPC Novigradu w Wiedźminie, lokacje trawkowe w Crysis. Każdy z przykładów można rozbierać na czynniki pierwsze. Warren napisał, że miał tak okrutne spadki w W3, ja z kolei takich nie zaobserwowałem, a poruszałem się w tych samych miejscach co Digital Foundry. Wspaniałe działanie sterownika pod i5-4460/i5-6400? Sprawdź jednak, co się dzieje z Twoją 960-tką w miejscu PCL: http://pclab.pl/zdjecia/artykuly/chaostheory/2016/01/gfx/cpu_960/w3f_1920u.png

     

    Teraz na podstawie takich kilku wykresów (które byłbym w stanie stworzyć) z gier pt. Far Cry 4, Wiedźmin 3: Dziki Gon, Fallout 4, GTA V mogę postawić tezę, że GTX 960 ma problemy w miejscach GPU. Czy ją obronię? Jasne że tak.

     

    To takie nieustanne przeciąganie linii. Jaka lokacja jest ważniejsza, gdzie mamy wyższą wydajność, czy podkręcamy kartę graficzną, na jakich detalach gramy. Wreszcie! Na jakim procesorze bazujemy, czy jest to Pentium, czy i3, czy może któryś z CPU rodziny FX? 

     

    Moje pytania do wybierającego kartę:

     

    - W jakie tytuły zamierzasz grać? 

    - Czy zamierzasz kiedykolwiek podkręcać GPU?*

    - Jesteś graczem, który stawia na płynność wyświetlanego obrazu, czy raczej przekładasz jakość nad ilość kl./s?

     

    *ważne pytanie z punktu widzenia rywalizacji GTX 970 vs R9 390.

    • Popieram 6
  9. Dokładnie to chodzi o ten wąż gpu-pompka. Ja bym zamienił wplot i wylot miejscami a z pompki wywalił adapter kątowy. Powinno poprawić ten odcinek.qqq

    Nie chciałem dopuścić do prostego odcinka pomiędzy pompą, a blokiem GPU (nie podoba mi się coś takiego). Za dwa tygodnie będą złączki do akryli, to i całość będzie wyglądała o wiele lepiej. No i chyba dorwę jakąś drugą sztukę 290X do CF. 

  10. Kilka fotek mojego układu:

     

    http://i.imgur.com/BQaxV0g.jpg

     

    http://i.imgur.com/mfCkU5g.jpg

     

    http://i.imgur.com/R8AtpPD.jpg

     

    http://i.imgur.com/LGXWTSp.jpg

     

    http://i.imgur.com/j3CEXpd.jpg

     

    http://i.imgur.com/rPfc3xS.jpg

     

    Na razie płyn trochę pomieszany, dlatego nie ma efektu bloody. 

    Dzisiaj zlewam to, co jest - ogarniam kable i wlewam krwistą czerwień!

    • Popieram 4
  11. Dzięki za wskazówkę, na pewno wezmę ją pod uwagę.

    Teraz mam inny problem. Korki na topie Alphacool przeszkadzają w równym montażu chłodnicy. W związku z tym planuję przesunięcie wentylatorów Noctua ku górze Define S.


    Solaris przyszedł do mnie i razem wymodziliśmy coś takiego:

     

     

     

    http://i.imgur.com/2xzXyGP.jpg

    http://i.imgur.com/53RT6dl.jpg

    http://i.imgur.com/0jWrshB.jpg

    http://i.imgur.com/1qWAzv4.jpg

    http://i.imgur.com/5VqmTNT.jpg

    http://i.imgur.com/7QXZgF3.jpg

    http://i.imgur.com/rhTdHgJ.jpg

    http://i.imgur.com/ZAlljRV.jpg

     

     

     

    Jest pomysł na 360 tuż przy zasilaczu, ale obawiam się o przerost formy nad treścią.

    Gaming M7 nie będzie docelową płytą do LC. W Define S miejsce dla siebie znajdzie Z97X Killer. Do tego 4x4 A-DATA ;)

     

    Czekam na plastdip - czarny mat. Będę malował gumki Noctua, chłodnice z wierzchu i zaślepki dla kart rozszerzeń.

    • Popieram 3
  12. Ufff dwa tygodnie oczekiwania na chłodnicę Alphacool. Nareszcie dotarła.

    Przez przypadek trafiłem w necie na układ, który sam będę tworzył...

     

    http://cdn.overclock.net/3/32/500x1000px-LL-32657427_655be709-f646-44c3-93a0-00a9e7e68e30_5.jpeg

     

    Te same chłodnice, taka sama ilość wentylatorów, tylko rezik mniejszy :)

    • Popieram 1
×
×
  • Dodaj nową pozycję...