Skocz do zawartości

ReznoR

Użytkownik
  • Liczba zawartości

    1855
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez ReznoR

  1. Te % w Power Limit nie zawsze są takie same, bo każdy BIOS karty ma inny podstawowy Power Limit.
    Innymi słowy, w MSI Afterburner limity powinny być podawane w watach, a nie w %.

    Limity W w BIOSach możesz sobie sprawdzić np. w bazie BIOSów na techpowerup.
    https://www.techpowerup.com/vgabios/

    GTX 970 Windforce OC:

    Board power limit
      Target: 250.0 W
      Limit: 280.0 W
      Adj. Range: -60%, +12%
    

    GTX 970 Xtreme:

    Board power limit
      Target: 300.0 W
      Limit: 366.0 W
      Adj. Range: -67%, +22%
    

    Ogólnie wgrywanie BIOSu od innych kart to zawsze jest jakieś ryzyko możliwości uszkodzenia karty - może nie od razu, ale np. po jakimś czasie - i robisz to na własną odpowiedzialność. Zwłaszcza jeśli ustawiasz większy power limit (W) niż na standardowym BIOSie. A tutaj jest sporo większy limit...

  2. mam taką samą kartę, czy problem u mnie też występuje? czy chodzi normalnie

    Kliknij w znaczek "?" obok Bus Interface i zrób render test, żeby sprawdzić, czy karta przechodzi w tryb x16 3.0. Jeśli tak, to wszystko jest ok.

     

    Co do reszty - upewnijcie się, że macie preset oszczędzania energii w systemie ustawiony na "Wysoka wydajność" i przeinstalujcie sterowniki przy pomocy Display Driver Uninstaller w trybie awaryjnym, a także że nic innego nie korzysta z interfejsu PCI-E.

    • Popieram 1
  3. Z GTX 960 jest taka sytuacja, że Maxwelle kręcą się lepiej niż Pascale, więc teoretycznie można uzyskać spory wzrost wydajności po OC. Ale ja sam nie miałem takiej karty i nie monitorowałem sytuacji w jej testach, także musiałbyś poszukać jakichś testów porównawczych GTX 1050 Ti 4 GB vs GTX 960 4 GB po OC.
    Ale IMO te 500 zł za poprzednią generację używaną w czasie gdy niewiele drożej jest nowa generacja i nowa karta... niezbyt mi się to widzi...

     

    edit: pierwszy z brzegu test po OC: https://www.purepc.pl/karty_graficzne/test_geforce_gtx_1050_ti_alternatywa_dla_geforce_gtx_960?page=0,16

  4. Zysk z 2400 na 2800 przy tych samych opóźnieniach i napięciu to chyba dobry wynik :) niektóre nie chcą się kręcić w ogóle.
    Mam nadzieję, że coś się uda więcej wycisnąć, bo np. na tych moich G.Skill jak próbowałem cokolwiek pozmieniać, to ani timingi ani MHz nic nie chciały ruszyć. Aczkolwiek ja napięć nie podwyższałem - nie chcę za bardzo ich zamęczyć. 1.65V to już itak powyżej specyfikacji. Pamięci z wysokimi gwarantowanymi OC to już typowe "selekty", stąd tak wysokie ich ceny, niestety, a teraz z tymi podwyżkami bardzo mało opłacalne.

    Jedynie co mi się udało osiągnąć to zmiana Command Rate ze standardowych 2T na 1T - zysk w grach jakiś tam jest, ale tak absolutnie minimalny, że nawet nie chce mi się robić takich wykresów...

  5. Miałem dzisiaj okazję sprawdzić grę która dość mocno korzysta z CPU (i7 powyżej 70% wykorzystania).
    Zrobiłem szybki test w 1280x720, żeby nie wprowadzać czynnika szybkości karty graficznej.

     

    Gra: Planet Coaster

    Ustawienia: preset Ultra+wymaksowane pozostałe opcje (Depth of Field wyłączone), AAx4 (w sumie mogłem wyłączyć i zrobić test w 1080p, no ale...)

    Test był prosty, gdyż polegał na wczytaniu ostatniego save (Continue) i pozostawieniu widoku bez zmian przez ok 2 minuty. Ilość ludzi w parku ok. 1380. Misja to jedna z tych pierwszych (z piratami).

     

    LINK

     

    http://orig12.deviantart.net/38d5/f/2017/166/8/c/planetcoaster_720p_ram_battle_by_reznor666-dbcs0yu.png

     

     

    2400 MHz 10-12-12-31 2x8 GB Dual Channel == 83,63 Avg FPS

    2400 MHz 10-12-12-31 1x8 GB Single Channel == 61,69 Avg FPS (nie zmieścił się w Generic Log Viewer)

    1600 MHz 9-9-9-24 2x8 GB Dual Channel == 67,23 Avg FPS

    1600 MHz 9-9-9-24 1x8 GB Single Channel == 49,5 Avg FPS

    Wszystkie kości miały ustawiony Command Rate = 1T (tak jak we wszystkich pozostałych testach)

     

    2400 MHz DC vs 1600 MHz SC = masywne 69% różnicy FPS!
    2400 MHz DC vs 1600 MHz DC = 24% różnicy

    Mamy tu troszkę inne proporcje w przypadku różnic między Dual a Single.
    Tym razem pojedyncza 2400 MHz juz jest wolniejsza niż podwójne 1600 MHz, w odróżnieniu od GRID: Autosport.
    Warto też przyjrzeć się, jak bardzo wskaźnik wykorzystania karty graficznej potrafi czasem przekłamywać i nie zawsze warto na niego zwracać uwagę (PS. zegary karty były identyczne).

    Do tego testu zmotywował mnie brat, który w swoim laptopie ma konfigurację taką:
    1x8 GB 1600 MHz CL11
    1x4 GB 1333 MHz CL9
    I narzekał na brak płynności i lagi w bliźniaczej grze - Rollercoaster Tycoon World, przy małym parku powyżej 1000 ludzi.

     

    Aha, niedługo zrobię dodatkowe testy na 1333 MHz, z ciekawości.

    ==================================================================================


    Testy Dual Channel z 1333 MHz:

    LINK

     

    http://orig08.deviantart.net/156b/f/2017/166/e/e/planetcoaster_720p_ram_battle_1333_by_reznor666-dbct0me.png



    Jakichś spektakularnych różnic między 1600 a 1333 brak :)

    2400 MHz 10-12-12-31 2x8 GB Dual Channel == 83,62 Avg FPS

    1600 MHz 9-9-9-24 2x8 GB Dual Channel == 67,23 Avg FPS

    1333 MHz 9-9-9-24 2x8 GB Dual Channel == 64,09 Avg FPS

    • Popieram 1
  6. Zawsze karta z większą ilością pamięci będzie lepszym wyborem. Stutteringu i innych objawów braku pamięci w grach wykresiki w testach ci nie pokażą. Kupno dzisiaj nowej karty z 2 GB pamięci to bardzo zły pomysł, chyba że jest się 100% pewnym, że będzie się grało wyłącznie w mało wymagające gry.

    • Popieram 1
  7. Ale ten Palit kosztuje prawie 2700 zł... za tyle to ja kupilem w poprzednim roku.
    Teraz ludzie kupują MSI Gaming X po odjęciu promocji cashback nawet za 2070-2100 zł nówki, wiec to koło 600 zł oszczędności.

     

    http://allegro.pl/karta-graficzna-msi-geforce-gtx1080-gaming-x-g8-i6854960192.html

     

    https://msi-promotions.com/pl/pl/pages/springcashback/qualifying

    promocja trwa do 30 czerwca.

     

    Pozatym niedawno był Palit GameRock w cenie koło 2300 zł.
    Przy budżecie 2700 zł to juz sie mozna zastanawiac nad GTX 1080 Ti.

     

    PS. GDDR5X mają wszystkie modele GTX 1080 i 1080 Ti.
    Są też wersje 1080 z pamięciami 11 Gbps (nieco usprawniona technologia produkcji).

  8. Do innego rzecznika, do prawnika, lub po porady na forum prawnym.
    Warunki gwarancji wg strony MSI są zależne od kraju, i wg strony www https://pl.msi.com/page/warranty/#w-vga radzą "If you would like to verify the warranty term of the product bought, please kindly contact our local offices."

    Heh... tu już jest igranie z prawem wg MSI, bo wg polskiego prawa warunki gwarancji powinny być jasno określone!
    https://prawakonsumenta.uokik.gov.pl/reklamacje/gwarancja/

  9. Zgadzam się, że warto byłoby o tym uświadamiać też ludzi, że ani opóźnienia ani szybkość pamięci nic nie powiedzą, jeśli nie obliczy się prawdziwych opóźnień biorąc pod uwagę obie wartości...

     

    Te wartości z tabelki można sobie łatwo samemu obliczyć np.
    Jeśli mamy pamięci DDR4 2666 MHz CL14:

    2666 MHz = 2,666 GHz
    Wzór jest prosty:
    (2 / 2,666 GHz) * 14 = 10,5 ns realnych opóźnień.

    I drugie pamięci (DDR4 3000 MHz CL17):
    (2 / 3,0 GHz) * 17 = 11,33 ns realnych opóźnień.
    Więc zgadza się, że pierwsze pamięci były ogólnie szybsze.

    Dlatego ważne jest żeby brać najszybsze pamięci o najniższych opóźnieniach o najlepszym stosunku ceny do szybkości.

     

    Dla przykładu moje DDR3 2400 MHz CL10 mimo że poprzednia wersja to wciąż nieźle się trzymają:
    (2 / 2,4 GHz) * 10 = 8,33 ns realnych opóźnień.

    Jakbym miał wymieniać w przyszłości na DDR4, to musiałbym wymienić je na minimum np. 3200 MHz CL14 (8.75 ns) lub jeszcze szybsze.

    Co do sterownika NVidii to przyznam, że właśnie coś podobnego podejrzewałem sam od jakiegoś czasu, obserwując użycie CPU w pewnych momentach. :) Jakbym miał jakąś szybką kartę AMD to sam bym potestował, jak wygląda obciążenie CPU w obu przypadkach w grach w relacji FPS. Mimo wszystko trzeba ich programistom oddać to, że pomyśleli dobrze, i że to działa - bo w większości przypadków w grach wszystkie rdzenie CPU nigdy nie są w 100% wykorzystywane tak jak się to dzieje np. w przypadku konwersji video, zawsze jest jakiś margines (a zwłaszcza jeśli ktoś ma i7 i HT) i oni z tego marginesu skorzystali. Można się też pobawić opcją Threaded Optimization w panelu - jak będę miał czas i chęci to sprawdzę, czy ta opcja dużo wpływa na obciążenie CPU i FPS.


    Nie gram na "ultra" tylko "high" bo chce miec zawsze +144 fps.

    Jeśli nie zależy ci np. na cieniach albo HBAO+ to można je wyłączyć, wtedy FPS powinny pójść dobrze w górę, bo takiego rodzaju efekty obciążają też CPU :)

  10. Interesuje mnie jak wygląda sprawa na moim procku AMD, czy różnice też są tak znaczące. Gdzieś wyczytałem, że na starym FX są one mniejsze.

    Prawdopodobnie to gdzieś ci mignęło:

     

    http://www.techspot.com/articles-info/1089/bench/RAM.png

     

    http://www.techspot.com/review/1089-fallout-4-benchmarks/page6.html

     

    FXy zyskują zdecydowanie mniej, ale też jakiś zysk jest. No i pewnie też sporo zależy od konkretnej gry. Może w grach bardziej skupionych na wielowątkowości niż F4 byłoby lepiej? Takie gry lubią sporo zyskać. Nie mam niestety żadnego komputera z FXem żeby sprawdzić ;)

  11. Ma te same złącza, ale w innej wersji. Przepustowość będzie niemal 2x mniejsza, ale karta powinna działać. PCI-Express należą do złącz wstecznie kompatybilnych, tak jak USB. W praktyce różnie z tym bywa. Ale przed instalacją nowej karty upewnij się, że masz najnowszy BIOS na płycie głównej.

     

    Zapotrzebowaniem na prąd w przypadku tych modeli kart i z tego złącza się nie przejmuj. Złącze bez problemu dostarczy tyle ile karta potrzebuje.

  12. Adaptera nie. Ale to o co kolegom chodzi to nie adapter, tylko aktywny konwerter. Czyli coś, co kiedyś normalnie było nieodłączną częścią karty graficznej, a co producenci kart wycięli z nowych kart, bo nie jest już dzisiaj potrzebne (monitory LCD są natywnie cyfrowe, nie obsługują sygnałów analogowych), więc jeśli ktoś potrzebuje, bo producent jego monitora zaoszczędził na jednym złączu (co jest totalnym chamstwem z jego strony), to musi go dostarczyć z zewnątrz. Więcej info.

     

    Taki jak np. tutaj: https://www.morele.net/kabel-sandberg-displayport-d-sub-0-15m-czarny-50843-602277/

    Tylko ostrzegam, że takie konwertery nie zawsze mogą działać poprawnie i czasem mogą powodować problemy. No a także wiadomo, używanie ich może wprowadzać opóźnienia i pogarsza jakość obrazu względem poprawnego połączenia cyfrowego. Dobre rozwiązanie jedynie jako przejściowe do czasu kupna poprawnego monitora.

     

    Co do kart z wbudowanym konwerterem cyfra-analog to np. jeszcze cała seria 9xx NVidii i wszystko co poniżej.
    GTXy 10xx już nie mają wbudowanego konwertera.

  13. Jednak nigdy nie spodziewałbym się tak drastycznych różnic. 

    I jak tam testy? Polecam, czasami w niektórych grach można się zaskoczyć. :)

     

    Dzisiejszy test musiałem rozbić na dwa wykresy, bo niestety Generic Log Viewer nie obsługuje więcej niż 3 pliki naraz (szkoda).

    Ale pod spodem podam podsumowanie w cyferkach.

     

    Gra: GRID: Autosport

    Ustawienia: 1920x1080, preset Ultra, AA off

    Wyścig z przeciwnikami na trasie San Francisco (Sprint Circuit), 1 okrążenie.

    RAM: 2400 MHz 10-12-12-31 2x8 (Dual Channel) GB vs 2400 MHz 10-12-12-31 1x8 (Single Channel) GB (LINK)

     

    http://orig06.deviantart.net/001c/f/2017/160/e/5/gridautosport_ram_battle_2400_by_reznor666-dbc34va.png

     

     

    RAM: 1600 MHz 9-9-9-24 2x8 (Dual Channel) GB vs 1600 MHz 9-9-9-24 1x8 (Single Channel) GB (LINK)

     

    http://orig09.deviantart.net/3427/f/2017/160/e/7/gridautosport_ram_battle_1600_by_reznor666-dbc34v2.png

     

     

    Podsumowanie:

    2400 MHz 10-12-12-31 2x8 GB Dual Channel == 143,4 Avg FPS, ok. 120 Min FPS

    2400 MHz 10-12-12-31 1x8 GB Single Channel == 126,2 Avg FPS, ok. 101 Min FPS

    1600 MHz 9-9-9-24 2x8 GB Dual Channel == 117,6 Avg FPS, ok. 101 Min FPS

    1600 MHz 9-9-9-24 1x8 GB Single Channel == 96,9 Avg FPS, ok. 80 Min FPS

     

    Jak widać, 2400 MHz w jednej kości jest szybsze niż podstawowa specyfikacja 1600 MHz działająca w Dual Channel. I znów niemal 50% różnicy między 1600 MHz w jednej kości a 2400 MHz w dwóch kościach.

    22% różnicy 2400 Dual vs 1600 Dual.

     

    Celem moich postów i tych wykresów jest m. in. uświadamiać ludziom, ile % wydajności można stracić, jeśli przy zakupie komputera wybiera się zakup jednej kości RAM (z zamiarem dokupienia drugiej w niewiadomej przyszłości) zamiast dwóch, a także jaka jest cena parowania budżetowych płyt głównych lub wolnych RAMów z i7. Oczywiście ma to znaczenie jedynie w przypadku gdy karta graficzna nie będzie w pełni wykorzystywana (jak widać ładnie na wykresach), więc najpewniej bardziej będą zainteresowani tą wiedzą posiadacze monitorów z wysokim odświeżaniem, którym zależy na wysokim minimalnym FPS.

×
×
  • Dodaj nową pozycję...