Skocz do zawartości

ReznoR

Użytkownik
  • Liczba zawartości

    1855
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez ReznoR

  1. Jeśli losowe restarty to najpewniej wina niestabilnego do końca OC CPU.

    Też to przechodziłem na i7-4790K.

    Kumpel to samo przechodził na swoim i7-5960X. Dziwił się, że ma restarty tylko w jednej aplikacji 3D przy korzystaniu z pluginu do renderowania wody, kiedy CPU ledwo był obciążony, a wcześniej renderował wszystko przy 100% obciążonych rdzeniach przez 2 lata i OC wydawało się stabilne. Kazałem mu wyłączyć OC i nagle wszystko było ok. Czasem tak poprostu jest - jedna konkretna aplikacja pokaże niestabilność jednego z rdzeni, gdy stress testy nie pokażą.

     

    Najlepiej to testować zostawiając na noc konwersję jakiegoś filmu przy pomocy x265, żeby szło po kilka godzin. Jak rano się obudzisz a tam ekran logowania, to znaczy że ustawienia nie są do końca stabilne. Sztuczne benchmarki nie zawsze pokażą niestabilność.

    Przy szybkich pamięciach jak te Tridenty trzeba testować stabilność tych rzeczy:

    • VCore
    • Uncore Clock
    • CPU RING Voltage
    • System Agent Voltage

    Dodatkowo ważne jest odpowiednie ustawienie CPU VRIN Loadline Calibration, CPU VRIN Current Protection i PWM Phase Control (w większości wypadków ustawienie High powinno być rozsądne dla wszystkich trzech opcji) - to ustabilizuje napięcia CPU przy obciążeniu.

    Sprawdź sobie też w CPUID HWMonitor czy wartość LLC/Ring Offset nie ma za dużej wartości. U mnie przy "Auto" offset okazał się za duży bo miał koło +0.300V (LLC/Ring Offset == CPU RING Voltage Offset). Ustawiłem go manualnie na +0.150V. Przy +0.100V konwersja h265 nie była stabilna. Przy +0.150V jest ok (przy 4,5 GHz Core + 4,5 GHz Uncore).

  2. Masz na myśli sprzętowy PhysX w grach? Jeśli tak, to nie jestem pewien, czy to ci coś rzeczywiście da.
    SLI jest tylko do dwóch identycznych kart, służy do renderowania obrazu. PhysX to totalnie inny temat, więc druga karta nie może być podłączona mostkiem.
    W Panelu Kontrolnym NVidia wybierasz poprostu kartę, która ma być używana do obliczeń PhysX. Nie jestem pewien czy pamięć karty ma tu jakiekolwiek znaczenie.
    http://orig15.deviantart.net/5bd2/f/2017/180/c/8/20170629_01_by_reznor666-dbefixv.png

    Zanim jednak się na to zdecydujesz, pamiętaj o dwóch rzeczach:

    • użycie karty o znacznie nizszej wydajności do obliczeń PhysX może skutkować pogorszeniem wydajności zamiast jej zwiększeniem (trzeba to sprawdzić samemu)
    • wbrew pozorom, bardzo mało gier obsługuje sprzętowy PhysX.

    Listę gier obsługujących PhysX, tak sprzętowy, jak i CPU-only, znajdziesz tutaj: http://physxinfo.com/
    Interesują cię tylko tytuły mające obsługę GPU czyli zielony znaczek (GPU), lub zielono-granatowy znaczek (GPU + PPU).

  3. O zasilaczu już pisałem, że jeśli nie będzie to działać stabilnie, to możesz karcie ograniczyć Power Limit do czasu kupna nowego zasilacza.
    O CPU-FPS też już pisałem, że sam możesz sobie sprawdzić, jak mocno będziesz ograniczany na tym procesorze i czy ci to wystarcza czy nie.

     

    PS. Jakby kogoś ciekawiło jak wyglądają różnice w optymalizacjach silników różnych gier i jak to się przekłada na wykorzystanie mocy GPU, Power Limit i pobór energii...
    Taki przykład pierwszy z brzegu
    Crysis 1 w 7680x4320 (!) + AAx4 (słabo zoptymalizowany silnik = słabo wykorzystane możliwości GPU)
    vs
    Tomb Raider 2013 w 1920x1080 + SSAAx4 (dobrze zoptymalizowany silnik = dobrze wykorzystane możliwości GPU)

    http://orig15.deviantart.net/579e/f/2017/179/c/0/game_optimization_crysis_vs_tr2013_by_reznor666-dbebscg.png

     

  4. Pewnie mówisz o średnich wartościach. Ale średnia wartość nic nie mówi, i nie w oparciu o średnią wartość dobiera się odpowiedni zasilacz do posiadanej karty.
    Przy szczytowych wartościach dochodzących nawet do 295 W przy standardowym Power Limicie 250 W (nie na podkręconych kartach!) konieczny jest poprostu dobry zasilacz, i minimalne zalecenia wcale nie są przesadzane.

    http://orig10.deviantart.net/27cd/f/2017/179/2/1/ahr0cdovl21lzglhlmjlc3rvzm1py3jvlmnvbs9il08vnju3nz_by_reznor666-dbebnzv.png

     

  5. To akurat nie do końca prawda. Power Limit to coś, co jest ustawione globalnie dla całej karty, do każdego zastosowania. To ile Power Limit maksimum akurat karta osiągnie w danej grze zależy od wielu rzeczy, na czele z tym, jak dobrze jest dana gra zoptymalizowana pod wykorzystanie grafiki czy danej architektury, oraz tym jak wysoką ustawimy rozdzielczość, wygładzanie krawędzi czy opcje graficzne.

    Np. Crysis 1 w 7680x4320 nie jest w stanie wykorzystać pełnej możliwości GTX 1080 (pełnego Power Limitu) nawet jeśli włączy się AAx4 + wygładzanie przezroczystości, bo nie jest odpowiednio zoptymalizowany pod daną kartę. Jest mnóstwo momentów, gdzie raz dobija powyżej, a raz poniżej Power Limitu.

    Z kolei np. Rise of the Tomb Raider spokojnie potrafi dobić do max Power Limitu 217 W (czyli 20% powyżej standardowego dla GTX 1080) przez większość czasu nawet w FullHD, nie wspominając już o wyższej rozdziałce czy włączeniu SSAA.

    W ostateczności wszystko zależy od tego jak dana gra wykorzysta kartę, bo nie każda gra jest jednakowo zoptymalizowana. Temat można by rozwijać w nieskończoność, ale ogółem wszystko zależy od developerów silnika gry. Stąd zresztą tak nierówne wyniki porównań różnych kart graficznych w zależności od konkretnych gier...

     

    Oczywiście nie zawsze pełen Power Limit (np. wspomniany 375 W) będzie wykorzystany, bo np. nie będzie zwyczajnie potrzebny karcie nawet po OC. I wtedy będzie faktycznie działać jako zabezpieczenie dla izby tortur kart graficznych typu FurMark, czy przeciwko zbyt wysokim zapędom overclockerów.

  6. Jakby nie dawał rady, to zawsze możesz obniżyć Power Limit karcie w MSI Afterburner, a potem wymienić zasilacz.
    Każda karta ma inny Power Limit w swoim BIOSie ustawiony, więc nie każda będzie wymagać tego samego zasilacza.
    Jednakże dla referenta NVidii (Power Limit == 250 W) wymagania to minimum 600W. Fabrycznie podkręcone karty przeważnie mają wyżej ustawiony standardowy (100% w MSI Afterburner) Power Limit.

     

    Np. Gigabyte Aorus 1080 Ti ma:

    Board power limit
      Target: 300.0 W
      Limit: 375.0 W
      Adj. Range: -50%, +25%
    

    Czyli u niego:
    100% = 300 W
    125% = 375 W
    a 50% = 150 W

    Co do bottlenecku, zawsze linkuję poradnik: http://reznor666.deviantart.com/journal/GPU-FPS-i-CPU-FPS-jaka-roznica-634935215
    tl;dr: Obniż sobie rozdzielczość do 1280x720 i wyłącz AA, i w takich ustawieniach testuj sobie do jakiej wartości średniego FPS ogranicza cię procesor w grach na których ci zależy w wydajności, to się dowiesz, czy wymiana będzie tego warta czy nie.

  7. 100 zł? Przecież już nawet GTX 1050 Ti kosztuje zamiast 629 zł == 999 zł.

    Zobaczcie sobie co się porobiło w morele: https://www.morele.net/komputery/podzespoly-komputerowe/karty-graficzne-12/,,,,,,,,,,8143O1123985/1/
    Prawie wszystko 999 zł :D
    I jakaś akcja "kopiemy FPSy, a nie bitcoiny" - interesting

    https://www.morele.net/wiadomosc/kopiemy-fpsy-nie-bitcoiny-zgarnij-voucher-do-900-zl-za-zakup-zestawu-komputerowego/4992/

     

    Vouchery na przyszłe zakupy ważne przez 12 miesiecy... ależ sobie wymyślili...

  8. Miło mi. Oby ceny kart graficznych i pamięci RAM się do tego czasu unormowały!

    chociaż nie wszystko od razu załapałem

    Jakbyś dał znać, które rzeczy są zbyt skomplikowane do zrozumienia - pozwoliłoby mi to ulepszyć poradnik w przyszłości dla innych. Niestety dobrze wiem, że często podążam skrótami i ludzie mogą nie nadążać za moim tokiem myślenia :) 

    No i aktualnie zastanawiam się wciąż, w jaki sposób wpleść tam kwestię frametime'u, w prosty sposób, żeby każdy zrozumiał. Nie jest to takie proste jak się wydaje... 

  9. Chyba na dzień dzisiejszy, MS w sprawie Lumii odsyła w Polsce do zewnętrznego serwisu.

    Możliwe, że teraz zmądrzeli w MS.

    Jednak z pół roku temu, kiedy chciałem wysłać telefon na serwis, jak się okazało, to x-kom był lepiej poinformowany niż oficjalny serwis Nokia Care w Poznaniu (dokładniej Inter Consult na Dąbrowskiego), oficjalne forum Microsoftu i oficjalny czat pomocy technicznej Microsoftu w PL razem wzięci :D

  10. morele.net ma to bardzo ładnie zaznaczone w swoim regulaminie odnośnie gwarancji. Każdy produkt ma zakładkę "gwarancja" i jest tam odpowiednio napisane, czy gwarancja jest realizowana przez serwis producenta, czy przez sprzedawcę. To jest to samo miejsce, gdzie sprawdza się długość gwarancji. Tylko raczej mało kto przy zakupie zwraca uwagę na to, czy serwis jest "sprzedawcy" czy "producenta", interesuje ich w większości jedynie okres gwarancji.

    https://www.morele.net/pokaz_pomoc/84/

     

    Jeśli chodzi o serwis, to bardzo chwalony jest też Asus. Nie wiem jak to wygląda w sprawie kart graficznych (nigdy takiej nie wysyłałem) ale akurat mogę to poświadczyć na przykładzie dwóch kart dźwiękowych. Wymienili od ręki na całkiem nowe, zaplombowane, za każdym razem (3 razy) jak odsyłałem na gwarancję (jedną przez morele, drugą przez jakiś inny sklep).
    Droższą (Asus Xonar ST) odesłałem nawet bez pudełka i wszystkich akcesoriów. A itak dostałem drugie opakowanie. Nawet do dziś po sprzedaży zostało mi opakowanie po poprzedniej + wszystkie akcesoria.

    Mogę też polecić serwis Logitech. Można zgłosić reklamację przez ich oficjalną stronę. Po weryfikacji kupna i modelu seryjnego, nawet nie chcą z powrotem starej myszy. Poprostu wysyłają nową bezpośrednio z serwisu w EU. Stara mysz mi została, więc opchnąłem kiedyś poprostu jako uszkodzoną na allegro (dwuklik...).

    Nie miałem też problemu z serwisem ADATA. Miałem tą samą sytuację co autor tematu - pendrive padł, i jednocześnie sklep również padł. Zgłosiłem więc reklamację na stronie ADATA. Kazali odesłać pendrive do ich serwisu gdzieś w EU. Nie wyniosło mnie to drogo, bo pocztą jako list jest w miarę tanio. Chyba nawet poniżej 10 zł, ale nie pamiętam. Odesłali mi całkiem nowy pendrive (aczkolwiek nie identyczny model, tylko o równoważnych parametrach).

    Podobna sytuacja z Lumią 930. Polski oficjalny (!) serwis Nokii w Poznaniu kazał przesłać, "sprawdzili" w jeden dzień, i chyba nawet tego samego dnia odesłali z łatką "wszystko w porządku" - ograniczyli się do ponownego wgrania firmware. Spróbowałem więc z x-komem, tam gdzie kupiłem. Odrzucili mi reklamację motywując tym, że Microsoft posiada serwis door-to-door, który działa znacznie sprawniej i polecili ten sposób. Udałem się na stronę Microsoftu i po kilometrach pytań "a czy...?" dokopałem się do adresu ich serwisu. Podam ją dla innych, bo trudno się dokopać: https://support.b2x.com/
    Mają oficjalną apkę diagnostyczną nawet, ale jesli ktos jest pewien, że coś nie działa (w moim przypadku mikrofon) można od razu podać sam nr IMEI (nie chcą nawet żadnych faktur) i wysłać zgłoszenie serwisowe. Wysyłają opłaconą z góry etykietę kurierską DHL, którą wystarczy wydrukować i przykleić na paczkę i dogadać się z kurierem po odbiór. Po kilku dniach odsyłają naprawiony telefon, z nowo naklejoną folią ochronną na ekran, z listą wymienionych części i opisem naprawy (po polsku nawet), ładnie zapakowany i zaplombowany, bez żadnych śladów ingerencji. Także jeśli ktoś będzie miał problem z Lumią to mogę zdecydowanie odradzić bawienie się w serwisy lokalne i od razu wbicie na adres wyżej.

  11. To jest coś, co nazywamy totalnie nieopłacalnym zakupem.

     

     

    Kupno nowego monitora słabo mi się widzi. Obecnie monitor z asusa od wielu lat dobrze się sprawdza i szkoda byłoby mi go odstawić.

     

    Szkoda. Ja bardzo polecam przenieść się na prawidłowe połączenie cyfrowe. Dla monitorów LCD to jest jedyne właściwe połączenie. Ładniejszy, bezstratny obraz i brak problemów.

     

    Analog to już artefakt, pozostałość po latach 80 jeszcze z monitorów CRT, które wymagały takiego nieefektywnego sygnału. Monitory LCD to totalnie inna technologia, która wymaga sygnału cyfrowego. Im szybciej się pozbędziesz monitora LCD bez złącza cyfrowego tym lepiej.

  12. Jeśli drugi monitor wyświetla tylko pulpit/program/przeglądarkę to spokojnie możesz podpiąć go do integry. Dzięki temu GTX nie będzie dodatkowo obciążony niepotrzebną mu pracą i będzie mógł w pełni skupić swoją moc na jednym monitorze. No i oszczędzisz sobie kosztu zakupu aktywnego konwertera. Jedyne co stracisz to mały skrawek pamięci RAM potrzebnej do włączenia integry w BIOSie.

  13. MSi Gaming X GTX 1060 6 GB był kiedyś do kupienia nowy za 1299 zł w ProLine.

    A tymczasem na allegro ludzie kupują GTX 970 za prawie 1000 zł, gdy jeszcze niedawno te karty chodziły po 700-800.

     

    Z monitorem dochodzi ci następny problem - karty z serii GTX 1xxx nie obsługują sygnału analogowego (trzeba kupić aktywny konwerter z zewnątrz, co nie jest polecane).

    Albo wymiana monitora na taki z prawidłowym złączem cyfrowym, albo kupno GTX 980 w dobrej cenie.

     

    A jeśli chodzi o jedną kość RAM - zobacz sobie ile wydajności możesz stracić na takiej konfiguracji (brak Dual Channel).

    http://orig12.deviantart.net/38d5/f/2017/166/8/c/planetcoaster_720p_ram_battle_by_reznor666-dbcs0yu.png

     

    Niebieska linia to twoja jedna kość, a zielona linia to dwie kości działające w prawidłowej konfiguracji Dual Channel. Przy karcie za ~1200 zł i takim procesorze możesz to ograniczenie dość dotkliwie odczuć w wielu grach.

     

    Nie mam niestety jeszcze Wiedźmina 3 żeby pokazać czy tam też utrata wydajności może wypaść tak drastycznie.

    • Popieram 1
  14. Kiepski czas wybrałeś na kupno karty w tym budżecie...
    Niestety szał górników i kryptowalut sprawił, że dużo modeli jest niedostępnych i znacznie podrożało.
    Przed szałem można było około tej ceny dostać jakiegoś podstawowego GTX 1060 6GB.

     

    Te pamięci masz w Dual Channel czy to tylko jedna kość?

    Nooo powiem ci, że karta z serii GT i to jeszcze 610 wymaga zdecydowanie wymiany.

     

    Na dzisiaj masz do wyboru chyba jedynie GTX 1050 Ti 4 GB za ok. 620 zł.

     

    PS. jeszcze przy nowych kartach jest ważne jaki masz model monitora.

    • Popieram 1
  15. Do tej pory oglądałem jakiś poradnik na morele.tv odnośnie dualchannel i też widziałem wzrosty nawet ok. 10-15 klatek, tylko nie zastanawiałem się nigdy nad tym czy to w miejscach procka czy karty.

    Oglądałem ten filmik właśnie przed chwilą (włącznie z filmikiem test DDR4 2400 vs 3000). Lipton jaki zaskoczony wynikami. :) GTA 5 u niego również nie pokazało jakichś znaczących różnic, co potwierdza moje wcześniejsze doświadczenia z tą grą o jej małej podatności na zwiększanie szybkości pamięci.

     

    Zastanawiam się nad hmm "zamieszaniem w kotle" w dziale Pamięci RAM na stronie Techlipton.pl. Ten ich przypięty przez administratora temat o wpływie szybkości RAM na FPS (jeszcze ze screenami z tego śmiesznego LinusTechTips) jest cóż... conajmniej kiepski i mocno wprowadza w błąd ludzi pod względem kupna pamięci już od prawie 2 lat.

     

    Mój "mini" poradnik już przestał być taki "mini". Dzisiaj go zaktualizowałem do wersji 2.0.

    Inne spojrzenie na licznik FPS w grach [v2.0]

     

    Changelog v2.0:

    • bardziej przyjazne (mam nadzieję) opisy
    • poprawiłem trochę błędów/niedomówień technicznych
    • czytelniej (mam nadzieję) poukładane graficznie
    • jeszcze więcej informacji (huh!)
    • dodane wykresy + opisy z tego tematu (i parę drobnych korekt)
    • więcej linków do przykładów/screenów obrazujących przedstawione problemy
    • dodany adres fb gdzie można przesyłać porady, korekty, sugestie
    • dodane linki do programów użytych w testach
    • Popieram 2
  16. Kup jakąkolwiek tanią z conajmniej 3-letnią gwarancją. Te karty to nie są jakieś potwory żeby potrzebowały ultra-dobrej jakości podzespołów czy chłodzenia, a podstawowe wersje też się podkręcają.

     

    Najczęściej kupowane/polecane to Zotac (2+3 lata gw.), Gigabyte D5 (półpasywne chłodzenie), MSI OC, EVGA (dobry serwis).
    Popatrz na testy tych które cię interesują i kup tą która wyda ci się najoptymalniejsza pod twoje potrzeby.

    • Popieram 1
  17. Przełożyłem kartę do drugiego slotu PCIE 3.0 ale karta nie pracuje x16 tylko x8. W instrukcji płyty pisze, że przy tym procku (Ivy Brigde) slot powinien z jedną kartą "chodzić" x16.

    ftp://europe.asrock.com/Manual/Z77%20Extreme4.pdf

    Screen z tego pdfa:

    http://orig05.deviantart.net/1b89/f/2017/170/4/4/desktop_2017_06_19___09_08_34_01_by_reznor666-dbd87c2.png

     

    Drugi slot (oznaczony jako PCIE3) pracuje maksimum w trybie x8. Pierwszy slot (oznaczony jako PCIE2) pracuje jako max x16.

    Tak właśnie myślałem, że drugi slot będzie max x8 w przypadku chipsetów Z, dlatego coś mi tu nie pasowało.

    Jak czytałeś tą instrukcję, hm? :)

  18. Dokładnie tak, podawałem max w obu przypadkach :)
    Strix podstawowo miał 163 W, więc MSI Gaming X nawet w standardzie ma większy power limit niż Strix po zwiększeniu do 120%. Stąd mi się pewnie kręcił jedynie do 1450 MHz. Mogli w Asusie specjalnie tak zrobić, żeby nie przeciążać sekcji zasilania, która nie była tam jakoś specjalnie dobrze chłodzona, no i miał jedynie 1x8pin.
    http://www.overclock.net/t/1516121/gtx-970-comparison-strix-vs-msi-gaming-vs-gigabyte-g1

  19. Jeśli dokupisz drugą taką samą kość, to pamięci będą działać w Dual Channel, i zyskasz wydajność w miejscach, gdzie twój procesor wcześniej ograniczał liczbę FPS. Natomiast wszędzie tam gdzie karta graficzna była ograniczeniem ilości FPS, to raczej nie zyskasz nic. Chociaż tak jak pisałem, np. w Rise of the Tomb Raider pamięć w Single Channel wprowadzała częstsze "cięcie się" animacji, gdzie przy Dual Channel już tego nie było praktycznie wcale, także zysk z prawidłowej konfiguracji pamięci nie należy liczyć wyłącznie w FPS, ale również w kategoriach ogólnych działania komputera. Dokładniejsze info na ten temat znajdziesz w moim miniporadniku (link w pierwszym poście) ;)

×
×
  • Dodaj nową pozycję...