Skocz do zawartości

kubas246

Użytkownik
  • Liczba zawartości

    1464
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez kubas246

  1. Również osobiście bym poszedł w Z390 Extreme4.

    Ramy ok. Szybszych nie warto przy tych różnicach w cenie (3200Mhz CL16 - 650 a za CL15 już 850 :D)

     

    Swoją drogą czekam na stanowisko LG US w kwestii fuckupu z ich strony który kosztował mnie 2 GPU (stąd ta uwaga wpasowuje się w temat). Ciekawe co powiedzą, bo zapewniali że są bardzo przejęci tym problemem.

  2. 2700X + 4.5GHz na single core to jest realistyczny scenariusz... każda sztuka osiąga ten wynik... jedyne wymaganie to odpowiednie mobo z blck gen.

    No chciałbym zobaczyć każdą sztukę robiąca 4.5GHz single core... Wiele zatrzymuje się niewiele wyżej niż all core. Z tym all core to też szału nie ma bo kumplowi już druga sztuka 2700x ma problemy z dobiciem do 4.2GHz all core. Zresztą silicon lottery podawało statystyki, tylko top 32% było w stanie osiągnąć 4.2.

     

    W takim Battlefieldzie to np. i5 może pomarzyć o wynikach ryzena. Na pewno 6C12T Ryzen zestarzeje się dużo wolniej od i5 8400

    Widziałem kilka testów i się nie zgodzę. W BF5 2600X wypada gorzej niż 8400 czy 7700 zarówno w DX11 jak i DX12. W innych grach dobrze korzystających z wielu rdzeni również 8400 wypada lepiej lub na tym samym poziomie. Skoro już teraz widać że 2600X brakuje mocy to cudów nie będzie w przyszłości. I nie ma tu z mojej strony żadnego zaparcia że "bo niebieski najlepszy" tylko patrząc realistyczne jaki powód (przed skokiem cen, bo przy obecnych cenach to już pisałem że nie warto) miał ktokolwiek aby brać 2600 do gier i normalnego domowego użytku skoro (patrząc po historii cen) 50zl drożej był wydajniejszy 8400 a 8600k jest tańszy niż 2700?
  3. Single score miałem taki sam na poprzednim 6700K, z tym że multi nawet nie miało startu (a nie żeby 6700K kosztował mnie wtedy 1850zł).

    No dobra tylko przecież 6700k to ani konkurent 2600 ani ten sam okres. Kumpel ma 8400 i dał poniżej 700 zł (650 chyba). Czyli 145 zł więcej niż Ty za 2600. Przy takiej różnicy cen wziąłbym 8400 do gier. Dlaczego? Bo w grach po prostu wypada lepiej i różnica to od kilki do kilkunastu fps (mowa vs [email protected] GHz). Teraz przy obecnych cenach zakup procka niebieskich zupełnie się nie opłaca (1000zł za 8400?!), ale wcześniej? Wcześniej zakup Ryzena jeśli mieliśmy zamiar na tym grać nie miał sensu skoro za niewiele więcej (8400 v 2600/2600x) lub nawet tyle samo (8600k v 2700) dostajemy wydajniejszy sprzęt.

     

     

    Nie wspomnę tutaj o wersjach X ryzenów 2000, które mają dużo lepsze turbo (i obslugę ram) względem 1000. Np. na takim 2700X z automatycznym turbo i podbiciem BLCK idzie osiągnąć 4.5GHz single core

    Trzymajmy się może realistycznych scenariuszy? Mało który 2700X robi ponad 4.3GHz all core (wiele nawet nie przejdzie powyżej 4.2). Single core większość zatrzymuje się na 4.35Ghz. A w grach i tak dostanie w du**ę od 8400/8500... Jak sam wspomniałeś dostajemy to za 1350 zł a 8600k to przecież 1200zł (obecnie, gdzie przed wzrostem cen można go było dostać za lekko ponad 1000 zł). Gdzie na 8600 zrobienie 5.0 czy nawet 5.1 to żaden problem.

     

    Dodatkowo: AM4 i możliwość upgrade. A nie martwe platformy jak u Intela, solidnie mam dosyć wydawania kasy na płytę główną co chwilę. 

    A no tak :D Najmocniejszy argument. Szkoda tylko, że w praktyce jest porażka. Niektóry płyty po tym jak dostały update z obsługą Ryzenów 2000 to przez miesiące były nieużywalne z powodu błędów. Nawet do tej pory są problemy do tego stopnia, że kumpel po zmianie z 1800X na 2700X się w końcu poddał i wymienił też płytę główną. Zobaczymy jak to wyjdzie przy Ryzenach 3000 które przecież będą miały znacznie więcej zmian.

     

    jeżeli masz monitor 240Hz albo inny kosmiczny wynalazek placebo (nie potraktuję nikogo powaznie kto powie że powyżej 144-165hz widzi różnicę, bo pilot miałby z tym problem a o zwykłym "casualu" nie mówiąc). A do 4K na diabła komuś mocniejszy procesor (np. 9900), skoro tam i tak wąskim gardłem zawsze jest GPU.

    Różnica jest widoczna, ale jest znacznie mniejsza niż przy przeskoku 60-144Hz. Największą zaletą jest tu zauważalnie zmniejszone postrzegane rozmycie (perceived blur) a nie płynniejszy ruch. Natomiast jeśli chodzi o pilotów to akurat pilot nie miałby z tym problemu :) Robili kiedyś badania, wyświetlali im inną klatkę na 1/250 sekundy i byli w stanie to rozpoznać. Blurbustersi robili też testy na ekranie 480Hz i również różnica w odbiorze jest odczuwalna (znów, głównie kwestia bluru). W 4k natomiast GPU jest wąskim gardłem tam gdzie jest, ale jak gra ciśnie po CPU to i tak potrzebujesz mocnego. Jak ktoś kupuje monitor 4k do grania to raczej łączy go z GTX1080Ti i mocniejszymi, tak czy tak potrzebuje mocnego procka.

     

    Zobaczymy co AMD zrobi przy Zen 2, bo przy procesie 7nm od TSMC (wreszcie wysokie zegary) i kolejnych poprawkach do IPC mogą wreszcie wyprzedzić Intela (zwłaszcza że Intel dalej siedzi na 14nm i archi Skylake).

    • Popieram 1
  4. Nie zauważyłem a nie ma to są dwie różne rzeczy.

     

    https://pcmonitors.info/wp-content/uploads/2018/06/AG352UCG6-blur-120Hz.png

     

    https://pcmonitors.info/wp-content/uploads/2018/07/32GK850G-blur-120Hz.png

     

    UCG6 i 850G dla porównania, oba VA. Na UCG6 widać mocny overshoot przy ustawieniu strong, więc osobiście wyżej jak medium bym nie ustawił overdrive. Tymczasem 850G ma mniejsze smużenie nawet przy wyłączonym overdrive.

  5. Dopisz teraz ceny poszczególnych (dostępnych!) kart graficznych i posortuj jeszcze raz. :P

    Nie sądzę żeby to byłe dobre dla AMD. Vega 64 to przecież cena powyżej GTX1080 czy RTX2070 (Windforce, Armor). Vega 56 ma ceny na poziomie 1070Ti (jakby się czepiać szczegółów to nawet lekko wyższe) a RX590 jest 3 stówki tańszy niż GTX1070 ale wydajności też mu trochę brakuje. Wszystkie ceny na podstawie wyników z ceneo i skąpca. Czyli po przesortowaniu po cenach okazuje się, że AMD zaczyna istnieć dopiero od RX590 i w dół.

  6. Cześć, mam dla Was mały poradnik "odchudzenia" Win10. Nie jestem jego autorem a jedynie postanowiłem podzielić się kilkoma trikami przedstawionymi przez użytkownika Bass_Junkie_xl na reddicie. Działania te mają na celu zmniejszyć lub zlikwidować mikro-przycięcia wynikające z problemów powodowanych przez Win10. Zadziałało dla mnie, zadziałało dla autora poradnika, nie gwarantuje że zadziała dla Ciebie. No i przede wszystkim wykonujesz to na własną odpowiedzialność, więc nie przychodź z pretensjami jeśli uwalisz sobie system.

     

    1. Panel sterowania NVIDIA

    W "Zarządzanie ustawieniami 3D" w zakładce "Ustawienia globalne" ustaw:

    - Tryb zarządzania energią na Optymalna moc

    - Optymalizacja wątkowa na Włącz

    - Maksymalna liczba wstępnie renderowanych klatek na 1 (może powodować większe wahanie FPS, ale za to zmniejsza input lag)

    W zakładce "Ustawienia programu" dla każdej gry (pliku exe każdej gry) ustaw:

    - Tryb zarządzania energią na Preferuj maksymalną wydajność

     

    2. DVR

    - Uruchom regedit

    - Przejdź do HKEY_CURRENT_USER\System\GameConfigStore

    - Ustaw wartość dla "GameDVR_Enabled" na 0

    - Przejdź do HKEY_LOCAL_MACHINE\SOFTWARE\Policies\Microsoft\Windows\

    - Stwórz nowy klucz o nazwie GameDVR

    - Wewnątrz swój nowy DWORD 32-bit o nazwie "AllowGameDVR"

    - Ustaw wartość "AllowGameDVR" na 0

    - Zrestartuj PC

     

    3. Game bar

    !JEŚLI WYKONASZ TE KROKI GRY Z MICROSOFT STORE PRZESTANĄ DZIAŁAĆ!

    - Przejdź do C:\Windows\System32

    - Znajdź plik Gamebarpresencewriter.exe i otwórz jego właściwości

    - Otwórz zakładkę Zabezpieczenia, potem Zaawansowane

    - Przy Właściciel (obecnie TrustedInstaller) wciśnij Zmień

    - W nowo wyświetlonym oknie wpisz nazwę swojego konta, wciśnij Sprawdź nazwy i potem OK

    - Wciśnij Zastosuj i OK

    - Znów otwórz Zaawansowane, wciśnij Zmień uprawnienia i Dodaj

    - Wciśnij Wybierz podmiot zabezpieczeń

    - Wpisz nazwę swojego konta, wciśnij Sprawdź nazwy i potem OK

    - W oknie Wpis uprawnienia dla Gamebarpresencewriter wybierz teraz Pełna kontrola i wciśnij OK

    - Zastosuj, OK

    - Znów otwórz Zaawansowane

    - Znów wciśnij Zmień na właścicielu i w oknie wpisz NT SERVICE\TrustedInstaller potem wciśnij Sprawdź nazwy i OK

    - Zastosuj i OK

    - Skasuj (lub zmień nazwę) plik Gamebarpresencewriter.exe

    - Potwórz powyższe dla plików GameBarPresenceWriter.proxy.dll

    - Opcjonalnie możesz też wykonać te same kroki dla GamePanel.exe i Windows.Gaming.UI.GameBar.dll (ale skasowanie 

    - Zrestartuj PC i sprawdź czy plików nie ma

    - Uruchom power shell jako administrator i wklej: Get-AppxPackage *xboxapp* | Remove-AppxPackage

    - Potwierdź enterem i poczekaj aż skończy

    - Zrestartuj PC

     

    MS wymusza swój wspaniały gamebar, uruchamia się on zawsze gdy odpalamy jakąś grę (lub cokolwiek Windows rozpozna jako grę). Jedyny sposób na jego kompletne wyłączenie to skasowanie plików DLL za niego odpowiadających. Jeśli go skasujesz gry z Microsoft Store nie będą działać.

     

    4. Standby list

    - Pobierz ISLC od twórców DDU: https://www.wagnardsoft.com/content/intelligent-standby-list-cleaner-v1000-released

    - Uruchom i skonfiguruj ISLC - ja mam The list size is at least: 1024 MB i Free memory is lower than: 1024MB

    - Wciśnij START

     

    Gdy ISLC jest uruchomiony będzie automatycznie opróżniał standby list na podstawie dwóch powyższych warunków. U mnie standby lista potrafiła sięgać 9GB i Windows wcale nie był taki skory do jej zwalniania (w grze zaczynały się pojawiać przycięcia spowodowane zapchanym ramem).

     

    5. Ultimate Windows Tweaker

    - Pobierz najnowszą wersję aplikacji z: https://news.thewindowsclub.com/ultimate-windows-tweaker-4-5-released-for-windows-10-v1809-93754/

    - Uruchom UWT

    - Przejdź do Security & Privacy, w zakładce Security Settings zaznacz: Disable Timeline Feature

    - Przejdź do zakładki Privacy i zaznacz wszystko OPRÓCZ: Disable Password Reveal Button, Disable Sync Of All Settings, Disable App Access To Calendar, Disable App Access To Microphone, Disable App Access To User Account Info

    - Przejdź do Performance, zaznacz: Turn Off Search Indexer, Disable Tablet Input Service, Disable Prefetech Service, Disable Superfetch Service

    - Zatwierdź i zrestartuj PC

     

    6. Services.msc

    - Uruchom services.msc

    - Znajdź i wyłącz NVIDIA Telemetry Container (jeśli to zrobisz NV Experience nie będzie działać!)

    - Zrestartuj PC

     

    7. Końcowe rady ogólne

    Przed instalacją nowych sterowników wyczyść stare za pomocą DDU ( https://www.wagnardsoft.com )

    • Popieram 1
  7. NV nie ogłosi "hej za rok nowe znacznie lepsze karty w 7nm+" bo chętnych na obecne w 16nm+ by ubyło. Zwłaszcza że i tak ludzie obecnie wahają się co do rtx z powodu problemów i ceny a inni całkiem odpuścili i kupili Pascale.

     

    Oczywiste jest jednak, że jeśli NV chcę żeby z RTX cokolwiek było to nie może czekać 2-3 lat na kolejną serię. Musi podbić wydajność kart i obniżyć koszty produkcji a co pozwoli na to lepiej jak zejście z 16nm do 7nm? Mniejszy pobór, wyższe zegary, mniejszy chip (więc będą mogli trochę rozbudować część odpowiedzialną za bajery)

  8. Zobaczę jak z OC pewnie dopiero w niedzielę. Będzie też wreszcie powód żeby procka kręcić.

     

    Ogólnie karta spora, większa niż 1080 Phoenix.

    Szybkie pytanie, czy przy tym całym boost 3.0 jest sens robić ręczne OC karty? Mój RTX boostuje do 1980MHz (przynajmniej tyle zgłasza MSI Afterburner) i zastanawiam się czy jest sens cisnąć go wyżej ręcznie.

  9. Rev ja Cię jak najbardziej rozumiem. Jednak to akurat nie jest problem GSync czy NV a post jednak nawiązywał do niego. Ogolnie ceny tych monitorów są przesadzone. Nawet ten 4k@144Hz wersja bez FALD i bez GSync kosztuje sporo kasy. Nie ma też co liczyć na jakiś znaczny spadek

    ceny, popatrz na monitory IPS 1440@144Hz. Przecież one wyszły końcem 2015/początkiem 2016 a są droższe niż nowiutkie LG 1440p@144/165Hz które wyszły kilka miesięcy temu i są oparte o nowiutkie matryce które do produkcji trafiły początkiem tego roku.

     

    Rebel tam chyba nawet musisz mieć 98Hz żeby nie ucinać kodowania kolorów.

  10. Moduł nie jest niezbędny, ale NV twierdzi że wykonuje swoje zadanie lepiej. Odpowiada za synchronizację klatek i przede wszystkim wspiera overdrive co ma zmniejszać ghosting. Po testach widać, że akurat to drugie wykonuje bardzo dobrze. Ghosting faktycznie jest mniejszy na monitorach z GSync (mowa o bliźniaczych modelach, jeden z FreeSync 2 a drugi z GSync).

    Z tą aferą to w sumie nie ma się co dziwić, że po modyfikacji sterowników GSync działał. GSync bez modułu to niemal to samo co FreeSync a trik polega tylko na tym, żeby "przekonać" kartę że moduł tam jest i może odpalać GSync.

     

    @Revenant

    Jak już się chcesz czepiać GSync czy NV to zrób to z sensem. Przecież nie jest winą NV, że DP1.4 pozwala na taki a nie inny transfer. HDMI 2.0 jeszcze nie ma, DP1.5 też nie, więc powiedz mi gdzie tu wina moduły GSync? Czepiać się można tego, że nie masz wsparcia dla otwartych standardów. Mogliby przecież wspierać otwarty standard oraz swój GSync, wtedy ludzie mieliby wybór.

    W tych monitorach też akurat więcej do końcowej ceny dokłada się FALD niż GSync, bo jest to na tyle skoplikowany system że przecież ostatecznie zmniejszyli ilość stref.

  11. Jak już pisałem TN się nie nadaje pod duże monitory, bo ma słabe kąty widzenia. Chyba że chcesz siedzieć daleko, ale to już Twój wybór.

    Do 1500 masz tak jak podałem: TN 1080p 240Hz lub IPS 1440p 75Hz.

     

    Tutaj masz recenzję tego Asusa:

    http://www.tftcentral.co.uk/reviews/asus_mg279q.htm#response_times

     

    IPSka z tego samego okresu co chyba wszystkie obecnie dostępne IPS 1440p@144Hz. Spisywać się będzie podobnie. W przypadku IPS jest oczywiście ten problem co zawsze: niski kontrast, srebrna czerń, IPS glow a dodatkowo popularne problemy z blb.

  12. Zacznijmy od początku. Monitor jest spory i zajmuje dość dużo miejsca w głąb biurka z powodu sporej podstawki. Fabryczny uchwyt pozwala za to na dość sporą regulację ustawienia monitora i nawet na ustawienie go pionowo (pivot). PPI jest trochę wyższe niż 1080p@24" choć nie widać tego za bardzo (zbyt mała różnica), 1440p@27" pod tym względem prezentowałoby się lepiej. To PPI niewiele wyższe niż przy 1080p@24" ma jednak i plusy, jeśli ktoś pracuje w programach które źle się skalują to tu problemu z tym nie ma bo po prostu nie trzeba nic skalować. Przestrzeń robocza też jest duża i pozawala komfortowo trzymać dwa okna obok siebie (właściwie nie robienie tego to marnowanie miejsca)

    Obecnie monitor mam ustawiony na "oko" a jasność i kontrast ustawiane na podstawie testu kontrastu na logom.nl.

    Przy tych ustawieniach kolory są żywe, czerń ciemna a jasne obiekty też odpowiednio się wyróżniają i nie są "wyblakłe". Z jasnością mógłbym jeszcze zejść w dół, bez tracenia na jakości obrazu, ale wolę aby jasne obiekty bardziej się wybijały.

    W grach monitor sprawuje się bardzo dobrze, blur i trailing oczywiście występuje ale nie w stopniu który przeszkadzałby w rozgrywce, zwłaszcza jeśli mamy 120+ Hz/FPS (wtedy jest mniejszy). Oczywiście przy ustawieniu czasu reakcji na Faster trailing i blur jest trochę mniejszy a za to bardziej widoczny jest overshoot. Kwestia preferencji czy ktoś woli Faster czy Fast. Ogólnie największy problem do tej pory zaobserwowałem w Horizon Zero Dawn gdzie przy nieruchomej postaci gdy obracam kamerę widać większy blur na krawędziach postaci. No ale niestety przy 60 Hz/FPS (w sumie nawet nie wiem czy Horizon śmiga na 60 FPS na PS4 Pro) z blurem jest gorzej niż przy 120 i to było do przewidzenia, ale dalej nie jest to deal-breaker.

    W filmach również wypada bardzo dobrze, wynika to właśnie ze wspomnianych wcześniej żywych kolorów i wysokiego kontrastu (w porównaniu do IPS, bo do OLED to wiadomo ze startu nie ma ;) ), co pozwala na odpowiednią różnicę między obszarami ekranu podczas scen z bardzo ciemnymi i bardzo jasnymi elementami.

    Generalni jeśli miałbym się do czegoś doczepić to takie sobie ustawienia fabryczne, szkoda że nie udało im się jeszcze trochę więcej wycisnąć z obecnych VA pod względem czasu reakcji (choć o ile nie interesuje nas esport na wyższym poziomie to obecny blur czy overshoot nie powinny przeszkadzać). No i ostatnią wadą jest jakby cień przy lewej i prawej granicy ekranu widoczny jeśli siedzimy blisko. Z odległości jakiej używam monitora (jakieś 63 cm) wynosi on 1 mm albo mniej, więc w praktyce jest niezauważalny w wielu zastosowaniach. Głównie go widać przy przeglądaniu internetu po prawej, bo wyróżnia się na pasku przewijania. Niżej zarzucam zdj o co chodzi (zdj celowo zrobione z mniejszej odległości aby problem był bardziej widoczny).

    https://i.imgur.com/kCdmGVx.jpg

     

    Zbyt dużo nie miałem jak przetestować w grach, bo GTX560 nie nadaję się do tej rozdzielczości (i nie pozwala na 120Hz) a GTX660TI kumpla (które miałem do ogarnięcia co się z nim dzieje) sypie artefaktami, więc zdążyłem przetestować niewiele w grach, ale to co widziałem do tej pory (LoL, Tarkov, Arma 3) przekonuje mnie że dobrze wybrałem.

×
×
  • Dodaj nową pozycję...