Skocz do zawartości

kubas246

Użytkownik
  • Liczba zawartości

    1464
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez kubas246

  1. Również osobiście bym poszedł w Z390 Extreme4. Ramy ok. Szybszych nie warto przy tych różnicach w cenie (3200Mhz CL16 - 650 a za CL15 już 850 ) Swoją drogą czekam na stanowisko LG US w kwestii fuckupu z ich strony który kosztował mnie 2 GPU (stąd ta uwaga wpasowuje się w temat). Ciekawe co powiedzą, bo zapewniali że są bardzo przejęci tym problemem.
  2. No chciałbym zobaczyć każdą sztukę robiąca 4.5GHz single core... Wiele zatrzymuje się niewiele wyżej niż all core. Z tym all core to też szału nie ma bo kumplowi już druga sztuka 2700x ma problemy z dobiciem do 4.2GHz all core. Zresztą silicon lottery podawało statystyki, tylko top 32% było w stanie osiągnąć 4.2. Widziałem kilka testów i się nie zgodzę. W BF5 2600X wypada gorzej niż 8400 czy 7700 zarówno w DX11 jak i DX12. W innych grach dobrze korzystających z wielu rdzeni również 8400 wypada lepiej lub na tym samym poziomie. Skoro już teraz widać że 2600X brakuje mocy to cudów nie będzi
  3. Niestety w nowych grach tych które mocniej cisną po procku już sobie nie radzi. 4 rdzenie to niestety mało dla niektórych gier.
  4. No dobra tylko przecież 6700k to ani konkurent 2600 ani ten sam okres. Kumpel ma 8400 i dał poniżej 700 zł (650 chyba). Czyli 145 zł więcej niż Ty za 2600. Przy takiej różnicy cen wziąłbym 8400 do gier. Dlaczego? Bo w grach po prostu wypada lepiej i różnica to od kilki do kilkunastu fps (mowa vs 2600X@4.2 GHz). Teraz przy obecnych cenach zakup procka niebieskich zupełnie się nie opłaca (1000zł za 8400?!), ale wcześniej? Wcześniej zakup Ryzena jeśli mieliśmy zamiar na tym grać nie miał sensu skoro za niewiele więcej (8400 v 2600/2600x) lub nawet tyle samo (8600k v 2700) dostajemy wydajniejszy s
  5. Nie zauważyłem a nie ma to są dwie różne rzeczy. https://pcmonitors.info/wp-content/uploads/2018/06/AG352UCG6-blur-120Hz.png https://pcmonitors.info/wp-content/uploads/2018/07/32GK850G-blur-120Hz.png UCG6 i 850G dla porównania, oba VA. Na UCG6 widać mocny overshoot przy ustawieniu strong, więc osobiście wyżej jak medium bym nie ustawił overdrive. Tymczasem 850G ma mniejsze smużenie nawet przy wyłączonym overdrive.
  6. Nie wiem co było miesiąc temu w minfactory, ale widzę ze u nas ceny bez większych zmian od sierpnia (wykres cen na skąpcu)
  7. Nie sądzę żeby to byłe dobre dla AMD. Vega 64 to przecież cena powyżej GTX1080 czy RTX2070 (Windforce, Armor). Vega 56 ma ceny na poziomie 1070Ti (jakby się czepiać szczegółów to nawet lekko wyższe) a RX590 jest 3 stówki tańszy niż GTX1070 ale wydajności też mu trochę brakuje. Wszystkie ceny na podstawie wyników z ceneo i skąpca. Czyli po przesortowaniu po cenach okazuje się, że AMD zaczyna istnieć dopiero od RX590 i w dół.
  8. Cześć, mam dla Was mały poradnik "odchudzenia" Win10. Nie jestem jego autorem a jedynie postanowiłem podzielić się kilkoma trikami przedstawionymi przez użytkownika Bass_Junkie_xl na reddicie. Działania te mają na celu zmniejszyć lub zlikwidować mikro-przycięcia wynikające z problemów powodowanych przez Win10. Zadziałało dla mnie, zadziałało dla autora poradnika, nie gwarantuje że zadziała dla Ciebie. No i przede wszystkim wykonujesz to na własną odpowiedzialność, więc nie przychodź z pretensjami jeśli uwalisz sobie system. 1. Panel sterowania NVIDIA W "Zarządzanie ustawieniami 3D" w zakł
  9. NV nie ogłosi "hej za rok nowe znacznie lepsze karty w 7nm+" bo chętnych na obecne w 16nm+ by ubyło. Zwłaszcza że i tak ludzie obecnie wahają się co do rtx z powodu problemów i ceny a inni całkiem odpuścili i kupili Pascale. Oczywiste jest jednak, że jeśli NV chcę żeby z RTX cokolwiek było to nie może czekać 2-3 lat na kolejną serię. Musi podbić wydajność kart i obniżyć koszty produkcji a co pozwoli na to lepiej jak zejście z 16nm do 7nm? Mniejszy pobór, wyższe zegary, mniejszy chip (więc będą mogli trochę rozbudować część odpowiedzialną za bajery)
  10. Przyszły rok. Dostaniemy poprawione RTXy w 7nm+ i większą ilość GDDR6 (oraz pewnie trochę szybsze).
  11. Mój RTX natomiast leci jutro rano do MSI. Oby nowa nie padła tak jak ta po jednym dniu. Za to grzebiąc po biosie zauważyłem jedno, ramy były ustawione na 2133MHz, musiały się ustawienia zresetować jak robiłem aktualizacje biosu.
  12. Najlepszy będzie UCG6, co nie zmienia faktu że dalej jest trochę zbyt wolny pod gry i może być widoczne smużenie. Inna opcja to droższy Dell AW3418DW na IPS
  13. Blurbustersi testowali ekran 480Hz. Przy takim odświeżaniu już nawet nie chodzi o wincyj Hz dla samego wincyj Hz a o zmniejszenie bluru.
  14. Zobaczę jak z OC pewnie dopiero w niedzielę. Będzie też wreszcie powód żeby procka kręcić. Ogólnie karta spora, większa niż 1080 Phoenix. Szybkie pytanie, czy przy tym całym boost 3.0 jest sens robić ręczne OC karty? Mój RTX boostuje do 1980MHz (przynajmniej tyle zgłasza MSI Afterburner) i zastanawiam się czy jest sens cisnąć go wyżej ręcznie.
  15. Akurat DLSS jest dla mnie technologią którą próbują namącić w głowie jeszcze bardziej niż RT. Przecież to upscaling a oni reklamują to jako cudowną technikę która robi nie wiadomo co. Co do mojego RTX2070: http://gpuz.techpowerup.com/18/11/23/n8c.png Jednak kostki Samsunga
  16. Rev ja Cię jak najbardziej rozumiem. Jednak to akurat nie jest problem GSync czy NV a post jednak nawiązywał do niego. Ogolnie ceny tych monitorów są przesadzone. Nawet ten 4k@144Hz wersja bez FALD i bez GSync kosztuje sporo kasy. Nie ma też co liczyć na jakiś znaczny spadek ceny, popatrz na monitory IPS 1440@144Hz. Przecież one wyszły końcem 2015/początkiem 2016 a są droższe niż nowiutkie LG 1440p@144/165Hz które wyszły kilka miesięcy temu i są oparte o nowiutkie matryce które do produkcji trafiły początkiem tego roku. Rebel tam chyba nawet musisz mieć 98Hz żeby nie ucinać kodowania k
  17. O Dell AW2518H czytałem dobre opinie, kilka osób niezadowolonych z Dell S2417DG i S2716DG polecało AW2518H. Monitora nie miałem, więc nie powiem na 100%, ale ponoć jeden z lepszych 240Hz.
  18. Nie znam tego modelu, testów też nie znalazłem.
  19. Mogą być różnice w jakości kolorów i w ghostingu zależne od użytego podświetlenia, elektroniki i firmware. W tej kwestii musisz już szukać recenzji (tftcentral, pcmonitors.info). Pod względem blb to jest taka sama loteria.
  20. Moduł nie jest niezbędny, ale NV twierdzi że wykonuje swoje zadanie lepiej. Odpowiada za synchronizację klatek i przede wszystkim wspiera overdrive co ma zmniejszać ghosting. Po testach widać, że akurat to drugie wykonuje bardzo dobrze. Ghosting faktycznie jest mniejszy na monitorach z GSync (mowa o bliźniaczych modelach, jeden z FreeSync 2 a drugi z GSync). Z tą aferą to w sumie nie ma się co dziwić, że po modyfikacji sterowników GSync działał. GSync bez modułu to niemal to samo co FreeSync a trik polega tylko na tym, żeby "przekonać" kartę że moduł tam jest i może odpalać GSync. @Revena
  21. Loteria. Możesz dostać Acera z równym podświetleniem a możesz dostać Della z beznadziejnym. Dlatego kupując monitor trzeba brać to pod uwagę. Niektórzy zwracają monitor po kilka razy żeby dostać w końcu dobra sztukę.
  22. Jak już pisałem TN się nie nadaje pod duże monitory, bo ma słabe kąty widzenia. Chyba że chcesz siedzieć daleko, ale to już Twój wybór. Do 1500 masz tak jak podałem: TN 1080p 240Hz lub IPS 1440p 75Hz. Tutaj masz recenzję tego Asusa: http://www.tftcentral.co.uk/reviews/asus_mg279q.htm#response_times IPSka z tego samego okresu co chyba wszystkie obecnie dostępne IPS 1440p@144Hz. Spisywać się będzie podobnie. W przypadku IPS jest oczywiście ten problem co zawsze: niski kontrast, srebrna czerń, IPS glow a dodatkowo popularne problemy z blb.
  23. @Revenant MSI Armor, nie nastawiam się na kostki Samsunga bo to jednak niski model, ale nowa dostawa a ponadto vendorzy już potrafili zaskoczyć w tej generacji i wrzucić te lepsze chipy "-A" nawet do blowerów.
  24. Zacznijmy od początku. Monitor jest spory i zajmuje dość dużo miejsca w głąb biurka z powodu sporej podstawki. Fabryczny uchwyt pozwala za to na dość sporą regulację ustawienia monitora i nawet na ustawienie go pionowo (pivot). PPI jest trochę wyższe niż 1080p@24" choć nie widać tego za bardzo (zbyt mała różnica), 1440p@27" pod tym względem prezentowałoby się lepiej. To PPI niewiele wyższe niż przy 1080p@24" ma jednak i plusy, jeśli ktoś pracuje w programach które źle się skalują to tu problemu z tym nie ma bo po prostu nie trzeba nic skalować. Przestrzeń robocza też jest duża i pozawala komfo
  25. Jutro mam dostać 2070, ciekawe czy będzie Samsung czy Micron.
×
×
  • Dodaj nową pozycję...