Skocz do zawartości

kubas246

Użytkownik
  • Liczba zawartości

    1464
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez kubas246

  1. Jeśli jedyny powód zakupu monitora to niższy pobór prądu to od razu powiem, że nie ma to sensu. Różnica w poborze prądu między tym TV a monitorem to 50W (patrząc na wartości podane przez producenta). Przy 50W różnicy po 20h naklepiesz 1kWh mniej na monitorze niż na TV. 1 kWh to około 0.5zł. Policz sobie ile musiałbym tysięcy godzin używać ten monitor, żeby jego zakup zaczął się zwracać (od razu powiem: za dużo).

    Jeśli to tylko śmieszkowanie i powód zakupu monitora jest inny to jeśli masz ograniczony budżet to nie ma za bardzo sensu szukać 1440p czy 4k. Weź tani 1080p 120Hz/144Hz to przynajmniej pograsz przy wyższym odświeżaniu. BenQ XL2411 (TN, 1080p, 144Hz) można dostać za 1000 zł

    BTW FHD (1080p) to właśnie jest 2k

  2. Część, dziś zamawiam monitor, jestem niemal całkowicie zdecydowany na LG z tytułu. Jednak mam wątpliwości co do rozmycia w ruchu i smużenia. Recenzje są tutaj dość sprzeczne, jedne twierdzą że jak najbardziej nadają się nawet do szybkich gier a inne że odczuwalny blur jest zbyt duży. Stąd moje pytanie, czy ktoś z forumowiczów ma ten monitor lub miał okazję użytkować i mógłby się wypowiedzieć (najlepiej w porównaniu do jakiś szybkich IPS lub TN).

  3. Szybkie odświeżenie tematu. Jutro testy 2080 i 2080Ti, więc dla pewności poczekam do jutra z decyzją czy brać Pascala (ale najpewniej go wezmę bo w cenie uzywanej 1070Ti to nawet 2060 nie dostanę przy tych cenach).

     

    Pytanie jest czy brać 1070Ti JetStream czy dopłacić 150 do 1080 Phoenix? Czy taka dopłata jest opłacalna biorąc pod uwagę wydajność karty i chłodzenia.

  4. RT [...] do niedawna mógł być liczony w czasie rzeczywistym tylko na superkomputerach i całych farmach, teraz trafia pod strzechy i osobiście uważam to za przełom milowy w dziedzinie grafiki komputerowej.

    Poczytaj o RT [...], a dopiero potem oglądaj dema, animacje prezentujące RT w działaniu. :)

     

    Wyjaśnijmy sobie jedną prostą sprawę. RTX od NV ma gucio wspólnego z prawdziwym RT. Pisanie o "RT trafiającym z superkomputerów pod strzechy", "przełomie" itd. nie ma nic wspólnego z prawdą. Zacznijmy od najprostszej sprawy, RTX to nie jest ray tracing rendering. To jest renderowanie "hybrydowe" - jak NV sama przyznała. Mamy wiec zwykłą scenę wzbogacaną o elementy używające RTX. Już w tym momencie można wiec wyrzucić do kosza "wielka rewolucję i moc pozwalającą liczyć RT w czasie rzeczywistym" do kosza. Jednak mimo ograniczenia RTX tylko do dodatkowych efektów okazuje się, że dalej nie ma na tyle mocy aby nawet te efekty ogarnąć normalnym RT. NV wpadła, wiec na pomysł żeby promień był "wysyłany" dla co któregoś piksela. Ilość promieni używanych w RTX jest śmiesznie niska. Oto pokazowy obraz:

     

    http://cgicoffee.com/blog/content/images/2018/28mar2018/noisy-1-spp-nvidia-rtx-reflections.jpg

     

    Taki obraz jest dopiero potem przepuszczane przez AI które odszumia obraz i efekt jest taki:

     

    http://cgicoffee.com/blog/content/images/2018/28mar2018/filtered-reflections.jpg

     

    Efekt ok. Tylko przełóżmy to na normalne odbicia a nie takie smugowate. Tutaj pojawia się problem przekłamań. AI nie jest nieomylne. Zwłaszcza przy mocno ograniczonym czasie na wykonanie poprawek. Przekłamania będą się pojawiać. Dodatkowo już na pokazach było widać, że nawet te ograniczone efekty RTX działają źle. W demach z Tomb Raider i Metro było widać, że nie wszystkie obiekty rzucają cienie mimo używania tego wspaniałego RTX. W przypadku RT coś takiego nie miałoby miejsca.

    Na sam koniec zostaje jeszcze kwestia wydajności i rozpowszechnienia. Przy 2080Ti było widać spadki fps w grach, DICE przyznało że będą musieli okroić RTX dla poprawy wydajności. Czyli na 2080Ti prawdopodobnie uda się osiągnąć 1080p@60fps przy RTX. Okazuje się więc że tylko jedna karta z trzech zapowiedzianych będzie w stanie realnie wspierać RTX. No chyba, że ktoś chce cofnąć się wiele lat i grać w 720p lub kupuje kartę za 3k żeby w FHD schodzić z ustawieniami w dół i grać w 30fpsach ale za to z RTX. Biorąc to pod uwagę 3 karty wspierające RTX, ich ceny i wydajność przy RTX będą też problemy z rozpowszechnieniem RTX. Ile gier poza tymi kilkoma pokazowymi będzie to wspierać skoro tak niewiele osób z tego skorzysta? RTX nie jest nawet NV only tech a technologią ograniczona do 3 kart z czego tylko jedna jest w stanie to realnie ogarnąć.

    • Popieram 3
  5. Cześć,

    ile mogę dostać za prawie 4 letni Thermaltake Smart SE 530W? Zasilacz nie ma gwarancji, mam do niego wszystko co było w pudle, pracował przez 4 lata z i5 4570 i GTX770, więc nie był zbyt obciążony. Dostanę 100 zł czy więcej?

  6. @EXT_1

    Zanim wyjdą 2050 i 2060 to przyjdzie nam jeszcze trochę poczekać. 2060 pewnie w okresie świąt się pokaże. Tylko mając 5GB ram (jak wskazują plotki) i przy tym ile ma kosztować 2070 to dalej to nie będzie opłacalna karta. Nie wierzę w to, że GTX2060 bez RTX będzie kosztował 1500 zł skoro 2070 kosztuje 2700+ zł. Nvidia po prostu nie zostawi dziury na 1200 zł a nawet jeśli to nie wierzę, że 2060 zrówna się wydajnością z GTX1070Ti lub 1080 które można dostać nawet lekko poniżej 1500 zł. Ostatnio pojawiła się informacja, że Pascal ma być trzymany na rynku jeszcze do okresu świąt. Więc możliwe, że do końca roku będą chcieli wyprzedać Pascale z wysokiej i średniej półki a potem wprowadzić tańsze Turingi (tańsze != tanie)

  7. Cześć,

    od dłuższego czasu zabieram się za zakup monitora. Miałem nadzieję, że LG wreszcie wypuści nowe UW 1440p albo że ktoś choćby zapowie nowe monitory na nowych matrycach 1440p od AUO lub LG. Niestety LG cały czas opóźnia premierę a AUO całkowicie skupiło się na UW 1440p@200Hz i 4k@144Hzi o zapowiedzianych matrycach VA 1440p@144Hz nowej generacji cisza :/ Zauważyłem natomiast, że na allegro dostępny jest w dobrej cenie LG 32GK850G. Dość kusząca opcja, bo z tego co wiem to jest na prawdę dobry monitor (nowej generacji matryca VA od AUO).

    Tylko pojawia się pytanie, czy 32" to jednak nie będzie za dużo do pracy i codziennego użytkowania? Siedziałbym jakieś 50cm od niego (takie biurko), używał do przeglądania netu, programowania, sporo pisania i oczywiście gier. O ile w grach 32" na pewno przeszkadzać nie będą o tyle nie jestem przekonany w innych zastosowaniach. Dodatkowo ta odległość. Ktoś może używał tak dużego monitora i się wypowie?

  8. @Wanna146

    Co to za jakieś bezsensowne porady. Pomiędzy i7 a i3 nie ma i5, że polecasz mu zakup 4 rdzeniowego procka w momencie gdy na rynku są 8 rdzeniowce AMD a 8 rdzeniowce Intela trafią na rynek w najbliższym czasie?

    W tej samej kasie co i7 8700 + GTX1060 3GB kupi przecież i5 8500 i GTX1060 6GB albo używanego GTX1070 które można dostać za 1300-1400

    • Popieram 1
  9. @Revenant

    Jakbym brał dla siebie to bym wziął, sam mam teraz RM750x bo dorwałem w dobrej cenie i chciałem zapas żeby dłużej siedział w trybie pasywnym (przy okazji powiem, że jestem zadowolony bo nic nie piszczy i zasilacz cichutki) tylko tak jak mówię interesuje mnie tu konstrukcja poniżej 400 zł, bo budżet jest taki a nie inny (mówiąc wprost ograniczony a musi się w nim zmieścić 1070 i zasilacz)

×
×
  • Dodaj nową pozycję...