Skocz do zawartości

Revenant

Użytkownik
  • Liczba zawartości

    1792
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez Revenant

  1. Corsair H100i Pro XT.

    wentylatory 1750, pompa 2300, temp cieczy 26 stopni max.

     

    Corsairy Pro XT są bardzo dobre (dobra pompa i coltplate). Do tego fajne wentyle.

    Ale te obroty to istny żart, ustaw max 1200rpm (po ludzku), bo to jest cały sens chłodzenia wodnego. Ja u siebie mam na sztywno 800rpm (daily) i 2000rpm na pompie.

     

    Zazwyczaj AIO najlepiej ustawić na sztywno wentylatory na 800-1200rpm (zależnie od akustyki) i tylko powyżej jakiejś określonej temperatury wzrost (np. powyżej 75*c).

     

    Czyli np. do 75*c wentylatory i pompa mają płaski wykres, a dopiero potem robisz krzywą. 

  2. Kupując płytę za ponad 1000 zł z 14-fazowym zasilaniem spodziewałem się czegoś lepszego...

     

    Każdy produkt (nawet najbardziej ekskluzywny) ma jakieś 1% na awarię. Zawsze będą jakieś wadliwe egzemplarze. Nawet jak nie z winy samego producenta to np. elementu dostarczanego od poddostawcy, który może się poddać w losowym momencie. 

     

    Druga sprawa że płyta pomaga wycisnąć max z samego procka. Ale nie pomoże jeżeli przegrałeś "silicon lottery" i sama sztuka procka ssie. Taka faza jest raczej pod OC 12-16 rdzeniowych Ryzenów na maxa i pod długi katung przy 100% obciążeniu.

    A i tak licząc same ampery to jest to overkill. Natomiast sama faza jest ekstremalnie stabilna.

  3. Joker bez przesady, nawet mi troszkę zaimponowały względem tego czego się spodziewałem. 

    Poczekajmy do Q1-Q2 2020 jak będą też lepsze biny i większa podaż. Ceny spadną pewnie o te +-50€ (ponad 200zł), zegary minimalnie podskoczą i będzie wypas. Do tego fajne B550 i fajrant. 

     

    Co ważne sytuacja z temp wygląda przyzwoicie. Pewnie wyjdą po roku refreshe robiące 5GHz allcore. 

  4. Ale coś się chyba zaczyna dziać bo tu zalecają 12gb/watch dogs legion(ubisoft pewnie gniot optymalizacyjny) na 4k ultra jest na krawędzi 8gb, za rok dwa, może robić dużą różnicę 8 a 16gb. Tylko w sumie z RTX włączysz DLSs i różnicy podobno nie widać

     

    Przy czym żadna z tych gier nie ma żadnego benefitu z alokacji powyżej 8GB. 

     

    Przez najbliższe 4 lata nic się nie zmieni. Ba, dopiero realnie zacznie się wykorzystywać realnie i w pełni te obecne 8GB VRAM, które do tej pory się nudziło i tylko dodawało $$ do paragonu/faktury bez wartości dodatniej. 

     

    Po drugie tworzenie wszystkich tekstur w super detalach jest bardzo czasochłonne i kosztowne dla deweloperów - dla tego często tak na tym oszczędzają. 

  5. Ja potrzebuje referenta, ceny zdeterminują czy 6800 czy 6800xt. Chyba, że ceny będą kompletnie oderwane od rzeczywistości, rzędu 3k+ za 6800 i 4k za 6800xt, wtedy 5700xt zostanie ze mną na dłużej :D

     

    Ja mam zamiar poczekać do minimum lutego. Imo teraz jest zbyt słaba sytuacja na rynku by się pchać. 

    Poczekaj i upoluj jakiegoś Szafira lub MSI.  :D ceny też spadną. 

     

    Dziś rano jak jechałem do roboty śmignął mi w głowie taki Liquid Devil (on miał chyba blok od EKWB?). 

    • Popieram 1
  6. Na PurePC już pierwsze testy R7 5800x :D

     

    https://www.purepc.pl/watch-dogs-legion-test-wydajnosci-kart-graficznych-z-rtx-i-dlss?page=0,7

     

    Cisniemy Sebe, może coś powie szybciej przed przyszłym czwartkiem?

     

    Rzuca mną jak za każdym razem robią testy 2160p z takimi rzeczami jak antyalising... Toć to zabija wydajność (skala -> perf. impact) i jakość... bez sensu. A potem dzięcioły myślą że w 4K będą mieli 33fps.  :rotfl:

     

    Z tego co czytam to Legion jest kolejnym niezoptymalizowanym potworkiem od Ubi. 

     

    a po czterech zarobi na kolejny.  :menda:

     

    I po czterech latach zrobi się chyba kolejny upgrade. Teraz chyba pobawię się z wymianą pozostałego sprzętu na "eco". Na magazynie oświetlenie oraz też nowy komputer (ale to najpewniej za rok - może jakiś Athlon 7nm by wpadł).

     

    Ale ogółem jest mega, wydajność od x4 do x11 większa przy 1/3 a nawet 1/4 poborze prądu względem platformy C2D. I zasilacz BQ robi tam mega robotę - zero shutdownów i zwiech (słaba instalacja elektryczna). A UPS żarł by dużo prądu. 

  7. Przyszedł mi 1 rachunek za prąd od kiedy zmieniłem stary serwer (LGA 775, C2D, x2 160GB HDD) na nowy AM4 (Athlon 3000G 20W PTT, x1 Ironwolf 1TB). 

     

    Po odpowiednim przeliczeniu (uwzględnieniu długości okresu rozliczeniowego itp) wyszło 47zł mniej. Czyli zaokrąglając w dół do 45zł po 12mc będzie to 540zł. A więc cały komputer (netto) zwróci się przed upływem 2 lat. Not bad. 

     

    Athlon pracuje już ponad miesiąc bez ani jednego shutdowna/zwiechy/restartu. Max temp HwInfo (z ostatnich 14 dni) 26*c.  :D

    • Popieram 2
  8. No jakaś tam różnica była w wydajności np między 5500xt 4gb/8gb https://www.google.com/amp/s/www.techspot.com/amp/review/1961-radeon-rx-5500-4gb-vs-8gb/

     

    Tak samo w dużych rozdzielczościach 4k/1440p ultrawide może być kiedyś różnica między 8/16gb w dodatku są często paczki/dodatki/mody z teksturami high res

     

    Jako maniak tekstur grający w 4K od razu mów

     

    Mnie ciekawi jak te wincej GB VRam w RX-ach będzie mieć realny wpływ na wydajność w najbliższym czasie.

     

    Nie będzie mieć wpływu. Podejrzewam że taka konfiguracja pamięci po prostu pozwoliła im przyoszczędzić na szynie 256bit. 

    ię że 8GB wystarcza do takich zabaw. :) Chyba że ktoś na siłę chcę alokacją zapchać vram - ale większość "ładunku" nie będzie w ogóle wykorzystana.

  9. ReLive jest od dawna. Na RX 580 Nitro+ z niego korzystałem. Działa tak jak Shadowplay (włącznie z wydajnością). Przy czym ma imo wygodniejszy panel sterowania. Osobiście irytuje mnie GeForce Experience i jego panel... jest toporny i zbytnio "estetyczny" przez co niepraktyczny. 

     

    Radeon Chill przypadkiem nie działał jak zwykły limiter FPS? Bo nie pamiętam już... a bawiłem się coś z tym w Path of Exile. 

  10. @Revenant

    Jak myślisz czemu na wczorajszej prezentacji nawet słowa nie wspomnieli o RT ? ;)

    Odpowiedź już znacz - RT działa znacznie gorzej niż w Ampere. 

     

    To że będzie działać pewnie gorzej to było do przewidzenia. To jest 1 generacja RT w przypadku AMD. 

    Żeby RT odpowiednio śmigało są też potrzebne sterowniki - które będą dopiero za kilka tygodni. 

     

    Btw. EK wrzuciło to na fejsa:

     

    122890023_3430577210329619_2247172060152

    • Popieram 1
  11. Obawiam się, że nie doda bo RT w RDNA2 według wstępnych przecieków działa znacznie gorzej niż w Ampere

     

    Tylko że te przecieki bazują na wczesnych próbkach inżynieryjnych i kilkumiesięcznych sterownikach. Ogółem poziom Turinga - ważne że nie gorzej.

    To ogółem git jak wsio będzie śmigać. Nie mogę się doczekać recenzji 6800XT.

     

    Ciekawe jak RDNA2 wypadnie w akceleracji video. Bo turing na tym polu jest wybitny - ampere pewnie jeszcze bardziej. 

  12. Popieram ten ruch @ernorator

    Według mnie jeden ficzer w jakiejś grze nie może decydować o tym, czy warto kupić kartę, czy nie :D

     

    Trzeba tylko pamiętać o tym że czasami ficzer staje się standardem. Poza teksturami oświetlenie daje największy efekt "wow" optycznie. No chyba że mają robić RayTracing jak w Wolfensteinie Youngblood... to ja wtedy dziękuje za takie fake lustra zrobione na siłę. 

     

    Dobrze było to zrobione w Metro oraz Control. Imo w Battlefieldzie też to spartolili tak jak w Wolfie. 

     

    Coś mi mignęło wczoraj jak to oglądałem w robocie (musiałem z przerwami) że niby RT AMD ma być kompatybilny ze wszystkimi obecnymi grami wspierającymi RT zielonych, to prawda czy mi się coś usłyszało i zmutowało?

  13. Spoko tylko że w najlepszym przypadku jadą na ultra-mega-wczesnych kilkumiesięcznych engi-driverach. Poczekałbym na premierę i sterowniki. Wyniki i tak nie są gorsze niż np. w przypadku Turinga. Do bazowego RT powinno styknąć w gorszym scenariuszu. 

  14. Ciekawe jakie ceny będą na premierę i BF a jakie w lutym-kwietniu. Imo teraz mamy bardzo słaby moment na zakup nowego GPU jeżeli nie ma się ciśnienia. Podaż nie nadążą za popytem (niezależnie od producenta). 

     

    Jeżeli będzie się dało w [email protected] wyrwać 6800XT w przyzwoitej wersji za 600€ brutto (a jest to możliwe, bo po pierwszym +- kwartale zawsze ceny czerwonych spadają)  to będzie świetnie. Jak ktoś nie ma parcia na RT i DLSS to 300€ w kieszeni. Imo o ile bardzo przyzwyczaiłem się do DLSS i je chwalę w 2160p, to i tak wolałbym mieć natywne 4K (w każdej grze to testowałem - ani razu nie stwierdziłem by z DLSS wyglądało to ładniej nie mówiąc o tym że np. w Control trzeba podejść do ściany/znaków itp by nagle zrobiły się ostre...).

     

    I nie zapominajmy że AIB często leją na Radeony - np. ASUS wydając szrot-wersje pod AMD. Zaprojektowane PCB jak i chłodzenie bywało na naprawdę słabym poziomie. Np. przypomnijmy sobie serię RX 400 i RX 500 czy Vegi. Np. ASUS Strix AMD vs GeForce - różnica była potworna (chłodzenie VRM, samo chłodzenie, jakość i rozbudowanie PCB...). 

     

    I czy tylko mi przeszkadza nazewnictwo? Zaraz z CPU będą się mylić... X... XT... X000...

  15. @Revan wiadoma sprawa - 5600x + 6800  :evil:  :evil:  :evil:   

     

    Już pewnie bym dorzucił do tych 8 jajek w 5800X, w końcu martwa platforma to nie byłoby sensu cebulić jak na Zen+. :/ 

     

    To znów życie przegrali Ci, którzy dali po 5k za RTX 3080 na to wychodzi. A nawet nie ma co mówić o tych, co wcześniej opylili Turingi za bezcen.  %-)

    VRAMem bym się nie przejmował. 8GB nawet do 2160p styka, a już na pewno przy kompresji nvidii.

    Co najwyżej do obróbki video może się przydać. Ale z mojego doświadczenia więcej mi vramu idzie na kartach zielonych aniżeli czerwonych. 

×
×
  • Dodaj nową pozycję...