Skocz do zawartości

Revenant

Użytkownik
  • Liczba zawartości

    2048
  • Rejestracja

  • Ostatnia wizyta

Zawartość dodana przez Revenant

  1. Miesiąc temu w x-cumie był 6900XT Devil za 3699, imo bez zmian (czyli słabo).
  2. Pyknąłem jeszcze na szybko z rana 2 mapy (de_dust i de_inferno klasycznie). Zegary elegancko trzymają 1700-2100MHz chociaż gra nie potrafi wycisnąć perma 100% z CPU i GPU (żadne nie wydaje się bottleneckiem). Ewidentnie kwestia silnika gry i API (tak np. w WoWie). Ale nie mam spadków, minimum zanotowało 1610MHz w HWInfo i w GPU-Z. I have no idea. Ale fps bez dropów i frametime też elegancki. Tbh to wina Valve bo trzyma przy życiu super stary produkt (10 letni) na 18 letnim silniku (właśnie wygooglowałem, silnik z 2004). To nie ma prawa działać perfekcyjnie na nowych GPU i platforma
  3. Większość chyba ciągle siedzi na DX11. Np. na pewno wiem że z nowych gier TW:WH3 jest na DX11. Nie zaobserwowałem tego w żadnej grze, ani TW:WH3, Hell Let Loose, CS:GO, World of Warships, Cyberszrot 2077, Wiesiek 3 (testowałem tam UV/OC). Przy czym mam monitor 3840x2160. Może to ma jakiś wpływ na to? Inny load de-facto na GPU, dużo cięższy. A jako prawdziwy geeko-nerd gram z OSD zajmującym 1/4 ekranu z 4 nawet graphami. Jedyne co mi przychodzi do głowy to: A) Rozdziałka (niższa rozdziałka momentami przy np. minimalnym zamulaniu procka powoduje przechodzenie w niższy
  4. 5600X z 2x16GB 3600MHz, Curve uV i +100MHz (smart access memory wł) Ten test jest trochę bez sensu. Vishera nawet w dniu premiery była totalnym gruzem (pomijam starszego bulldozera...). Bardzo słabe "pseudo" rdzenie. FX 8350 nadawał się tylko do obróbki wideo w programach obsługujących multithreading. 6600K jest dużo młodszy i ma super mocne rdzenie i DDR4 (sam miałem 6700k). A potem z czapy współczesna i5 "bieda edition". W teście z czapy porównywane są CPU z całkowicie różnych lat (wiele lat odstępu) a przede wszystkim segmentów. Stara, flagowa ale tania Vishera (te
  5. Nigdy nie miałem z nimi problemu w przeciwieństwie do sterowników nvidii. CS:GO jest bardzo złym wyznacznikiem/benchmarkiem bo to totalny staroć. Nawet wydawca tej gry ma gdzieś silnik tej gry. Gdyby im zależało to byłyby stosowne aktualizacje. Nie ma sensu nawet minuty poświęcać tak staremu i bezużytecznemu API. Gdyby mi jakiś pracownik nawet to sugerował to szybko zmieniłby stanowisko (na niższe). Gra z 2012 roku, gdzie DX11 było już dość powszechne. Sam silnik ma chyba z 17-18 lat, uber staroć. Nie ważne jak często aktualizowany. Grałem ostatnio 24h według
  6. Yup, ale zdecydowanie odstaje od 6800. W 2160p 3070'tka ma 88% wydajności per W, 1440p 90% a 1080p 94%. Oczywiście ja patrzę przez pryzmat 4K od 6 lat. Ale przy 1440p to ciągle 10% (raczej mało osób kupuje takie GPU do 1080p). I są to wyniki bez uV. Gdzie 6800 robi dużo, dużo większe uV od 3070. Moja dawna 2070S FTW3 wypada ultra słabo w porównaniu z 6800tką. Przy 300W 10% różnicy to już 30W. A jeżeli będzie to 12% a po uV np. 20% to już 60W. Mniejsze TBP, mniejszy hałas wentyli, mniejszy stres dla samej karty i PSU. U mnie po U
  7. Też wpierw rozważałem 6750XT. Ale... pobiera tyle samo (jak nie więcej po uV w obu przypadkach case2case) prądu co większy brat, mając mniej VRAM oraz węższą szynę i mniej cache (to plus szersza szyna daje więcej soczku z resizable bar). A cena 6800 nie jest specjalnie dużo wyższa od 6750. 6800 non-XT to najlepsza karta perf per W. I patrząc na newsy RDNA3 raczej AMD nie będzie łatwo stworzyć drugiej takiej karty. 6800 to taki chyba przypadkowy wypadek przy pracy.
  8. Czyli cena RX 6800 z większym TDP i gorszą wydajnością high-res? I połową VRAM? Z lepszą wydajnością RT, która przy tej karcie miałaby sens tylko w 1080p.
  9. Ja patrząc na ceny i specyfikację RTX 4000 (a myślałem nad 4080 + monitor M32UC) zostanę na jakieś 2 lata z 6800tką. Wczoraj odpaliłem Cyberbuga 2077 po przerwie (z modem FSR 2.1 zastępującym DLSS) i jak miło pograć w 4K High w 60fps bez dropów (FSR na high quality bez sharpeningu). I ten widok gdy GPU zasysa tylko 130-170W podczas takiego grania... zamiast 450-650W. i GPU fan speed na max 880rpm... Teraz czekam na promo Elden Ringa by obczaić, mam nadzieję że pociągnie ultra 4K w 60fps.
  10. Akurat imo wygląda spoko, minus te LED'y. Zwarta konstrukcja bez zasłoniętego finstacka. Ja myślałem że kiedyś odpłynąłem kupując laptopa za niecałe 15k z 6700K, 4K-Gsync AHVA i 980M SLI. A dzisiaj prawie tyle samo GPU kosztuje (+chore TBP), przy duuuużo gorszej koniunkturze i postępującym kryzysie energetycznym. Ceny są totalnie dyskwalifikujące... TDP dyskwalifikujące... a 4080 w wersji kastrat to jakiś żart z kategorii "abominacja" lub "aberracja". 4080 12gb mógłby być 4070tką lub 4070Ti (powinien?). Boję się myśleć jaki będzie de-facto najważniejszy 4060.
  11. 7600X - ok. 360-380€ w EU z VAT (w krajach ze stawką 19-23%) Imo zakup totalnie bez sensu. 5600X w cenie 175-190€ co rusz się pojawia w jakimś sklepie. Perf per € totalnie niszczy jakikolwiek sens zakupu 7600X. A dodajmy do tego bardzo drogie mobo oraz DDR5... sytuacja robi się jeszcze gorsza (na niekorzyść 7600X). No i TDP... 7600X ma mieć 105W... co jest wg. mnie bardzo słabe. Dodajmy do tego potencjalne choroby wieku dziecięcego oraz czekanie na update'y biosów, które je rozwiążą... imo nie warto się pchać na samym początku w 1st gen na nowy socket
  12. No nie ma co się dziwić. Samo TDP dla Europy to kpina. W Azji nie lepiej... Ja będę chyba udawał że seria 4000 nigdy nie istniała. A ja kiedyś narzekałem na TDP swojego GTX 480... Mój 4870x2 stary chyba żarł jakoś 300W nawet...
  13. Taki Total War Warhammer 3 bierze 14GB VRAM i wypluwa na ustawieniach high 4K (tekstury na max oraz Blood4theBloodGod wł.), a można iść na very high i niektóre ustawić jeszcze wyżej. Przy kartach typu 4080 imo 16GB VRAM to must have jeżeli ma starczyć komuś do 2024-2025 bezstresowo.
  14. Mi nie raz po głowie chodziła koncepcja kompa w stylu Warhammera Fantasy lub 40K. Nawet z berserka mialem pomysł. Ale na to trzeba mieć kupę czasu i dostęp do drukarki żeby zrobić fajną folię do oklejania. I najlepiej drukarkę 3D żeby zrobić backplate odpowiedni albo nakładkę na backplate. Doubt, dostępność w EU będzie pewnie znikoma. Część ludzi się też nauczyła żeby nie sprzedawać GPU przed premierą.
  15. Problem w tym że takie skakanie z rozwiązań, zanim w ogóle zostanie ono szeroko zaadoptowane zabija jakikolwiek rozwój tego. Nie potrzebujemy technologii na papierze (dla kilku gier, które można policzyć na jednej ręce). Potrzebujemy czegoś konsekwentnego i dostępnego powszechnie. Inaczej to tylko gimmick, za który płacimy premium €. Bawiłem się tym appką Looseless scaling (czy jakoś tak, za grosze na steamie była). Dużo lepsze od NIS nvidii ale ciągle słabe na tle bezpośredniego konkurenta czyli DLSS. Potrzebowałem FPS boosta przy 2160p na RTX 3060(M) w New World i
  16. Ale spokojnie, monsieur skórzana kurtka i tak opchnie wszystko. Ja jestem wściekły na ten krok wstecz w formie DLSS3. Na 2070S a tym bardziej 3060(M) DLSS ratował mi sytuację w Cyberpunku, Metro Exodus i Control. Teraz mam wrażenie że nie dość, że idzie to w złym kierunku to jeszcze wpłynie to na implementację i dostępność tej opcji w grach. Sam fakt, że DLSS i FSR wymaga implementacji po stronie developera gry jest słabe. Z resztą i tak nie ma co gdybać, ceny i tak się unormują dopiero po wyjściu 4070 i 4060. Wtedy będzie można liczyć perf per € i perf per W.
  17. Obawiam się właśnie że tylko DLSS1 i DLSS2 będą "prawie" kompatybilne. DLSS3 nie będzie działał w grach z DLSS1 i DLSS2 ani vice wersa. Chodzi o implementację. Niewiele studiów może się połasić na równoległą implementację DLSS2 oraz DLSS3. Albo wybiorą DLSS2 dla dużej kompatybilności albo DLSS3 dla flexowania się. O ile do tej pory bez wątpienia stwierdzałem że DLSS > FSR to teraz mam poważne wątpliwości (DLSS 3 może to storpedować jak długie lance w stary pancernik).
  18. DLSS 3 to według mnie jawne stwierdzenie "nasi klienci to debile". Jak zwykle robią exclusiva żeby w sztuczny sposób napędzić sprzedaż. Nie mają za wiele do zaoferowania jakościowo to będą wymuszać (nieobsługiwane przez większość tytułów) gimmicki.
  19. Co gdzie co jak bo ostatnio mało zaglądam i nie nadrabiam tematów, gniję aktualnie w wyrku z gipsem :< nadrabiam zaległości w swoich Koreańskich serialach na netflixie. Atm śmieję się z RTXów 4000 i ledwo oddycham. Nie mogę złapać oddechu patrząc na speckę i MSRP 4080 12GB. TDP i w RDNA3 i RTX 4000 będzie conajmniej słabe. Ja czekam na RDNA4/RTX 5000. :< Nawet Stalkera mi opóźnili więc RX 6800 ciągnie mi atm. wsio na 4K(TW:WH3, Hell Let Loose i parę lżejszych tytułów).
  20. No nie wiem... nigdy nie udało mi się kupić FTW3 w pre-orderze czy po premierze w PL. A np. gdy 2070S FTW3 pojawił się w pl na morelowych włościach to miałem już kartę od prawie roku. Nawet laptopa kupiłem w czerwcu 2021, w PL pojawł się w pre-orderze w grudniu z dostępnością styczęń 2022... taki jest Polski rynek. Jest "odpadem" i "trzecim sortem". A obok mamy DE czy FR gdzie wysyłka idzie raptem 2-3 dni (zależnie czy DE czy FR) z tą samą gwarancją i często niższymi cenami... Zotac raczej nie należy do wybitnych vendorów, ani produktem a tym bardziej gwarancją i jej realizacją. W PL furorę
  21. FTW? Nadal były nieporównywalnie lepsze niż jakikolwiek MSI czy Gigabyte. W DE czy innym cywilizowanym kraju bez problemu można je było kupić. Co za problem zamówić kartę z DE do PL? Wysyłka 10-13 € aż taka droga? Skoro paczka z Dortmundu czy Stuttgartu idzie do Lublina 2 dni to raczej nie czeka się zbyt długo (dwa skrajne końce obu krajów...). MSI coraz bardziej kastruje Trio co widać często po TDP (bios lock). Ja tylko przypomnę ich super porażkę w formie 2070S Trio z TDP z max 240W. Gdzie FTW3 i Strix ciskały po 300-310W wgniatając ją w ziemię przy tych samych cenach
  22. Testowa partia nie trafi na rynek. Oficjalnie. Wsio poniżej... https://videocardz.com/newz/evga-ceases-video-card-production-no-more-evga-geforce-gpus
  23. Ja czekam na testy i info o perf per watt. A potem na konsekwencje wykastrowanych szyn w 2160p oraz hr wide aspect ratio (nie pamiętam nigdy dokładnej rozdziałki...) A mydelniczka fajna, lubię jachty (szczególnie explorery 70-85ft) więc w sam raz.
×
×
  • Dodaj nową pozycję...