-
Liczba zawartości
2048 -
Rejestracja
-
Ostatnia wizyta
Typ zawartości
Profile
Blogi
Forum
Kalendarz
Posty dodane przez Revenant
-
-
3 minuty temu, Rebelmind napisał:
Wydajność między 3070 a 3070 Ti, pobór 220W, 2700 PLN.
Czyli cena RX 6800 z większym TDP i gorszą wydajnością high-res? I połową VRAM? Z lepszą wydajnością RT, która przy tej karcie miałaby sens tylko w 1080p.
-
Ja patrząc na ceny i specyfikację RTX 4000 (a myślałem nad 4080 + monitor M32UC) zostanę na jakieś 2 lata z 6800tką.
Wczoraj odpaliłem Cyberbuga 2077 po przerwie (z modem FSR 2.1 zastępującym DLSS) i jak miło pograć w 4K High w 60fps bez dropów (FSR na high quality bez sharpeningu).
I ten widok gdy GPU zasysa tylko 130-170W podczas takiego grania... zamiast 450-650W. i GPU fan speed na max 880rpm...
Teraz czekam na promo Elden Ringa by obczaić, mam nadzieję że pociągnie ultra 4K w 60fps.
- 1
-
16 minut temu, Player120 napisał:
Akurat imo wygląda spoko, minus te LED'y. Zwarta konstrukcja bez zasłoniętego finstacka.
Ja myślałem że kiedyś odpłynąłem kupując laptopa za niecałe 15k z 6700K, 4K-Gsync AHVA i 980M SLI. A dzisiaj prawie tyle samo GPU kosztuje (+chore TBP), przy duuuużo gorszej koniunkturze i postępującym kryzysie energetycznym.
Ceny są totalnie dyskwalifikujące... TDP dyskwalifikujące... a 4080 w wersji kastrat to jakiś żart z kategorii "abominacja" lub "aberracja".
4080 12gb mógłby być 4070tką lub 4070Ti (powinien?).
Boję się myśleć jaki będzie de-facto najważniejszy 4060. Bo to te karty są kręgosłupem serii.
-
7600X - ok. 360-380€ w EU z VAT (w krajach ze stawką 19-23%)
Imo zakup totalnie bez sensu. 5600X w cenie 175-190€ co rusz się pojawia w jakimś sklepie. Perf per € totalnie niszczy jakikolwiek sens zakupu 7600X.
A dodajmy do tego bardzo drogie mobo oraz DDR5... sytuacja robi się jeszcze gorsza (na niekorzyść 7600X).
No i TDP... 7600X ma mieć 105W... co jest wg. mnie bardzo słabe.
Dodajmy do tego potencjalne choroby wieku dziecięcego oraz czekanie na update'y biosów, które je rozwiążą... imo nie warto się pchać na samym początku w 1st gen na nowy socket. Ani cenowo, rozsądkowo ani komfortowo.
- 2
-
No nie ma co się dziwić. Samo TDP dla Europy to kpina. W Azji nie lepiej...
Ja będę chyba udawał że seria 4000 nigdy nie istniała.
A ja kiedyś narzekałem na TDP swojego GTX 480... Mój 4870x2 stary chyba żarł jakoś 300W nawet... -
-
55 minut temu, Artok napisał:
Ciężko stwierdzić, bo ten nowy Warhammer wyjdzie dopiero za dwa miesiące. A MFS jest mocno zależny od procesora (no chyba, że akurat architektura Ady wyjątkowo mu pasuje).
Taki Total War Warhammer 3 bierze 14GB VRAM i wypluwa na ustawieniach high 4K (tekstury na max oraz Blood4theBloodGod wł.), a można iść na very high i niektóre ustawić jeszcze wyżej. Przy kartach typu 4080 imo 16GB VRAM to must have jeżeli ma starczyć komuś do 2024-2025 bezstresowo.
-
Mi nie raz po głowie chodziła koncepcja kompa w stylu Warhammera Fantasy lub 40K. Nawet z berserka mialem pomysł. Ale na to trzeba mieć kupę czasu i dostęp do drukarki żeby zrobić fajną folię do oklejania. I najlepiej drukarkę 3D żeby zrobić backplate odpowiedni albo nakładkę na backplate.
1 minutę temu, Lord_Krecitsqa napisał:Ja tylko czekam na używki 3080ti
Mam nadzieję że się pojawią.
Doubt, dostępność w EU będzie pewnie znikoma. Część ludzi się też nauczyła żeby nie sprzedawać GPU przed premierą.
- 1
- 1
-
10 godzin temu, EH_Gosu napisał:
Wracając do owego nowego DLSS 3.0 to nie ma co się wkurzać absolutnie jeśli to jest nowe rozwiązanie sprzętowe, zobaczymy.
Problem w tym że takie skakanie z rozwiązań, zanim w ogóle zostanie ono szeroko zaadoptowane zabija jakikolwiek rozwój tego. Nie potrzebujemy technologii na papierze (dla kilku gier, które można policzyć na jednej ręce). Potrzebujemy czegoś konsekwentnego i dostępnego powszechnie. Inaczej to tylko gimmick, za który płacimy premium €.
Teraz, MiK napisał:
FSR 1 można chyba wymusić w sterownikach.Bawiłem się tym appką Looseless scaling (czy jakoś tak, za grosze na steamie była). Dużo lepsze od NIS nvidii ale ciągle słabe na tle bezpośredniego konkurenta czyli DLSS.
Potrzebowałem FPS boosta przy 2160p na RTX 3060(M) w New World i HLL.
Potrzebujemy czegoś co każdy groch bez pojęcia będzie mógł włączyć jak byle v-sync. A do tego potrzebna jest solidna implementacja oraz trzymanie się tego. DLSS (1 & 2) zaczynało sobie radzić na tym polu i robiło to w na prawdę akceptowalny sposób. Wolę mniej FPS (porównując z DLSS3) a mieć dużo szerszą implementację oraz rozwiązanie, które nie zostanie olane po 2 latach.- 1
-
10 godzin temu, Rebelmind napisał:
#FcukJensen
#GlosujePortfelem
Ale spokojnie, monsieur skórzana kurtka i tak opchnie wszystko.
Ja jestem wściekły na ten krok wstecz w formie DLSS3. Na 2070S a tym bardziej 3060(M) DLSS ratował mi sytuację w Cyberpunku, Metro Exodus i Control. Teraz mam wrażenie że nie dość, że idzie to w złym kierunku to jeszcze wpłynie to na implementację i dostępność tej opcji w grach. Sam fakt, że DLSS i FSR wymaga implementacji po stronie developera gry jest słabe.
Z resztą i tak nie ma co gdybać, ceny i tak się unormują dopiero po wyjściu 4070 i 4060. Wtedy będzie można liczyć perf per € i perf per W.
DLSS3 - strzał w stopę w porównaniu z DLSS 2, które jest mega
MSRP - kiepski żart (szczególnie 4080 12GB z 192bit szyną)
TDP - największa kpina tej serii, inaczej chyba nie potrafili podnieść wydajności
Coolery - wielkie, ciężkie, drogie kloce lub głośne paździerze co jest implikacją TBP
Ale mam przeczucie że AMD nas nie zawiedzie. I też RDNA3 będzie słabe. Skoro już wiadomo że też podniosą TDP jak zieloni... Najlepsze generacje ostatnich lat to Turing i RDNA2 - change my mind (z Ampere za dużo smrodu było na początku i dodatkowo z ich dostępnością).
Okres na "przeczekanie" dla wielu osób wydłużył się o kolejne 2 lata... wątpię że za rok zobaczymy RTX 5000 i RDNA4.
A EVGI zielonym nie wybaczę. Skazali mnie na ASSusa lub MSI... a że staram się co 1-2 GPU przechodzić na drugą stronę mocy to next GPU musi być od zielonych.
2 godziny temu, Artok napisał:Obejrzałem wygląd kart większości producentów i podtrzymuję swoje zdanie co do Zotaków - są najśliczniejsze. Reszta modeli upodobniła się wyglądem do pustaków budowlanych.
Poza tym nie mogę się doczekać jak RTX 4070 będzie śmigał w 4K z szyną 160-bit.
W niektórych grach pewnie się tego nie odczuje. Ale są tytuły, gdzie będzie to mocno ścinać stabilność FPS. ja do 4K na pewno nie chciałbym 4080 192bit... do 1440p spoko, ale 2160p to już przesada...
-
1 minutę temu, EH_Gosu napisał:
No tak to trochę wygląda. Z innej strony jeśli te tytuły które obsługują DLSS z automatu pozwolą na DLSS 3.0 i to rozwiązanie będzie faktycznie ciekawie działać zarówno z perspektywy wydajności jak i jakości obrazu, to może być fajny smaczek. No ale to nadal smaczek, a nie jedna z rdzennych wartości GPU.
Obawiam się właśnie że tylko DLSS1 i DLSS2 będą "prawie" kompatybilne. DLSS3 nie będzie działał w grach z DLSS1 i DLSS2 ani vice wersa. Chodzi o implementację. Niewiele studiów może się połasić na równoległą implementację DLSS2 oraz DLSS3. Albo wybiorą DLSS2 dla dużej kompatybilności albo DLSS3 dla flexowania się.
O ile do tej pory bez wątpienia stwierdzałem że DLSS > FSR to teraz mam poważne wątpliwości (DLSS 3 może to storpedować jak długie lance w stary pancernik).- 1
-
DLSS 3 to według mnie jawne stwierdzenie "nasi klienci to debile". Jak zwykle robią exclusiva żeby w sztuczny sposób napędzić sprzedaż. Nie mają za wiele do zaoferowania jakościowo to będą wymuszać (nieobsługiwane przez większość tytułów) gimmicki.
- 1
-
5 godzin temu, Rebelmind napisał:
Co gdzie co jak bo ostatnio mało zaglądam i nie nadrabiam tematów, gniję aktualnie w wyrku z gipsem :< nadrabiam zaległości w swoich Koreańskich serialach na netflixie.
Atm śmieję się z RTXów 4000 i ledwo oddycham. Nie mogę złapać oddechu patrząc na speckę i MSRP 4080 12GB.
TDP i w RDNA3 i RTX 4000 będzie conajmniej słabe. Ja czekam na RDNA4/RTX 5000. :<
Nawet Stalkera mi opóźnili więc RX 6800 ciągnie mi atm. wsio na 4K(TW:WH3, Hell Let Loose i parę lżejszych tytułów).
-
35 minut temu, Artok napisał:
Tak jak napisałem. Nikt się w Polsce nie zabija o EVGĘ czy Zotaca, furorę robią trzy marki - ASUS, MSI albo Gigabyte.
Ależ w Polsce również są dostępne. Nie trzeba importować z Germanii.
No nie wiem... nigdy nie udało mi się kupić FTW3 w pre-orderze czy po premierze w PL. A np. gdy 2070S FTW3 pojawił się w pl na morelowych włościach to miałem już kartę od prawie roku. Nawet laptopa kupiłem w czerwcu 2021, w PL pojawł się w pre-orderze w grudniu z dostępnością styczęń 2022... taki jest Polski rynek. Jest "odpadem" i "trzecim sortem". A obok mamy DE czy FR gdzie wysyłka idzie raptem 2-3 dni (zależnie czy DE czy FR) z tą samą gwarancją i często niższymi cenami...
Zotac raczej nie należy do wybitnych vendorów, ani produktem a tym bardziej gwarancją i jej realizacją. W PL furorę robią te marki bo są tańsze i nasza dystrybucja je pushuje - nie dla tego że są dobre. Bo się sprzedają to nie znaczy że są dobre a tym bardziej że ja mam je kupować. Jak wszyscy będą jeść kupę, to ja też mam ją zjeść? Nie. -
55 minut temu, Artok napisał:
Niech im ziemia lekką będzie. EVGI 3000 to nie były szczególne rarytasy, więc w Polsce ich braku nie odczujemy.
FTW? Nadal były nieporównywalnie lepsze niż jakikolwiek MSI czy Gigabyte. W DE czy innym cywilizowanym kraju bez problemu można je było kupić. Co za problem zamówić kartę z DE do PL? Wysyłka 10-13 € aż taka droga? Skoro paczka z Dortmundu czy Stuttgartu idzie do Lublina 2 dni to raczej nie czeka się zbyt długo (dwa skrajne końce obu krajów...).
1 minutę temu, r1023 napisał:Może Msi w tej serii da coś fajnego, jak nie to myślę że jakiś TuF mógłby wjechać.
MSI coraz bardziej kastruje Trio co widać często po TDP (bios lock). Ja tylko przypomnę ich super porażkę w formie 2070S Trio z TDP z max 240W. Gdzie FTW3 i Strix ciskały po 300-310W wgniatając ją w ziemię przy tych samych cenach w sklepie oferując też 4pin PWM (u mnie dolne wentyle w obudowie 140mm były dzięki temu sterowane przez GPU, nie CPU).
Wolałbym TUF'a niż Trio. I mnie to boli bo kiedyś kupowałem głównie MSI i ich TwinFrozry. I też co z tego że ASUS STRIX jest super skoro ich obsługa klienta & RMA ssie. EVGA miała to wszystko. Ba, mogliby podnieść ceny i tak wolałbym dopłacić do EVGI.
- 1
-
Testowa partia nie trafi na rynek. Oficjalnie. Wsio poniżej...
https://videocardz.com/newz/evga-ceases-video-card-production-no-more-evga-geforce-gpus
-
-
Ja czekam na testy i info o perf per watt. A potem na konsekwencje wykastrowanych szyn w 2160p oraz hr wide aspect ratio (nie pamiętam nigdy dokładnej rozdziałki...)
A mydelniczka fajna, lubię jachty (szczególnie explorery 70-85ft) więc w sam raz.
-
Promka dla benczmarkowiczów: 3950 (+KW oraz ew. prowizja allegro).
Mogę dorzucić podkładkę chłodzącą gratis.
-
Będę miał srogą bekę jeżeli mój RX 6800 przy 170-180W wytrze podłogę "nowszym i ""młodszym""" Intelem z 225W przy takiej samej ilości VRAM.
-
Zaporowe ceny, to jak wypada perf per € platformy (CPU+MOBO+RAM), dwa razy gorzej względem Zen3? Trzy razy gorzej?
Za 400€ dorwałem 5600X + B550 Aorus Elite V2 Wifi AX + 32GB 3600MHz. A tutaj nawet nie będzie CPU+MOBO i do tego zaporowe ceny RAM'u. Dojdzie kwestia dostępności i bugów/problemów technicznych. A jak jeszcze kupi ktos ASS'USa to poczeka na bios z rok.
Wątpię że w sklepie zobaczymy 7600X za 300€. Raczej 330€=360€ jak zawsze. Mobo? Rozsądna B650 pewnie 200-270€, X'y pomijam bo to będzie czysta abstrakcja.
Edit: iGPU faktycznie wypada dobrze. Imo best feature Zen4 atm. Jeszcze podłączyć Radeona ale przez iGPU i mamy bardzo oszczędny setup do pracy biurowej + grania (freesync dalej będzie działał przy tym setupie).
-
Jego mózg jest broken, skisłem
-
Prajs drop do 4100 cebulek indeksowanych programem 500+
-
22 minuty temu, wrobel_krk napisał:
No GF66 to inna połka cenowa, za 3000 nie ma za bardzo nic lepszego:)
O GF66 nawet nie mówię Za 3 tysiące imo nie ma nic co byłoby znośne. Nie przy tych cenach elektroniki, inflacji itp od kilku lat.
- 1
Temat o kartach graficznych AMD Big Navi / Navi 2 / RDNA2
w Karty graficzne
Napisano
Też wpierw rozważałem 6750XT. Ale... pobiera tyle samo (jak nie więcej po uV w obu przypadkach case2case) prądu co większy brat, mając mniej VRAM oraz węższą szynę i mniej cache (to plus szersza szyna daje więcej soczku z resizable bar). A cena 6800 nie jest specjalnie dużo wyższa od 6750.
6800 non-XT to najlepsza karta perf per W. I patrząc na newsy RDNA3 raczej AMD nie będzie łatwo stworzyć drugiej takiej karty. 6800 to taki chyba przypadkowy wypadek przy pracy.