Skocz do zawartości

Ada Lovelace - wątek o kartach RTX 4000


Recommended Posts

2 minuty temu, r1023 napisał:

3080 nie była nigdy kartą do 4k, ludzie lubią fantazjować ale realia są jakie są - pierwszą kartą do 4k z bólem jest 3090, chyba że ktoś lubi 60Hz i low fps to wtedy jest ok

To jest aktualne od chwili wprowadzenia Ray Tracingu. Wcześniej można było już grać w 4K np. na takim GTX 1080 Ti... RTX 3080 też do 4K się nadaje jeżeli będziemy udawać że RT nie istnieje :P Od biedy jest jeszcze DLSS, ale to już bardzo filozoficzne zagadnienie czy 4K z DLSS to nadal 4K (dla mnie w ustawieniach Quality jak najbardziej tak jest, ale są już gry w których 3080 10 GB nawet w 5120x1440p, czyli poniżej 4K, nie dawał rady nawet z takim DLSS przez spadki w low 1% FPS).

 

34 minuty temu, zbiku90 napisał:

Pokaż mi ją bo coś chyba przegapiłem.

Pewnie chodzi o wersje mobilną ;)

Link to post
Share on other sites
21 minut temu, wojciech spychała napisał:

To jest aktualne od chwili wprowadzenia Ray Tracingu. Wcześniej można było już grać w 4K np. na takim GTX 1080 Ti...

Miałem 2 miesiące GTX 1080ti i monitor 4K - w życiu bym tej karty nie uznał jako odpowiedniej do 4K nawet z ówczesnymi grami. Wszędzie trzeba było detale ciąć, efekty wyłączać żeby utrzymać 60FPS ai tak karta kaszlała i protestowała. Przesiadka na Turinga 2080ti tez niewiele pomogła. Później już zmieniłem monitor na ultrawide 1440p i dopiero tam na Turingu grało się komfortowo. 

 

 

 

 

  • Popieram 1
Link to post
Share on other sites
2 minuty temu, joker5513 napisał:

Miałem 2 miesiące GTX 1080ti i monitor 4K - w życiu bym tej karty nie uznał jako odpowiedniej do 4K nawet z ówczesnymi grami. Wszędzie trzeba było detale ciąć, efekty wyłączać żeby utrzymać 60FPS ai tak karta kaszlała i protestowała. Przesiadka na Turinga 2080ti tez niewiele pomogła. Później już zmieniłem monitor na ultrawide 1440p i dopiero tam na Turingu grało się komfortowo. 

 

 

 

 

Niby tak ale jak się wiedziało co ciąć bez  dużej straty w jakości obrazu to całkiem fajnie się na niej grało.

Link to post
Share on other sites
Godzinę temu, wojciech spychała napisał:

To jest aktualne od chwili wprowadzenia Ray Tracingu. Wcześniej można było już grać w 4K np. na takim GTX 1080 Ti... RTX 3080 też do 4K się nadaje jeżeli będziemy udawać że RT nie istnieje :P Od biedy jest jeszcze DLSS, ale to już bardzo filozoficzne zagadnienie czy 4K z DLSS to nadal 4K (dla mnie w ustawieniach Quality jak najbardziej tak jest, ale są już gry w których 3080 10 GB nawet w 5120x1440p, czyli poniżej 4K, nie dawał rady nawet z takim DLSS przez spadki w low 1% FPS).

 

Pewnie chodzi o wersje mobilną ;)

 

nie no co Ty, do grania w 4k 1080ti, no chyba ze jakies mało wymagające tytuły? Do grania w 4k z RT to chyba teraz tylko 4090 i to jeżeli używa dopalaczy.

Link to post
Share on other sites
5 minut temu, r1023 napisał:

 

nie no co Ty, do grania w 4k 1080ti, no chyba ze jakies mało wymagające tytuły? Do grania w 4k z RT to chyba teraz tylko 4090 i to jeżeli używa dopalaczy.

Mam na myśli granie w czasach gdy ta karta miała premierę, czyli w 2017 roku. Gry jak BF1, GoW4 dawały radę w 4K na wysokich ustawieniach. Choć oczywiście jak w każdej epoce trafiały się gry które nawet te topowe karty zaginały i trzeba było grać przy 40-60 FPS, co jest już jakimś kompromisem (ale wtedy jeszcze modne było łączenie kart). 

 

RTX 4090 o dziwo w żadnej grze nie ma takiego problemu (jeżeli uznamy, że 4K+DLSS Q >> 4K+TAA). 

Link to post
Share on other sites
12 minut temu, wojciech spychała napisał:

RTX 4090 o dziwo w żadnej grze nie ma takiego problemu (jeżeli uznamy, że 4K+DLSS Q >> 4K+TAA). 

 

Jeżeli za samochód uznamy pojazd posiadający koła w którym nie pada deszcz na głowę, to taki twór też jest samochodem:
Elektryczny rower na dachu z siedzeniem pasażerskim, 800 W ...

 

Przez jakiś czas modne były telefony z aparatami np: 10 MPx "Interpolowane". Można się domyśleć, że "rozciągnięcie" obrazu do 10 MPx niewiele ma wspólnego z prawdziwym 10 Mpx. 

Link to post
Share on other sites
21 minut temu, wojciech spychała napisał:

Mam na myśli granie w czasach gdy ta karta miała premierę, czyli w 2017 roku. Gry jak BF1, GoW4 dawały radę w 4K na wysokich ustawieniach. Choć oczywiście jak w każdej epoce trafiały się gry które nawet te topowe karty zaginały i trzeba było grać przy 40-60 FPS, co jest już jakimś kompromisem (ale wtedy jeszcze modne było łączenie kart). 

 

 

w tamtych czasach 4k to był przerost formy nad treścią, karty były raczej pod 2k.

 

22 minuty temu, wojciech spychała napisał:

RTX 4090 o dziwo w żadnej grze nie ma takiego problemu (jeżeli uznamy, że 4K+DLSS Q >> 4K+TAA). 

 

dlatego uważam ze to pierwsza karta do 4k z prawdziwego zdarzenia

 

  • Popieram 1
Link to post
Share on other sites

@wojciech spychała

Jak na dziennikarza to bardzo często używasz twardych twierdzeń.

 

Mówimy o pomiarze np średniego błędu kwadratowego?  "Na oko wydaje mi się" albo "Tego zdedydowanie nie trawię" - nie jest obiektywną miarą. Tym bardziej, że DLSS wygląda dobrze dla statycznych obrazów w ruchu sprawa już wygląda zupełnie inaczej. W takim np cp 77 ghosting przy reflektorach w aucie jest bardzo widoczny. Czy to jest obiektywnie lepsze od obrazu natywnego? Raz wygląda to lepiej, raz gorzej, DLSS (żaden) jednak nie jest techniką poprawiania jakości obrazu. 

Link to post
Share on other sites
23 minuty temu, Adames napisał:

 

Jeżeli za samochód uznamy pojazd posiadający koła w którym nie pada deszcz na głowę, to taki twór też jest samochodem:
Elektryczny rower na dachu z siedzeniem pasażerskim, 800 W ...

 

Przez jakiś czas modne były telefony z aparatami np: 10 MPx "Interpolowane". Można się domyśleć, że "rozciągnięcie" obrazu do 10 MPx niewiele ma wspólnego z prawdziwym 10 Mpx. 

Co to w ogóle za porównanie? Akurat prawdą jest, że kilka lat temu inaczej się spoglądało na wymagania. To tak samo jak było z ilością klatek na sekundę. Jeszcze nie dawno każdy konsolowiec, jak i recenzenci zarzekali się, że 30 fps jest wystarczające do gry. Na PC nie przekraczało się 60 fps, a dzisiaj jest co? Każdy kupując monitor celuje w minimum 90, 120, 144 hz, a najlepiej to już 240 hz no i oczywiście żeby jeszcze maszyna tyle generowała. Pewne rzeczy się zmieniają po prostu. Więc wracając do wątku, ja w 2017 roku kupowałem telewizor klasy premium do 4K, by go podłączyć pod PC. Oczywiście założonym niebem było to, by odpalić taki zestaw w 60Hz, bo nawet porty HDMI w telewizorach jeszcze nie obsługiwały wyższych częstotliwości. Tak samo było z kartą graficzną. Taki GTX 1080 Ti, to był celowo kupowany by spróbować grać w 4K, a nie kisić się w 1080p. Świat idzie do przodu, nasze wymagania również, ale nie udawajmy, że czegoś nie było.

Edytowane przez bankaigoku
Link to post
Share on other sites
2 minuty temu, Adames napisał:

Jak na dziennikarza to bardzo często używasz twardych twierdzeń.

 

Borze człowieku do wszystkiego i każdego musisz się przypie.....ć? Kolejna dyskusja dotycząca 1 % low? Jak inaczej niż "na oko" wyobrażasz sobie sprawdzanie działania DlSS?? Porównywanie z lupą screenschotów? 

 

Ja tam aż takim szczególarzem nie jestem i dla mnie DLSS obecnie wygląda spoko. Lepszy lekki ghosting w reflektorach niż fps ucięty o 75%. Początki na Turingach były koślawe, wiadomo, teraz już jest o wiele lepiej. 

 

5 minut temu, Adames napisał:

Mówimy o pomiarze np średniego błędu kwadratowego?

:facepalm:

  • Lubię to 1
Link to post
Share on other sites
5 minut temu, Adames napisał:

@wojciech spychała

Jak na dziennikarza to bardzo często używasz twardych twierdzeń.

 

Mówimy o pomiarze np średniego błędu kwadratowego?  "Na oko wydaje mi się" albo "Tego zdedydowanie nie trawię" - nie jest obiektywną miarą. Tym bardziej, że DLSS wygląda dobrze dla statycznych obrazów w ruchu sprawa już wygląda zupełnie inaczej. W takim np cp 77 ghosting przy reflektorach w aucie jest bardzo widoczny. Czy to jest obiektywnie lepsze od obrazu natywnego? Raz wygląda to lepiej, raz gorzej, DLSS (żaden) jednak nie jest techniką poprawiania jakości obrazu. 

Na forum wypowiadam się tylko w swoim imieniu i przedstawiając moją opinię (co jest domyślnym działaniem każdego forum i przecież nie będę przed każdym zdaniem dodawać "IMO"). 

Działanie DLSS porównuje głownie w ruchu, dlatego uważam te technikę za znacznie przewyższającą FSR (2.0 i wyżej). Ghosting masz również na zwyczajnym TAA, zatem możesz albo skorzystać z MSAA aby jeszcze bardziej obniżyć wydajność albo grać w natywnym 4K godząc się na poszarpane krawędzie i migające obiekty o szerokości 1-2 pikseli. Owszem - 4K + MSAAx4 jest znacznie lepsze od 4K + DLSS Q. Ale jest też nieporównywalnie bardziej wymagające. A skoro i tak trzeba się uciekać do wygładzania krawędzi to lepiej aby realizował to DLSS który przy okazji zwiększy wydajność (i często też lepiej radzi sobie z tymi bardzo cienkimi obiektami od bezmyślnego w działaniu TAA).  
 

Tym razem podkreślając - moim zdaniem DLSS w trybie Quality dla 4K oferuje obraz wyższej jakości od 4K potraktowanego zwykłym TAA. A zdanie to wyrobiłem sobie na podstawie pewnie już kilkuset godzin testów różnych gier w różnych ustawieniach funkcji tego typu. 

  • Lubię to 1
Link to post
Share on other sites

DLSS to fajna technika przedłużająca potencjalnie możliwość wykorzystania karty ale nie zastępuje wydajności i nie jest techniką poprawy jakości obrazu. RTX Ada też jest fajnym układem, bo w ai (a mam pierwsze testy) wydajność skaluje się świetnie, ale nie przypisujmy do tego czarów. W pewnych kwestiach AMD nie jest konkurencją dla NVidii i zieloni czerpią z tego całymi garściami. 

 

11 minut temu, joker5513 napisał:

Borze człowieku do wszystkiego i każdego musisz się przypie.....ć?

Żyjemy w świecie gdzie płaskości ziemi dowodzi się poprzez użycie poziomicy. Gdzie magiczne czaszki z Peru leczą wszystkie choroby.

Potem słucham radia i słyszę: "Średnie miesięczne zapotrzebowanie na prąd to 130 kilowat", a "ekspert" milczy. 

 

Może zejdziemy zatem na ziemię. 

 

 

  • Lubię to 2
Link to post
Share on other sites
16 minut temu, Adames napisał:

DLSS to fajna technika przedłużająca potencjalnie możliwość wykorzystania karty ale nie zastępuje wydajności i nie jest techniką poprawy jakości obrazu. RTX Ada też jest fajnym układem, bo w ai (a mam pierwsze testy) wydajność skaluje się świetnie, ale nie przypisujmy do tego czarów. W pewnych kwestiach AMD nie jest konkurencją dla NVidii i zieloni czerpią z tego całymi garściami. 

 

Żyjemy w świecie gdzie płaskości ziemi dowodzi się poprzez użycie poziomicy. Gdzie magiczne czaszki z Peru leczą wszystkie choroby.

Potem słucham radia i słyszę: "Średnie miesięczne zapotrzebowanie na prąd to 130 kilowat", a "ekspert" milczy. 

 

Może zejdziemy zatem na ziemię. 

 

 


No ale chodzi o kw zamiast kwh? Bo ilość się zgadza dla gospodarstwa 2-4 osobowego, podejrzewam. 1 osobowe to 90-115.

Link to post
Share on other sites
18 minut temu, wojciech spychała napisał:

Ghosting masz również na zwyczajnym TAA, zatem możesz albo skorzystać z MSAA aby jeszcze bardziej obniżyć wydajność albo grać w natywnym 4K godząc się na poszarpane krawędzie i migające obiekty o szerokości 1-2 pikseli

Pisząc natywne 4k nikt chyba nie ma na myśli braku AA, mamy 2023 rok ;) DLAA wygląda bardzo ciekawie, nie rozmydla obrazu, wygląda dobrze w ruchu, szkoda tylko że jest tak pomału wdrażane. To może być prawdziwy game-changer dla RTXów IMO.

40 minut temu, bankaigoku napisał:

Na PC nie przekraczało się 60 fps, a dzisiaj jest co? Każdy kupując monitor celuje w minimum 90, 120, 144 hz, a najlepiej to już 240 hz no i oczywiście żeby jeszcze maszyna tyle generowała

Mam monitor 144hz i w single playerach dążę do jak najlepszego obrazu przy ograniczeniu do 60fps (jak najlepsze AA, DSR, mody, Reshade itp.). Z wyższych fps korzystam tylko przy graniu online gdzie daje to jakąś wymierną przewagę.

Link to post
Share on other sites
Godzinę temu, bankaigoku napisał:

Co to w ogóle za porównanie? Akurat prawdą jest, że kilka lat temu inaczej się spoglądało na wymagania. To tak samo jak było z ilością klatek na sekundę. Jeszcze nie dawno każdy konsolowiec, jak i recenzenci zarzekali się, że 30 fps jest wystarczające do gry. Na PC nie przekraczało się 60 fps, a dzisiaj jest co? Każdy kupując monitor celuje w minimum 90, 120, 144 hz, a najlepiej to już 240 hz no i oczywiście żeby jeszcze maszyna tyle generowała. Pewne rzeczy się zmieniają po prostu. Więc wracając do wątku, ja w 2017 roku kupowałem telewizor klasy premium do 4K, by go podłączyć pod PC. Oczywiście założonym niebem było to, by odpalić taki zestaw w 60Hz, bo nawet porty HDMI w telewizorach jeszcze nie obsługiwały wyższych częstotliwości. Tak samo było z kartą graficzną. Taki GTX 1080 Ti, to był celowo kupowany by spróbować grać w 4K, a nie kisić się w 1080p. Świat idzie do przodu, nasze wymagania również, ale nie udawajmy, że czegoś nie było.

 

Mam monitor 2k 165Hz od nie pamiętam kiedy ale miał wtedy premierę :), nie wyobrażam sobie grać ani pracować w 60Hz. Dlatego jak myślę o grywalnym 4k to chodzi mi o przynajmniej te 100-120fps / 144Hz. I proszę nie porównuj konsolowców i 30Hz oni  nawet jakby im oczy wypływały na podłogę to by zachwalili to co mają, no i nie słuchaj recenzentów tylko sam sprawdź co Tobie odpowiada. W czasach kiedy pojawiają się fajne monitory w 2k 360hz po co grać w 60Hz.

 

Edytowane przez r1023
Link to post
Share on other sites
8 minut temu, mirai99 napisał:

No ale chodzi o kw zamiast kwh? Bo ilość się zgadza dla gospodarstwa 2-4 osobowego, podejrzewam. 1 osobowe to 90-115.

Pan 3x powróżył, że to "kilowat".  Zapewne chodziło o kilowatogodzinę, ale ta "drobna różnica" potem wiele znaczy kiedy przez to starsza osoba boi się włączyć czajnik elektryczny, bo ten ma 2 kW, więc jak zrobi 3 herbatki dziennie, to w miesiącu jej zje 180 kilowat prądu! Takie prawdziwe problemy już potem z tego wynikają. Anegdotka autentyczna. 

 

Godzinę temu, bankaigoku napisał:

Na PC nie przekraczało się 60 fps, a dzisiaj jest co? Każdy kupując monitor celuje w minimum 90, 120, 144 hz, a najlepiej to już 240 hz no i oczywiście żeby jeszcze maszyna tyle generowała.

Co do FPS, to ja celuję zwykle w 80+, wtedy gra dla mnie działa "odpowiednio". Przy większości gier jednak jak maszyna ma te średnio 60 FPS, to odczucie mam takie jakby coś było "nie tak". Przy czym dużo bardziej wrażliwy jestem na drobne artefakty w ruchu, migoczące detale, dziwne artefakty wokół postaci (jak np było to w marvels avengers) lub ghosting. 

 

Godzinę temu, bankaigoku napisał:

Co to w ogóle za porównanie? Akurat prawdą jest, że kilka lat temu inaczej się spoglądało na wymagania. To tak samo jak było z ilością klatek na sekundę. Jeszcze nie dawno każdy konsolowiec, jak i recenzenci zarzekali się, że 30 fps jest wystarczające do gry.

Dawno dawno temu tak było, że grało się na tym co było, w to co było. Słynne "Ludzkie oko nie widzi więcej jak 25 FPS" :)  Niemniej nawet w czasach monitorów CRT, Geforce 4 i Quake 3, już wtedy w shooterach celowało się w dużo FPS. Flatron 17" o odświeżaniu 75 Hz - jakość i płynność obrazu niedostępna dla konsolowców przez długie lata :) 

Link to post
Share on other sites
9 godzin temu, r1023 napisał:

Mam monitor 2k 165Hz od nie pamiętam kiedy ale miał wtedy premierę :), nie wyobrażam sobie grać ani pracować w 60Hz. Dlatego jak myślę o grywalnym 4k to chodzi mi o przynajmniej te 100-120fps / 144Hz. I proszę nie porównuj konsolowców i 30Hz oni  nawet jakby im oczy wypływały na podłogę to by zachwalili to co mają, no i nie słuchaj recenzentów tylko sam sprawdź co Tobie odpowiada. W czasach kiedy pojawiają się fajne monitory w 2k 360hz po co grać w 60Hz.

Przeczytaj ze zrozumieniem, co napisałem. Pisałem o sytuacji kilka lat temu. Osobiście mi 60 fps starcza, ale też chciałbym mieć zazwyczaj około o 25 fps więcej, czyli coś około idealnych 100 fps. Lecz kiedyś granicę 30 fps uznawałem jako ostateczność, by coś przejść, choć ciężko było mi to przetrawić. Dzisiaj nawet nie podchodzę do czegoś, co by zahaczało o taką średnią ilość klatek. Wszystko przez coraz większą częstotliwość odświeżania we wszystkich wyświetlaczach, co skutkuje tym, że nasze oko zauważa różnicę i wytycza nowy standard. Takie życie.

Link to post
Share on other sites
6 godzin temu, bankaigoku napisał:

Przeczytaj ze zrozumieniem, co napisałem. Pisałem o sytuacji kilka lat temu. Osobiście mi 60 fps starcza, ale też chciałbym mieć zazwyczaj około o 25 fps więcej, czyli coś około idealnych 100 fps. Lecz kiedyś granicę 30 fps uznawałem jako ostateczność, by coś przejść, choć ciężko było mi to przetrawić. Dzisiaj nawet nie podchodzę do czegoś, co by zahaczało o taką średnią ilość klatek. Wszystko przez coraz większą częstotliwość odświeżania we wszystkich wyświetlaczach, co skutkuje tym, że nasze oko zauważa różnicę i wytycza nowy standard. Takie życie.

 

Zrób dokładnie to samo ;) , napisałem ze kilka lat temu miałem szybszą matryce więc to  że kilka lat temu wszystkim wystarczało 30-60 jest nieprawdą. Kup sobie kartę zmień monitor na coś z lepszego (chyba ze masz fajny i nie wykorzystujesz jego potencjału) i zobaczysz nie wrócisz do tego co było.

 

Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...