r1023 873 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 Godzinę temu, bankaigoku napisał: Tylko, że 4080 kosztuje na dzień dzisiejszy 6800 zł, czyli o 2300 zł więcej niż mogę kupić jedną z tych kart. To ogromny koszt za taki nikły wzrost wydajności. 4070ti to nie jest karta do 4k 2 Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 9 minut temu, r1023 napisał: 4070ti to nie jest karta do 4k 4070ti to ZDECYDOWANIE nie jest karta do 4k, no chyba że mówimy o graniu z niższym klatkażem lub w niższych presetsach graficznych. Nikt nie oczekuje, że karta z segmenty X70 będzie ogarniała high-end, ale cena może takie coś sugerować. 1 1 Cytuj Link to post Share on other sites
bankaigoku 5 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 5 minut temu, r1023 napisał: 4070ti to nie jest karta do 4k Tylko że ja obecnie mam AORUS GTX 1080 Ti Xtreme Edition 11GB i bez problemu odpalam wszystkie gry w 4K. Więc skoro cztery generacje dalszy 4070 Ti lub RX 7900 XT, który kosztuje 5 tysięcy złotych, ma nie być do 4K, to niby do czego? Wszystkie karty w tych widełkach celują w tę rozdzielczość, a to jak sobie radzą w poszczególnych przypadkach, to tylko kwestia zaangażowania producenta. PS: Zresztą, przecież już widać po nadmiarze klatek w RTX 4090, że to już jest mała przymiarka do jeszcze wyższych rozdzielczości. Kwestia tylko tego, jak szybko nasyci się rynek nowymi wyświetlaczami 8K. Cytuj Link to post Share on other sites
r1023 873 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 2 minuty temu, Rebelmind napisał: 4070ti to ZDECYDOWANIE nie jest karta do 4k, no chyba że mówimy o graniu z niższym klatkażem lub w niższych presetsach graficznych. Nikt nie oczekuje, że karta z segmenty X70 będzie ogarniała high-end, ale cena może takie coś sugerować. Tylko że kolega chce to kupić do 4k, karta z taką pamięcią vram bez magii input lag generatora będzie wolniejsza od 3090ti. Dopóki nie dopracują DLSS3 raczej unikałbym połączenia 4k i 4070ti 2 Cytuj Link to post Share on other sites
willis81 42 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 Godzinę temu, bankaigoku napisał: Tylko, że 4080 kosztuje na dzień dzisiejszy 6800 zł, czyli o 2300 zł więcej niż mogę kupić jedną z tych kart. To ogromny koszt za taki nikły wzrost wydajności. To rozważ zakup 3090 od evga albo strix. Do 4k będzie znacznie lepszym wyborem niż 4070 ti 2 Cytuj Link to post Share on other sites
r1023 873 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 (edytowane) 5 minut temu, bankaigoku napisał: Tylko że ja obecnie mam AORUS GTX 1080 Ti Xtreme Edition 11GB i bez problemu odpalam wszystkie gry w 4K. Więc skoro cztery generacje dalszy 4070 Ti lub RX 7900 XT, który kosztuje 5 tysięcy złotych, ma nie być do 4K, to niby do czego? Wszystkie karty w tych widełkach celują w tę rozdzielczość, a to jak sobie radzą w poszczególnych przypadkach, to tylko kwestia zaangażowania producenta. PS: Zresztą, przecież już widać po nadmiarze klatek w RTX 4090, że to już jest mała przymiarka do jeszcze wyższych rozdzielczości. Kwestia tylko tego, jak szybko nasyci się rynek nowymi wyświetlaczami 8K. nawet sam producent pozycjonuje to jako kartę do 1440p. Nie wiem co rozumiesz przez nadmiar klatek na 4090 ? monitor 144hz trzeba czyms nakarmic nawet w 4k, jeszcze nie ma kart do 8k, to ze ktoś sobie wrzuci na slajdzie 8k nie znaczy że to cos się do tego nadaje ( to tylko marketing ). Chyba że zadowalają Cie okolice 60fps i cięcie detalu to ok. Edytowane 8 Stycznia 2023 przez r1023 1 Cytuj Link to post Share on other sites
bankaigoku 5 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 (edytowane) 9 minut temu, willis81 napisał: To rozważ zakup 3090 od evga albo strix. Do 4k będzie znacznie lepszym wyborem niż 4070 ti Przecież to karta z ceną RTX 4080, wydatek na zupełnie innym poziomie. Cytat nawet sam producent pozycjonuje to jako kartę do 1440p. Nie wiem co rozumiesz przez nadmiar klatek na 4090 ? monitor 144hz trzeba czyms nakarmic nawet w 4k, jeszcze nie ma kart do 8k, to ze ktoś sobie wrzuci na slajdzie 8k nie znaczy że to cos się do tego nadaj. Chyba że zadowalają Cie okolice 60fps i cięcie detalu to ok. 60fps to dla mnie raj, więcej mi nie trzeba. Kiedyś się grało w 30fps i ludzie byli zadowoleni. Z jednej strony 4070 Ti: + ma mocny DLSS 3.0. + uśredniając ma lepsze wsparcie sterowników. - ma DisplayPort w wersji 1.4. - jej szyna jest tak zawężona, że w przyszłości ta karta to już nie przyśpieszy, choćby stawali na... wiadomo czym. Z drugiej strony w RX 7900 XT: + parametry VRAM i szyny dają jeszcze dużo pola do popisu. + ma DisplayPort w wersji 2.0. + sumarycznie bez upłynniaczy potrafi być szybsza nawet o 15/20 FPS od 4070 Ti. - ciągnie lekko więcej prądu od konkurenta, ale i tak mniej niż 4080. - w tych wybranych poszczególnych tytułach z włączonym RT jest o wiele słabsza od kart od NVIDIA. - FSR 2.0 nadal raczkuje, lecz... + w tym półroczu ma zostać wydane FSR 3.0, które rzekomo nawet ma być lepsze od DLSS 3.0. Ciężki wybór, zastanawiam się już długo. Natomiast RT mnie zupełnie nie interesuje, wręcz nawet nie lubię wizualnie tej techniki. Boję się trochę o sterowniki w AMD. Kiedyś jak miałem Radeona 7870 to tyle się z tym musiałem męczyć, że do dnia dzisiejszego mam skazę. Ale może coś się zmieniło i jest po ludzku, różne opinie czytam. Na razie bliżej mi 7900 XT, choć na początku napaliłem się na ten 4070 Ti niesamowicie, ale chyba rzeczywiście ten RTX do 4K to jest ślepa uliczka bez możliwości dalszego rozwoju. Edytowane 8 Stycznia 2023 przez bankaigoku Cytuj Link to post Share on other sites
r1023 873 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 9 minut temu, bankaigoku napisał: Przecież to karta z ceną 4080, wydatek na zupełnie innym poziomie. Ciężki wybór, zastanawiam się już długo. Natomiast RT mnie zupełnie nie interesuje, wręcz nawet nie lubię wizualnie tej techniki. Z jednej strony 4070 Ti: + ma mocny DLSS 3.0. + uśredniając ma lepsze wsparcie sterowników. - ma DisplayPort w wersji 1.4. - jej szyna jest tak zawężona, że w przyszłości ta karta to już nie przyśpieszy, choćby stawali na... wiadomo czym. Z drugiej strony w RX 7900 XT: + parametry VRAM i szyny dają jeszcze dużo pola do popisu. + ma DisplayPort w wersji 2.0. + sumarycznie bez upłynniaczy potrafi być szybsza nawet o 15/20 FPS od 4070 Ti. - ciągnie lekko więcej prądu od konkurenta, ale i tak mniej niż 4080. - w tych wybranych poszczególnych tytułach z włączonym RT jest o wiele słabsza od kart od NVIDIA. - FSR 2.0 nadal raczkuje, lecz... + w tym półroczu ma zostać wydane FSR 3.0, które rzekomo nawet ma być lepsze od DLSS 3.0. Boję się trochę o sterowniki w AMD. Kiedyś jak miałem Radeona 7870 to tyle się z tym musiałem męczyć, że do dnia dzisiejszego mam skazę. Ale może coś się zmieniło i jest po ludzku, różne opinie czytam. Na razie bliżej mi 7900 XT, choć na początku napaliłem się na ten 4070 Ti niesamowicie, ale chyba rzeczywiście do 4K to jest ślepa uliczka bez rozwoju. DLSS 3 to bajerek, zanim się porządnie rozpowszechni będzie już pewnie kolejna generacja kart, druga sprawa to ze na 4090 daje to fajny przyrost nie znaczy ze na 4070ti będzie to równie fajne, z pustego to i salomon nie naleje - jezeli karta wygeneruje 20-30 natywnie i to zostanie pomnożone nawet x3 przez FG to nie będzie to taka sama jakosc jak na 4090 zrobienie 250 fps z 120fps . To tak samo jak wchodziło RT i ludzie naoglądali sie propagandy NV która jest przygotowywana na najmocniejszej wersji i liczyli na to samo na 2070 czy później na 3060. 1 1 Cytuj Link to post Share on other sites
Adames 468 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 45 minut temu, bankaigoku napisał: + ma mocny DLSS 3.0. DLSS 3.0 jest podle upośledzoną technologią, która ma zastosowanie wyłącznie tam gdzie jest zbędna. Jeżeli twoja karta generuje natywnie 30 FPS, to po aktywowaniu DLSS 3.0 będzie 60 FPS + lag równy temu przy 15 FPS. NVidia reflex działa także bez DLSS, więc porównywanie gołej gry do gry z REFLEX + DLSS 3.0 jest upośledzone. Ciekawi mnie czy AMD z nowym FSR 3.0 nie będzie próbował jednak wykonać predykcji zamiast upośledzonej interpolacji, wtedy technika AMD całkowicie zmiotłaby zielonych w tym polu. 50 minut temu, bankaigoku napisał: - ma DisplayPort w wersji 1.4. - jej szyna jest tak zawężona, że w przyszłości ta karta to już nie przyśpieszy, choćby stawali na... wiadomo czym. Jest tak zawężona bo to karta z takiego segmentu średni+, tylko zieloni postanowili zmienić taktykę i wyciągnąć więcej zielonych. Dla RTX 4070Ti fakt, że jest DP tylko w wersji 1.4 nic nie zmienia, to dalej nie jest karta przeznaczona do uzyskiwania topowych osiągów i grania w 4K przy 120+ FPS, chyba że mówimy o grach w wieku 10+ lat. 1 Cytuj Link to post Share on other sites
willis81 42 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 54 minuty temu, bankaigoku napisał: Przecież to karta z ceną RTX 4080, wydatek na zupełnie innym poziomie. Strix-a 3090 kupisz w podobnych pieniądzach co 4070ti - poszukaj Do 4k w podobnej cenie 3090 będzie znacznie lepszym wyborem. Po co Ci DLSS 3.0 jak Cię nie interesuje RT ? Cytuj Link to post Share on other sites
bankaigoku 5 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 14 minut temu, willis81 napisał: Strix-a 3090 kupisz w podobnych pieniądzach co 4070ti - poszukaj Do 4k w podobnej cenie 3090 będzie znacznie lepszym wyborem. Po co Ci DLSS 3.0 jak Cię nie interesuje RT ? Rozważam po prostu wszystkie plusy i minusy, więc biorę pod uwagę każdą technologię, która "doda" fps'y. Cytuj Link to post Share on other sites
r1023 873 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 raczej dokonałeś wyboru i chciałeś żeby ktoś Cie tutaj w nim utwierdził Cytuj Link to post Share on other sites
bankaigoku 5 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 Teraz, r1023 napisał: raczej dokonałeś wyboru i chciałeś żeby ktoś Cie tutaj w nim utwierdził No teraz myślę, że wybór obecnie już padł, no chyba, że mi odwołają zamówienie jak je złożę. Ale właśnie musisz wiedzieć, że pierw pod wpływem tłumu poszło na 4070 Ti. Tylko czym dalej w las, to zacząłem powątpiewać i bardziej utwierdzać się, że jednak to dla mnie nie będzie dobrym wyborem. Teraz jestem pewien, że skoro nikt mnie nie wyprowadził z tego toku myślenia, to raczej było ono w miarę rozsądne. Miejmy nadzieję, że nie pożałuję Cytuj Link to post Share on other sites
wojciech spychała 80 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 2 godziny temu, bankaigoku napisał: Ciężki wybór, zastanawiam się już długo. Natomiast RT mnie zupełnie nie interesuje, wręcz nawet nie lubię wizualnie tej techniki. Boję się trochę o sterowniki w AMD. Kiedyś jak miałem Radeona 7870 to tyle się z tym musiałem męczyć, że do dnia dzisiejszego mam skazę. Ale może coś się zmieniło i jest po ludzku, różne opinie czytam. Skoro RT cie nie interesuje to stanowczo Radeona bierz. W klasycznej rasteryzacji już teraz pokonuje 4070Ti a z czasem ta przewaga pewnie się zwiększy jak dopracują bardziej sterowniki pod zupełnie nowa architekturę chipletową. Samo oprogramowanie AMD osobiście teraz nawet bardziej mi podchodzi od tego NVIDII - nie tego dualizmu z panelem i nakładka i ogólnie jest więcej opcji. 1 godzinę temu, Adames napisał: Ciekawi mnie czy AMD z nowym FSR 3.0 nie będzie próbował jednak wykonać predykcji zamiast upośledzonej interpolacji, wtedy technika AMD całkowicie zmiotłaby zielonych w tym polu. Takie rozwiązanie wprowadzi ZNACZNIE więcej artefaktów wizualnych, więc wszystko sprowadza się do starego powiedzenie „Pick your poison”. Ogólnie próbowałem na targach przycisnąć Scotta Olschevskyiego o FSR 3.0 i odnoszę wrażenie, że oni sami jeszcze nie wiedza, jak dokładnie to ogarną… taka zapowiedź, aby nie było, że nie maja żadnej odpowiedzi na DLSS 3. 1 Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 8 Stycznia 2023 Udostępnij Napisano 8 Stycznia 2023 Ja w najbliższym czasie nie zamierzam kupować nic od Nvidii. Powód jest prosty, próbują konsekwentnie robić z ludzi debili. Kilka ostatnich grzechów z pamięci: GTX 970 "4GB" - tak naprawdę efektywnie 3,5GB pamięci, była swego czasu spora afera o to. GTX 1060 3GB - oprócz malutkiego vram obcięty rdzeń pod tą samą nazwą. Powodzenia w graniu w 1080p z teksturami na high. Nazwa 1060ti niewykorzystana dla wersji 6GB. Ogólnie 1060 ma 7 (!) różnych konfiguracji sprzętowych, wszystkie pod tą samą nazwą. GT 1030 DDR4 - niby karta "do office i sapera" ale niesmak pozostał. Niewiele lepsza od ówczesnej integry od Intela U630. Nazwa 1020 nigdy niewykorzystana. RTX 3060 8GB - mniej pamięci, węższa szyna, ponad 15% wolniejsza, ta sama nazwa. 3050ti nigdy niewykorzystane. RTX 3080 - 10GB VRAM xD Powodzenia w odpaleniu przyszłych gier w 4k. Czuję że za parę lat będzie podobnie jak z 1060 3GB - niby rdzeń jeszcze może ale pamięć już nie ta Od początku zanosiło się na jakąś wersję Super, no i doczekaliśmy się wersji 12GB. RTX 4080 12GB - czyli jak (nie) sprzedać kartę ze 192-bitową szyną jako model premium Po zmianie nazwy na 4070ti wycena wciąż odklejona od rzeczywistości (jak cała obecna generacja zresztą). Dla przypomnienia: 1070ti 449$, 2070S 499$, 3070ti 599$, 4070ti 799$. Podsumowując dopóki nie ogarną marketingu, PRu i pozycjonowania produktów są u mnie na czarnej liście. Niestety monopol na rynku GPU się pogłębia bo i poważnej konkurencji brak, więc podejrzewam że takich sztuczek w przyszłości jeszcze sporo zobaczymy. 1 Cytuj Link to post Share on other sites
mirai99 334 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 (edytowane) 3 godziny temu, zbiku90 napisał: Ja w najbliższym czasie nie zamierzam kupować nic od Nvidii. Powód jest prosty, próbują konsekwentnie robić z ludzi debili. Kilka ostatnich grzechów z pamięci: GTX 970 "4GB" - tak naprawdę efektywnie 3,5GB pamięci, była swego czasu spora afera o to. GTX 1060 3GB - oprócz malutkiego vram obcięty rdzeń pod tą samą nazwą. Powodzenia w graniu w 1080p z teksturami na high. Nazwa 1060ti niewykorzystana dla wersji 6GB. Ogólnie 1060 ma 7 (!) różnych konfiguracji sprzętowych, wszystkie pod tą samą nazwą. GT 1030 DDR4 - niby karta "do office i sapera" ale niesmak pozostał. Niewiele lepsza od ówczesnej integry od Intela U630. Nazwa 1020 nigdy niewykorzystana. RTX 3060 8GB - mniej pamięci, węższa szyna, ponad 15% wolniejsza, ta sama nazwa. 3050ti nigdy niewykorzystane. RTX 3080 - 10GB VRAM xD Powodzenia w odpaleniu przyszłych gier w 4k. Czuję że za parę lat będzie podobnie jak z 1060 3GB - niby rdzeń jeszcze może ale pamięć już nie ta Od początku zanosiło się na jakąś wersję Super, no i doczekaliśmy się wersji 12GB. RTX 4080 12GB - czyli jak (nie) sprzedać kartę ze 192-bitową szyną jako model premium Po zmianie nazwy na 4070ti wycena wciąż odklejona od rzeczywistości (jak cała obecna generacja zresztą). Dla przypomnienia: 1070ti 449$, 2070S 499$, 3070ti 599$, 4070ti 799$. Podsumowując dopóki nie ogarną marketingu, PRu i pozycjonowania produktów są u mnie na czarnej liście. Niestety monopol na rynku GPU się pogłębia bo i poważnej konkurencji brak, więc podejrzewam że takich sztuczek w przyszłości jeszcze sporo zobaczymy. 3050Ti jak najbardziej istnieje... A od 3080 to się proszę odczepić, dobra karta, nawet z 10gb ramu Wracając jeszcze do 1030, to z "entry" kartami zawsze tak jest. 1630 kosztowało w pewnym momencie 120$, a za 140$ było 1650 z dosłownie 2x więcej FPS. LTT zrobiło dobre videło o tym: Edytowane 9 Stycznia 2023 przez mirai99 Cytuj Link to post Share on other sites
bankaigoku 5 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 A ja polecę ten materiał, bardzo racjonalny odnośnie bitwy RTX 4080 vs RX 7900 XTX: Cytuj Link to post Share on other sites
r1023 873 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 8 godzin temu, zbiku90 napisał: Ja w najbliższym czasie nie zamierzam kupować nic od Nvidii. Powód jest prosty, próbują konsekwentnie robić z ludzi debili. Kilka ostatnich grzechów z pamięci: GTX 970 "4GB" - tak naprawdę efektywnie 3,5GB pamięci, była swego czasu spora afera o to. GTX 1060 3GB - oprócz malutkiego vram obcięty rdzeń pod tą samą nazwą. Powodzenia w graniu w 1080p z teksturami na high. Nazwa 1060ti niewykorzystana dla wersji 6GB. Ogólnie 1060 ma 7 (!) różnych konfiguracji sprzętowych, wszystkie pod tą samą nazwą. GT 1030 DDR4 - niby karta "do office i sapera" ale niesmak pozostał. Niewiele lepsza od ówczesnej integry od Intela U630. Nazwa 1020 nigdy niewykorzystana. RTX 3060 8GB - mniej pamięci, węższa szyna, ponad 15% wolniejsza, ta sama nazwa. 3050ti nigdy niewykorzystane. RTX 3080 - 10GB VRAM xD Powodzenia w odpaleniu przyszłych gier w 4k. Czuję że za parę lat będzie podobnie jak z 1060 3GB - niby rdzeń jeszcze może ale pamięć już nie ta Od początku zanosiło się na jakąś wersję Super, no i doczekaliśmy się wersji 12GB. RTX 4080 12GB - czyli jak (nie) sprzedać kartę ze 192-bitową szyną jako model premium Po zmianie nazwy na 4070ti wycena wciąż odklejona od rzeczywistości (jak cała obecna generacja zresztą). Dla przypomnienia: 1070ti 449$, 2070S 499$, 3070ti 599$, 4070ti 799$. Podsumowując dopóki nie ogarną marketingu, PRu i pozycjonowania produktów są u mnie na czarnej liście. Niestety monopol na rynku GPU się pogłębia bo i poważnej konkurencji brak, więc podejrzewam że takich sztuczek w przyszłości jeszcze sporo zobaczymy. miałem 970 w czasie kiedy karta była "aktualna" nie było z nią żadnych problemów, najbardziej pruli się fanboje innych marek i Ci którzy musieli sobie jakoś uzasadnić to że karty nie mają 3080 nie była i a tym bardziej nie jest karta do 4k nie wydaje mi się aby z upływem czasu miało się zmienić 1 Cytuj Link to post Share on other sites
joker5513 2786 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 (edytowane) 9 godzin temu, zbiku90 napisał: Ja w najbliższym czasie nie zamierzam kupować nic od Nvidii No to pozostaje jedynie "alternatywa" od AMD, a wiemy jak ona wygląda.... Albo ARC'a Noego od Yntela Edytowane 9 Stycznia 2023 przez joker5513 1 Cytuj Link to post Share on other sites
Rebelmind 3738 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 13 godzin temu, bankaigoku napisał: Tylko że ja obecnie mam AORUS GTX 1080 Ti Xtreme Edition 11GB i bez problemu odpalam wszystkie gry w 4K. Zatem potrafisz iść na daleko idące ustępstwa. Ja omijam 4070 Ti, bo zakup tej karty w obecnych cenach utwierdzi Nv w przekonaniu, że podnoszenie cen wraz ze wzrostem wydajności to właściwa droga. 2 Cytuj Link to post Share on other sites
r1023 873 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 Jeszcze jedna sprawa mam nadzieje że ta cała dyskusja to nie do tego sprzętu który masz w stopce, zestawienie której którejkolwiek z kart z tym - Intel Core i7 | 4790K 4.0 @4.4 GHZ to strata czasu i pieniędzy. 1 Cytuj Link to post Share on other sites
ODIN85 1024 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 3 minuty temu, r1023 napisał: Jeszcze jedna sprawa mam nadzieje że ta cała dyskusja to nie do tego sprzętu który masz w stopce, zestawienie której którejkolwiek z kart z tym - Intel Core i7 | 4790K 4.0 @4.4 GHZ to strata czasu i pieniędzy. Ale on mówi o odpaleniu gier na tym a nie graniu w sensownych detalach.Wszystko więc się zgadza Cytuj Link to post Share on other sites
bankaigoku 5 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 3 minuty temu, r1023 napisał: Jeszcze jedna sprawa mam nadzieje że ta cała dyskusja to nie do tego sprzętu który masz w stopce, zestawienie której którejkolwiek z kart z tym - Intel Core i7 | 4790K 4.0 @4.4 GHZ to strata czasu i pieniędzy. Dyskusja właściwie się już zakończyła, a sprzęt w stopce mam nie aktualny. Od miesiąca jestem na 13600K + ASRock Z790 STEEL LEGEND + 32 GB Kingston 6000Mhz CL36. 2 Cytuj Link to post Share on other sites
zbiku90 3659 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 2 godziny temu, r1023 napisał: miałem 970 w czasie kiedy karta była "aktualna" nie było z nią żadnych problemów, najbardziej pruli się fanboje innych marek i Ci którzy musieli sobie jakoś uzasadnić to że karty nie mają Też ją miałem i to fakt że zwalniała po przekroczeniu 3,5GB. Niektóre gry (a może sterowniki?) były na tyle sprytne że tego powolnego 0,5GB w ogóle nie alokowały. To był mój ostatni GeForce, późniejsze działania firmy m.in. te które wypisałem utwierdziły mnie w przekonaniu że podjąłem dobrą decyzję. 2 godziny temu, r1023 napisał: 3080 nie była i a tym bardziej nie jest karta do 4k nie wydaje mi się aby z upływem czasu miało się zmienić Nie wcale, od początku celowała w 1080p, przecież to low-end 7 godzin temu, mirai99 napisał: 3050Ti jak najbardziej istnieje... Pokaż mi ją bo coś chyba przegapiłem. 1 godzinę temu, joker5513 napisał: No to pozostaje jedynie "alternatywa" od AMD, a wiemy jak ona wygląda.... W porę kupiłem rx6800 i póki co jestem szczęśliwy. Cytuj Link to post Share on other sites
r1023 873 Napisano 9 Stycznia 2023 Udostępnij Napisano 9 Stycznia 2023 25 minut temu, zbiku90 napisał: Też ją miałem i to fakt że zwalniała po przekroczeniu 3,5GB. Niektóre gry (a może sterowniki?) były na tyle sprytne że tego powolnego 0,5GB w ogóle nie alokowały. To był mój ostatni GeForce, późniejsze działania firmy m.in. te które wypisałem utwierdziły mnie w przekonaniu że podjąłem dobrą decyzję. pewnie do 4k brałeś 2 lata po premierze 26 minut temu, zbiku90 napisał: Nie wcale, od początku celowała w 1080p, przecież to low-end 3080 nie była nigdy kartą do 4k, ludzie lubią fantazjować ale realia są jakie są - pierwszą kartą do 4k z bólem jest 3090, chyba że ktoś lubi 60Hz i low fps to wtedy jest ok. Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.