Skocz do zawartości

kapral.hicks

Użytkownik
  • Liczba zawartości

    142
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez kapral.hicks

  1. jarnuszkiewiczm- Ogólnie MSAA gryzie się z silnikami opartymi na deferred renderingu gdzie koszt użycia tej funkcji to czasem spadek 150% w wydajności. Ja tej funkcji właściwie nie używam, bardzo rzadko to włączam. Zamiast tego lepiej ustawić downsampling z rozdzielczości o jedno oczko wyższej plus jeszcze dodać FXAA. Ja mam monitor 1680x1050 a we wszystkie gry gram w 1920x1200, po downsamplingu na 1680x1050 obraz jest po prostu znacznie lepszy niż jak samej natywnej rozdzielczości z MSAAx4, dosłownie zero widocznego aliasingu a a ostrość wzorowa (przy czym wydajność znacznie lepsza niż te stare MSAA).

    W kartach nvidii by wykonać downsampling to dosłownie minuta roboty, dodajesz nową rozdzielczość i ustawiasz skalowanie na GPU, później w grach można wybierać sobie tą rozdzielczość.

     

    Co do marnej płynności crysisa 3 u Ciebie... Nie wiem jaką wydajność ma ten Twój Phenom 2, wydaje mi się jednak że u Ciebie to wina proca a nie karty grafiki. U mnie wcześniej tak samo myślałem, że to grafa była powodem spadków na 32 fps, jednak jak przedstawiłem w mojej poprzedniej wypowiedzi ta gra stawia przede wszystkim na procesor, dopiero po wykręceniu 3570K na 4.5 GHz zrobiło się naprawdę płynnie. Ta gra została po prostu zrobiona pod bardzo silny procesor, idealnie i7 z HT (ta funkcja sprawia że w najbardziej wymagającym miejscu w grze z 45fps robi się 60).

     

     

    crysis 1 to był dopiero wymagający, na 8800ultra i quadzie 3 GHz grałem w 25-30 fpsach :D przy 1680x1050 i to jeszcze w modowanych detalach na dx9, w natywie dx10 miałem jakieś 14-20 fps :D. Trójeczka to jest po prostu wyzwaniem dla dzisiejszych komputerów, ale nie jest kilerem, po prostu najwyższe detale w tej grze są zrobione pod najwydajniejszy obecnie sprzęt (choć tez trzeba przyznać jedno, ta gra na low wygląda prawie tak samo jak na vh, bardzo trudno znaleźć różnice poza telestacją drzew i roślin, nic dziwnego więc, że nawet na LOW czy Medium gra potrafi przyciąć u ludzi na kompie, crysis3 na low to jak crysis 2 na ultra :D)

  2. Przeszedłem crysisa 3 kolejny już raz, (dobra gierka, choć mogła by być tylko trochę dłuższa) tym razem jednak pobrałem najnowsze stery od Nvidii (680GTX) i zabawiłem się w OC proca 3570K, chciałem wycisnąć wszystko co się da ze swojego sprzętu. Ogólnie dzięki dwukrotnemu przejściu gierki wiedziałem już, że najbardziej wymagająca plansza to ta druga, wszystkie nastepne śmigają znacznie, znacznie lepiej. Ta otwarta przestrzeń wypełniona bujajacą się na wietrze trawą wygląda masakrycznie, dosłownie jak next gen i chyba tu należy wypatrywać znacznie większych wymagań.

     

    Przy 1920x1200 miałem w najbardziej wymagajacym miejscu w całej grze 30-38 fpsów (przy tej akcji ze strzelającą wierzyczką na polu trawy) i średnio 45-70 poza tym króciutkim fragmentem gry. Co się natomiast stało po OC ? Podkręcenie grafy w miejscu w trawą niewiele dało (1200MHz core, + 3600MHzpamieć), natomiast po podkręceniu stockowego 3570K z 3.4GHz do 4.5GHz fps poleciał bardzo widocznie w górę, teraz na tym polu z trawą mam średnio 42-50 fpsów i jest to najbardziej wymagająca scena w całej grze, odczuwalna płynnośc w tym miejscu widocznie się zwiększyła. Zrobiłem frapsowy benchmark z drugiej planszy, aż do wejścia do tego tunelu (10 minut gry i najbardziej wymagający fragment drugiego levelu) i średni fps fraps pokazał na 53, wszystko to na pojedynczej grafie i ja taki wynik uważam za bardzo dobry. W następnych planszach średni fps sięgał często 60-70 powyżej klatek (ostatnie 3 etapy gry) i tu już można było mówić o pełnym wypasie. Później potestowałem jeszcze mniejszą rozdzielczość 1680x1050p, spadki poniżej 60 były takie same na tym polu z trawą, więc to na pewno jeszcze limit proca ogranicza 680GTX, ale już poza tą minutą gry, gdy już przejdziemy ten etap z wierzyczką fps idzie o dodatkowe 8-10 fps więcej, spadek poniżej 60 fps to już wtedy bardzo rzadki wyczyn :).

     

    Moim więc zdaniem trudno nazwać tą grę źle zoptymalizowaną, absolutnie nie zgadzam się z tą opinią bo dziś mam wrażenie żę gry są coraz brzydsze i coraz większe wymagania mają. Taki bioskock 3, wygląda to to jak gra z ps3 a z tego co podają ludzie potrafi już zarżnąć nawet 580GTX, co jest po prostu kpiną zważywszy na tandetny wygląd tej gry. Przy crysis 3 wymagania idą w parzez wyglądem gry i w przeciwienstwie do crysisa 1 już dziś na pojedycznej grafie mogę sobie sensownie w gierkę pograć, nie trzeba wcale czeakć wiele lat na sprzęt który da radę.

     

    Ciekawy tez jestem jaki fps miał bym na i7, być może jeszcze coś wycisneło by się z tego 680GTX, myślę że akurat w tym miejscu na tym polu z trawą na pewno fps podskoczył by jeszcze trochę w górę. Podobnież crysis 3 korzysta z HT i teraz troszeczkę żałuje, że posłuchałem opinii na necie i kupiłem i5, mogłem wybrać i7 bo koszt tylko nieznacznie większy. Moder maldo pisze że dzięki HT fps idzię na tym polu wypełnionym trawą z 45 fps do 60 po włączeniu HT, jest to bardzo duża różnica. Co prawda etap który rzyca na kolana mojego 3570 trwa tylko jedną minutę gry, ale kto wie czy w przyszłości wiecej gier nie będzie wykorzystywać tego ustrojstwa :), wtedy już żałował bym kupna i5 trochę bardziej :D.

  3. Muszę przyznać, że jest to pierwsza gra która przypomina concept arty, ilość detali, jakość otoczenia czy oświetlenie jest baaardzo wysoka (ostatni level wbija w ziemie :D, aż tak jakoś unreal engine 4 przestał robić już takie wrażenie)

    http://farm9.staticflickr.com/8529/8490778441_c131e8e186_o.jpg

    http://www.abload.de/img/cellj3smy.png

    http://i5.minus.com/i85oO6Sa4GjX3.png

    http://www.abload.de/img/1qmsys.png

    http://farm9.staticflickr.com/8092/8496801391_0eda653d01_o.jpg

     

    Co do wymagań, zaskoczony jestem pozytywnie, O ile pierwszy level ma faktycznie bug w wydajności (poruszająca się lina powoduje wyciek pamięci i dopiero gdy się zatrzyma fps wraca do normy) o tyle poza tym miejscem mam w zasadzie stałe 60 fpsów (najmniejszy spadek w czasie gry był do 50) na pojedynczej 680 (OC @+50 core, +500 pamięć) przy high w 1080p i FXAA. Nie spodziewałem sie takiego wyniku i to przy takiej jakości grafiki na pojedynczej grafie bo marka crysis zawsze kojarzyła mi się z kilerem kart graficznym (na 8800ultra miałem 10fps w dx10 przy 1080p w czasie premiery crysis 1). Ustawienie VH bardzo zaniża wydajność (choć wizualnie ciężko powiedzieć jakie zmiany wprowadza, a w tej grze nawet low detale wyglądają bardzo dobrze) na średnie 45 fpsów jednak jest to wciąż grywalny rezultat. Dopiero MSAA4 zabija moją kartę w tej grze, średnio 30-40fps (trzeba już wtedy zrobić ograniczenie na 30fpsów by się w miare jako tako grało). Jeśli już jednak teraz ta gra tak ładnie chodzi to po wydaniu patchy czy nowych sterów należy się spodziewać jeszcze lepszych rezultaów (a jak już ogólnie maldo weźmie się za crysis 3 tak jak zrobił to z dwójeczką to bedzie już totalny kosmos)

  4. Pograłem 2 godzinki w tego farcry'a, graficznie to liczyłem na dużo więcej bo lepiej od starego crysisa 1 to nie wygląda... drażni zwłaszcza ta kolorystyka, ale pograć można. Wydajność hmm, ustawiłem wszystko na ultra oprócz AA, zamiast tego dając fxaa z NV panelu bo po tych waszych narzekaniach liczyłem na spadki płynności. Jednak na i5 3570K i 680GTX OC nie zauważyłem by gra schodziła poniżej 60fps przy 1080p. Moim więc zdaniem gra jest dość dobrze zoptymalizowana a ci co mają problem z wydajnością po prostu włączają msaa a już nie od dziś wiadomo że ta opcja w grach opartych na deffered renderingu jest zupełnie nieopłacalna). Metro 2033, to jest przykład gry niezoptymalizowanej :)

    • Popieram 1
  5. Przejście 0 - 255 w menu Nv obejmuje ustawienia materiału filmowego, NIE GLOBALNIE. Sony bravia nie testowałem choć na podstawie ilości tv jakie już sprawdzałem śmiem wątpić że sony nie sprawiał by problemów. Na razie tylko samsung działa dobrze, tyle że inżynierowie tej firmy przewidzieli sytuacje z kartami Nv, dlatego też tv potrafi wysłać 2 rożne EDID (z czego jedno raportuje karcie nv że to monitor a nie HDTV, przez co nie ma problemów). W samsungu trzeba tylko ustawić w telewizorze wejście HDMI na PC (w starszym samsungu który testowałem trzeba akurat było zmienić nazwę wejscia HDMI na PC). Na forum Nv pisałem z gościem który też roztrząsał ten problem.. dlatego kupił później HDTV samsunga i powiedział mi o tych kwestiach EDID w samsungu. Następny tv też kupie samsunga, poczekam tylko na oledy.

     

     

    Problem jest zdecydowanie, co potwierdzają chociażby te fora

    http://forums.nvidia.com/index.php?showtopic=225588

    http://www.avsforum.com/t/1339139/nvidia-0-255-hdmi-range

     

    Napisze jeszcze do jednego gostka u Nv, nie gościa z supportu a gościa związanego z promocją/wizerunkiem firmy. Pokaże mu ile ludzi na to narzeka to może w końcu on ruszy sprawę. Jak nic nie da spróbuje jeszcze Nsplittera który ma opcje dreamedid, która oszukuje kartę graficzną.

  6. Jeżeli karta sypie artami to podbicie napięcia jest pierwszym z kroków który może temu zapobiec i albo się "myknąłeś" albo o OC nie masz zielonego pojęcia. Artefakty są powodowane generalnie błędami w renderowaniu obrazu, a te mogą być wywołane przez szereg czynników. Od uszkodzenia fizycznego chip'u po zbyt niskie napięcie zasilające. Gdyby napięcie przy OC nie grało roli nikt by go nie ruszał.

    Sugerujecie że goście z overclockersclub nie mają pojęcia co robią ? serwisu który słynie z tego że właśnie KAŻDY test przeprowadzają podając wyniki każdej karty po podkręceniu, wyniki jakie tam uzyskują przy OC są imponujące w większości przypadków. Bardzo mi się też podoba że przywiązują uwagę do takich rzeczy jak stabilność przy OC, patrzą sami w grach czy są problemy czy też nie.

     

    Jeżeli karta sypie artami to podbicie napięcia jest pierwszym z kroków który może temu zapobiec i albo się "myknąłeś" albo o OC nie masz zielonego pojęcia

    A co jesteś inżynier od Nv czy AMD że znasz się na wszystkim by móc to stwierdzić z całą pewnością ? W PL dużo jest pseudo specjalistów co to swoje wiedzą a jak później przychodzi co do czego to później tragedia. Ja nie nie znam się na OC, masz racje, dokonuje jednak jakiś tam przypuszczeń, nie muszę mieć racji. Jednak wracając do senda, nie wydaje mi się by panowie z takiego serwisu jak OC nie wiedzieli co robią, to było by irracjonalne zarzucać to takim ludziom

     

    Testu radeona z 1300MHz jak nie ma tak nie było... (i dla tego odwraca się kota ogonem, uciekając od tego o co mi chodzi). Czemu tak na to naciskam, by pokazać czytającym, że poniektórzy mają zbyt wyidealizowany obraz AMD. Piszą "o ludzie popatrzcie, przecie amd tak dobrze się kręci.. przyjdzie co do czego, chcesz od nich jakiś potwierdzeń rzetelnych w postaci recenzji to nic.. cisza. Zamiast tego podaje się jakieś bzdury z 3dmarka11 gzie nawet 580GTX jest na ponad 1500MHz

     

    Dobra.. pora mi kończyć już tą zabawę z benchmarkiem, tracę tylko czas na pisanie o jakiś bzdurach, a nic z tego i tak nie mam.. i nic ciekawego dla mnie tu nie wynika. Napisałem i tak o 59 postów za dużo.. jak mogłem tyle czasu zmarnować na takie bzdury :(

    • Popieram 2
  7. tak czytając to

    nigdzie nie jest napisane że podnosili napięcie MSI Afterburner i do jakich wartości

    równie dobrze mogli dać w CCC 20% więcej i osiągnąć taki wynik

    wtedy byłoby to wiarygodne :D

    jeżeli redakcja podkręca to przynajmniej opisuje do jakich wartości co podbili

    a nie wyssane z c..ja treści

    Co ci da zwiększenie napięcia, skoro karta produkuje już artefakty ? Napisali ze w absolutnej większości mieli dużo większe taktowanie ponad 1200MHz, tyle że za stabilne tego nie uznali gdyż w niektórych grach były artefakty. Ta XFX radeon black edition to specjalna wersja radeona przeznaczona do OC, wiatrak szedł w niej na 100% przy 1177MHz. Jakoś nie chce mi się wierzyć ze Kowalski, kupując zwykłego radeona 7970 (który i tak nie będzie tak doskonały jak te egz. wysyłane do redakcji) będzie grał z 1300MHz na rdzeniu, jak niektórzy piszą, te prędkości to dla tych kart standard ? Takiego, a świstak siedzi.. i zawija w te sreberka. Tak samo na hardwareheaven w komentarzach autor recenzji na wzmiankę o kłótni pomiędzy fanami AMD/Nv którzy używali argumentu OC przy radeonie powiedział, że z jego doświadczenia nie wynika też by sklepowe karty często osiągały wartości o które wykłócają się fani ati. By być sprawiedliwym tak samo jest z Nv, te 1350z boostem to egzemplarz jeden na tysiąc, w praktyce, też często to jest też około 1200MHz. Czyli tak jak mówiłem, w pierwszym moim tutaj wpisie obie KARTY TO TOTALNIE TO SAMO> jak się komuś wydaje że jedna jest lepsza od drugiej... cóż, moim zdaniem jest po prostu zbyt wielkim fanem jednej z firm :) A jest co lubić ? Obie firmy robią nas wszystkich w h... , płacimy ogromną kasę za kilka fps więcej przy nowej generacji, w zasadzie prawie tylko za nowe nazewnictwo (to co Nv zrobiła z 9800GTX, 580GTX to był już szczyt bezczelności). To już nie czasy voodoo czy GF4/8800GTX co często od poprzedniej generacji wyniki były 2x lepsze, tutaj mowa czasem o wynikach 25% większych a golą nas jak za złoto.
    • Popieram 2
  8. Pamiętaj że na 'wodzie' masz dużo chłodniejszy VRM i można wyżej podciągnąć stabilnie...

    tu jednak mowa nie dotyczy kombinowania z chłodzeniem wodnym/azotem a zwykłych konstrukcji. Te z blokami wodnymi są MASAKRYCZNIE droższe

     

    Mysle, że 7970 spokojnie wyżej poleci

    Niekoniecznie, 7970 ma aktywowany dodatkowy blok shaderów, a to wpłynie na pewno na zmianę właściwości i stabilność napięć, tak samo jak wpłynęło to na 670, który wydaje się że kręci się lepiej od 680.

     

    bo to złe gry były te co nie poszedł w nich radek 1300MHz, złe gry jakies. pod nvidie pewnie... ;)

    Czy ja od was ludzie wymagam za dużo. Cały czas wymijacie, nie jestem żadnym funbojem Nv, staram się sprawę ocenić jak najbardziej rzetelnie, chce po prostu zobaczyć test i się dokształcić jeśli czegoś nie wiem... POKAŻCIE MI CHOCIAŻ JEDNĄ RECENZJE, GDZIE TESTER PODPISAŁ SIĘ POD WYNIKIEM 1300MHz... skoro takie prędkości te kary osiągają bez niczego (jak to tu piszecie), bo wyniki w 3dmarku11 to ja widziałem OC przy 580GTX na 1500 MHz i to nic nie oznacza.
    • Popieram 1
  9. Boże kiedy wy zrozumiecie że potencjał OC zależy od konkretnej szt

    To też napisałem, zazwyczaj też te konkretne sztuki wysyła się do redakcji. A co do OC w tym 3d marku, napisałem że nawet na OCclubie karta poszła zdrowo ponad 1200, tyle że nie we wszystkich grach.. a chodzi o OC w pełni stabilne w KAŻDEJ. Nie czytałem żadnej recki, gdzie tester podpisał by się pod wynikiem 1.3 GHz na radeonie, zawsze kończy się to na GÓRA 1200-1220 (i to tak jak jak mÓwiłem, przy dokładniejszym zbadaniu okaże się 1177MHz, tzn w pełni stabilne w każdej grze).
  10. Lol do maxa wystarczy HD6850 , ustawione mam w 1680x1050 wszystko na najwyższych oprócz filtrwania i mxaa ( FXAA jest na najwyższym) i nie ma cięć :P Aż szkoda że frapsik nie działa...

     

     

    Zaznaczyć też trzeba że MSAA po prostu w tej grze nie działa jak należy, po pierwsze zabiera astronomiczną ilość pamięci (tyle co w unreal engine 4) a po drugie większa połowa rzeczy nie jest pozbawiona schodków tzn opcja MSAA jest popsuta. Polecam stronę 35 na guru3d, gdzie dokładnie jest to pokazane na przykładzie zdj. W MP3 nie opłaca się włączyć MSAA, tylko fxaa (na ustawieniu normal wcale nie rozmazuje obrazu, na very high już tak)

     

    bo średnia OC na chłodzeniu powietrzem to 1200 mhz

    a nie 1177 i arty

    musiałeś oglądać jakąś ruską wersję

    Od ręki overclockers club, hardwareheaven.

    hmm piszę prawdę, w pełni potwierdzaną testami i odnośnikami, czemu się tak denerwujesz ? Prawda w oczy kole

    http://www.overclockersclub.com/reviews/xfx_hd7970_black_edition/4.htm

    Radeon XFX black edition... 1177MHz max absolutnie stabilne

    Radeon saphire 1125MHz

    Trzeba też wziąć pod uwagę, że redakcje dostają wyselekcjonowane, znacznie lepiej podkręcające wersje kart niż to co w sprzedaży. Pisanie więc że ktoś bez problemu będzie ustawiał sobie na tych kartach 1300MHz jest po prostu wierutnym kłamstwem.

     

    Na overclockersclubie ogólnie karty szły na ponad 1200... czemu więc nie podali takiej wartości ? Bo okazywało się że w kilku grach był problem (na tym serwisie testują dokładnie stabilność).. jak można się dowiedzieć z lektury,musieli schodzić z taktowaniem do wartości które zapewniały brak śmieci w KAŻDEJ grze którą testowali. Inne serwisy jak guru3d czy hardware heaven nie testują już tak dokładnie i stąd też u nich 1.2GHz

     

    Na żadnej ze stron nie widziałem 1.3 GHz, no chociaż jedną podacie ? Aż ciekawy jestem bo z chęcią przeczytam :)

  11. Obie karty miały by ponad 120 fps w tej grze i to bez OC :) w 1080p, MAX PAYNE 3 nie jest wymagający.

     

    ""1.3GHz na 7970 - ta karta robi tyle od nie chcenia,""

     

    no niestety, w praktyce powyżej 1177 MHz pojawiają się już artefakty i to czytałem w dokładnym tescie, gdzie przeczytałeś że te karty idą na 1.3GHz przy standardzie ? napisz bo aż ciekawy jestem gdzie ktoś tak te karty podkręcił.

     

     

     

    Jest wiele stron gdzie prezentowane są dokładne wyniki, tak amd i Nv po max OC, choć obie karty to właściwie to samo to jeszcze nie czytałem takiego testu by to radeony prowadziły.

    np overclockers club (obie karty totalnie max z OC, przy Nv był to referant a u AMD XFX black edition)

    Wszystkie wyniki z 1080p

    1) Metro 2033, dx11 high

    680 : 96 fps

    7970 : 86 fps

    2) Batman AC

    680 : 112 fps

    7970 : 102 fps

    3) Battlefield 3 High

    680 : 104 fps

    7970 : 94 fps

    4) Unique Heaven, extreme

    680 : 53 fps

    7970 : 52 fps

    5) Civilization 5 High

    680 : 148 fps

    7970 : 144 fps

    6) Dirt 3

    680 : 130 fps

    7970 : 91 fps

    7) Mafia 2

    680 : 104 fps

    7970 : 98 fps

     

    680 max OC : 747 fps / średnio 106 fps

    7970 max OC : 667 fps / średnio 95 fps

     

    Oczywiście to nie świadczy o niczym, kluczowy jest dobór gier/ustawień, z tego co obserwuje to przez odpowiedni dobór tych rzeczy można według swojego widzimisie wyłonić raz AMD a raz Nn jako zwycięzce (choć przyznam szczerze że nie czytałem oficjalnego testu co by radeon wygrał). Najuczciwsza opinia to taka ze te karty mają tą samą wydajność, różnice poza battlefield 2,3, dirtem 3, są już mniejsze. To nie czasy voodoo gdzie nvidia swoimi Geforce'ami po prostu zmiażdżyła wydajnością te karty, TO BYŁA RóŻNICA, zaś róznice dziś pomiędzy Nv a AMD/ATI to śmiech na sali.. zresztą myślę że obydwie firmy uzgadniają pomiędzy sobą co kiedy wypuszczą a konkurencja miedzy nimi jest udawana, to jest niemożliwe by każda z ich kart miała właściwie tą samą wydajność, te same technologie.. zawsze w tym samym czasie

  12. W wiedźmina nie grałem... a metro odpaliłem kilka dni temu, gierka fajna ale nie wiem o co całe halo z grafiką tej gry, wygląda dosyć średnio, tekstury słabe, jest wiele cegieł ale nawet nie pokusili się by je poddać teselacji czy pobawić się POM.. tak by były trójwymiarowe, cała grafika to właściwie prostokątne pomieszczenia i oświetlenie które nawet w doomie 3 było lepsze, wymagania zaś znacznie większe od Crysis 2 + maldoHD (który po prostu MASAKRUJE jakością grafiki, zwłaszcza tekstur i ilością teselacji, moder który zrobił tą modyfikacje po prostu pokazał co to znaczy potęga dzisiejszych PC'tów :D), Nie wiem co tak zarzyna fps w metro, czasem patrzysz w ścianę a fps i tak jest niski, gra raczej totalnie nie zoptymalizowana.

     

    Z Max Payne 3 ogólnie na dzisiejszych kartach nie powinno być problemu.. wystarczy nie włączać MSAA który i tak nie działa jak należy, dosyć ze zjada astronomiczne ilości pamięci to mniej więcej pół sceny wciąż ma aliasing, najlepiej ustawić FXAA na normal.

  13. rafcio1874- Też pograłem trochę w MP, myślałem że będzie dziadowy a tu mega zaskoczenie, bardziej mnie wciągnął od COD'a, MP przypomina mi taki Uncharted na ps3. W pierwszych meczach też miałem podobny stat, kilka razy kogoś się utrafiło ale tak to inni nabijali sobie na mnie punkty :). Ostatnie mecze co grałem to bardzo często wędrowałem już na 2 pozycje, raz prawie miał bym pierwsze gdyby nie jeden rusek który w ostatnich sekundach wpadł w amok zabijania :D. Ogólnie to wydaje mi się żę bardzo ważna jest mechanika strzelania, większość przeciwników będzie na średnim lub większym dystansie, ja to robię teraz tak że wychodząc na otwarte przestrzenie używam tzn przykucnięcia "C" + prawy przycisk myszki (polepszenie skuteczności strzału) + naciskam strzał pulsując ogniem tzn bez ciągłego obstrzału celując w heady. Ta zmiana sprawiła dramatyczną różnice, pojedynki na dystansie teraz baardzo rzadko przegrywam a jak już widzę z 4 gostków to mam pewność że przynajmniej z 2-3 kille będą :D. Teraz jeśli ginę to albo przez strzał z za pleców, albo przez nieuwagę w wąskich korytarzach.

     

    Swoją drogą napotkałem się w jednym meczu na jakiegoś peter9000 (czy jakoś tak), żadna broń nie tykała mu zdrowia nawet minimalnie, żaden granat, żaden head. Nie wiem czy to był jakiś oszust czy jakąś zbroje miał odblokowaną, w 5 meczy ani razu nie zginął.

  14. Mi się pobrała 1.0.0.17, rozmiar 175 MB a to coś dużo jak na łatkę

    Słyszałem ,że ponoć jak się ustawi detale na maxa z MSAA na 8x to już nie styka 2gb na grafie? To prawda.? Dopiero na MSAA 4x jest ok.

    Zajmuje 2030MB z 2048MB dostępnych na 680GTX. Swoją drogą to kalkuluje menu, w grze do takiego użycia może nie dojść. Ja kiedyś na 768MB karcie grałem a zużycie pamięci jak miałem według menu gta4 to było ponad 1.2 GB, mimo to nie było ścinek (może też PC używa pamieci systemowej gdy Vram się skończy? jeśli tak to na przykładzie GTA4 widzę że robił to efektywnie).

     

    Swoją drogą ten MSAA jest bezużyteczny w tej grze, zjada ponad połowę fps'ów, działa selektywnie, zbyt wiele rzeczy pozostawia z aliasingiem. Pozostaje brak AA lub FXAA (nie ustawiajcie więcej jak na normal bo będzie blur)

  15. http://cdn2.benchmark3d.com/benchmarks/mlaa-2-0-performance-and-image-quality-review/Battlefield-3-MLAA-Comparison.jpg

    gtxxor- Sprawdziłem i faktycznie masz racje, wreszcie godna konkurencja dla FXAA, wydajność już faktycznie na poziomie. Jednak o jakość obrazu to sam nie wiem, nie sprawdzałem a same screeny też do końca mi tego nie pokażą

  16. HD7850- No starczy jak ktoś lubi średnio 30 fps. No ale pytanie było o kartę do 2000 zł więc chyba mowa o entuzjaście. Zanim kupiłem 680GTX (po znajomości za 1900zł), testowałem 570GTX, w Crysis 2 po maldoHD (ten mod zmienia grafikę tej gry na dosłownie NEXT GEN, 90% tekstur to masakryczna jakość a dochodzi jeszcze potężne użycie teselacjii). Powiem tylko tyle 570GTX (który wydajność ma podobną do tego radeona) średnio 35fps, mój 680GTX OC właściwie stałe ponad 60 a mowa o 1080p z FXAA (którego radeony nie mają w sterownikach i trzeba się bawić injectorami, które i tak nie zapewniają takiej jakości obrazu, mówię to z wrażeń po testach). Co do metro to w samej grze na Ultra fps właściwie nie spadał poniżej 60, jedynie sam benchmark jakiś wybitnie wymagający, po ustawieniu High DX11 to już średnio 90-100 fps. 30 fps jest do zaakceptowania ale różnica pomiędzy 30 a 60 fps jest duża (choć na konsoli mniejsza z uwagi na sterowanie). Ludzie mówią ze oczy nie zanotują poprawy ale za to UMYSŁ JĄ WIDZI, na dowód poniższy link

    http://boallen.com/fps-compare.html

    Różnica jest widoczna gołym okiem. W grach FPP 60 fps sprawia że same sterowanie staje się bardziej responsywne. Powiem tak przeszedłem pierwszego crysisa na najwyższych detalach w 25-30 fps na 8800Ultra, sądziłem że fps jest OK, wydawało się płynnie, 680GTX i 60fps jednak totalnie odmieniło tą grę, znacznie łatwiej celować przez zwiększoną responsywność czuje się skokowość oraz lag (30fps 33,4 ms vs 60fps 16,7ms).

    • Popieram 1
  17. Po zrobieniu rozdzielczości niestandardowej tworzy się nowa kategoria rozdzielczości "niestandardowa" czy jakoś tak. Także i tu zonk, bo tylko te z kategorii PC zapewniają super obraz. Już nie chce mi się nawet o tym myśleć jak dokładnie działają te stery Nv, tak czy inaczej coś pieprzą bo obraz jest ewidentnie rożny. Kewstia karty czy tv, czy przewodu... jest nie ważna bo próbowałem wielu wariantów. Człowiek sobie myśli że pogra na tv czy poogląda filmy komfortowo a tu takie coś:(. Pomimo odnotowania problemu na wielu stronach Nv ci wciąż nie widzą problemu w przeciwieństwie do ati/amd gdzie po prostu dodali stosowny manualny przełącznik jakości kolorów.

    Cóż może większość ludzi to nie jacyś entuzjaści obrazu by przykuwać uwagę do takich rzeczy, sam wcześniej tego nie zauważałem, jednak problem jest i to jest fakt.

  18. WSZYSTKIEGO PRÓBOWAŁEM< mam najnowsze sterowniki 301.42. Nie używam PC od wczoraj bym nie wiedział co robię, właśnie dlatego problem zauważyłem. Testowałem wiele rożnych HDTV, przewodów, kart NV, nic nie pomaga. OBRAZ JEST NIE DO ZAAKCEPTOWANIA JAK JUŻ WIESZ JAK POWINIEN WYGLĄDAĆ (poprzez podłączenie ps3 lub ustawienie rozdziały jako PC, wtedy dostrzeżesz różnice).

  19. W jaki sposob moge odczytac jaka wartosc EDID wysyla moja plazma do karty?

    Testowałem na PDP panasa i był zubożały sygnał, też nie miałem kategorii PC w oknie rozdzielczości po HDMI na 680GTX, jednak na sharpie i philipsie fullHD kategoria ta (PC) już jest. Ogólnie jednak po moich doświadczeniach z kartami Nv, może założyć w ciemno że każda ich karta wysyła zubożały sygnał do tv gdyż to ewidentnie wina sterownika. Nic się z tym nie zrobi, pomimo tematów na kilkadziesiąt stron na forum Nv ci to olewają, sam też do nich pisałem, powiedzieli że absolutnie się tym zajmą a do dziś nie odpisali. Dziwne to zachowanie gdyż sposób na poprawę był dziecinnie prosty (używało się programu do odczytania EDID monitora i później ręcznie wpisywało w instalator sterownika), jednak to działało w starszych sterownikach a te nowsze są już niestety pozmienianie, to co działało kiedyś, dziś już nie.

     

    Cóż większość użytkowników nie będzie wiedziało o co chodzi gdyż nie dostrzeże różnic. SAM WPIERW PRZEZ ROK miałem podłączony PC do TV, niby byłem zadowolony, nie widziałem żadnego problemu jednak nie miałem porównania. Dopiero jak kupiłem PS3 zdziwiony byłem czemu te same obrazy (tapeta itp) mają znacznie lepsze kolory na konsoli. Szukając co powodowało taki stan rzeczy w końcu doszedłem do źródła problemu, przełączyłem rozdziałe z kategorii HDTV na tą w z okienka kategorii PC to oniemiałem, ukazał się ten sam idealny obraz co z PS3. Różnica teraz dla mnie w kolorach jest tak widoczna że osobiście wole ustawić rozdziałe znajdującą się w kategorii "PC" jak 1280x1024 i mieć te czarne pasy po bokach, niż obraz wykorzystujący całą przekątną panelu ale za to z rażącą kolorystyką której nie potrafię dziś już zaakceptować. Rozwiązaniem było by jeśli dodali by możliwość ręcznego dodawania rozdzielczości do określonej kategorii, widocznie nawet tego nie potrafią.

  20. GTXXOR- Jak na razie nie miałem problemu w żadnej grze, na pewno jednak gdyby rzetelnie sprawdzić każdy tytuł to znalazło by się kilka gier które sprawiały by jakieś problemy, przecież Nv dopiero co wydała ten sterownik i jeszcze będą pracować nad jego poprawą. Nie to bym przedstawiał karte Nv w jakimś dobrym świetle (mam 680gtx i problem z obsługą HDTV) jednak jeśli chodzi o nowe gry to FXAA bardzo się im udał, dotychczas raczej wyłączałem AA gdyż za dużo kosztowała, teraz nie muszę.</p>

     

    nie wspominając już faktu że Radeon może pojechać na sporo wyższym zegarze.

    Na Overclockersclub masz zawsze recki MAX OC każdej karty, polecam stronkę.

    http://www.overclockersclub.com/reviews/nvidia_gtx680/4.htm

    Średnio 10fps więcej dla 680, w dircie odskoczyła od radeona o 40fps. Można jednak powiedzieć że to przypadek a normalnie różnice są bardzo małe. Można nawet powiedzieć że to ta sama wydajność. Na bank AMD i Nv uzgadniają między sobą co i kiedy wydać, to dziwny zbieg okoliczności że tu i tam te same technologie i wydajność w tym samym czasie, inaczej już dawno widzielibyśmy upadek jednej z nich, tak jak to było z 3dfx'em który nie potrafił zawczasu zaimplementować T&L

     

  21. problemów typu ban? Czyli co, za MSAA banują? Ja włączałem FXAA z poziomu gry i żadnego blura nie zaobserwowałem...

    chodzi o injectory, rzeczy typu Punkbuster skanują twoja grę i MOŻE UZNAĆ (choć nie musi)że injector też kwalifikuje się jako niedozwolona modyfikacja. Kilka dni temu tutaj na benchmarku czytałem w komentarzach o takim przypadku w diablo 3, tylko nie pamiętam czy był news czy przeczytałem to w komentarzu. Z tym FXAA z poziomu gry sam się zdziwiłem czemu takie różnice, poczytałem trochę i okazało się że ten filtr jest w pełni programowalny i od twórcy gry zależy jak zostanie wykorzystany. Do injectorów jest wiele pluginów i każdy daje ci trochę inną jakość. Z tego co testowałem to jednak żaden z nich nie umywa się do jakości AA jak włączę FXAA w panelu Nv, po prostu obraz nie jest tak rozmazywany. Myślę że po prostu Nv lepiej napisała FXAA niż ci twórcy gier, to masakrycznie widać w alan wake :(, wszystko traci ostrość kontur, dlatego wyłączam to z poziomu gry a włączam z poziomu sterów i już wszystko wygląda jak trzeba (sama gra ma wymuszone 2x MSAA, jednak to jeszcze nie to, w tej grze masakrycznie widać aliasing).
×
×
  • Dodaj nową pozycję...