qrdel 0 Napisano 8 Listopada 2009 Udostępnij Napisano 8 Listopada 2009 Cóż by innego jak fan boy. Tylko żeby tacy akurat czytali o czym mowa:) Fanboy AMD ktory we wszystkich obecnych stacjonarkach ma nV . Acha. No tak, dowiedzialem sie pana 'doswiadczonego' cos nowego o sobie ;D. Forum jest po to zeby wyrazac swoja opinie na dany temat. Ja wyrazilem swoja, a Ty powinienes ja uszanowac, bo taka jest podstawa dobrego wychowania. Czemu wspomnialem o graniu? Bo do pracy nie wybiera sie GeForcow, tylko nV ma przygotowane specjalne karty graficzne dla profesjonalistow, po astronomicznych cenach. Jak ktos mi pisze o Fermi, to wlacza sie zaroweczka... granie, photoshop i filmy fullhd. Przy okazji wytykanie nowym forumowiczom ich statusu wsrod 'wyjadaczy' (~.~) jest oznaka sredniej wieku na poziomie gimnazjum, ale to juz tylko na marginesie . Az trudno uwierzyc, ze masz tyle lat ile piszesz ze masz :>. Slownik tez pasowaloby panie kolego opanowac dokladniej. 'Ktury' tu i tam boli my eyes bardzo mocno. Cytuj Link to post Share on other sites
Krzychu2009 0 Napisano 8 Listopada 2009 Udostępnij Napisano 8 Listopada 2009 Nie słyszałeś o tym że przy modyfikacji karty gtxxxx można przerobić gforce w professional-ną ?? to gratulacje. Wadą tego jest jedynie brak tak dużej ilości pamięci. A wydajność w programach profesjonalnych faktycznie wzrosła, ale nie znacznie. Nie jestem teraz w stanie dać potwierdzenia. Nie pamiętam gdzie to było. Cytuj Link to post Share on other sites
qrdel 0 Napisano 8 Listopada 2009 Udostępnij Napisano 8 Listopada 2009 Powodzenia przy przerobkach zatem . Co nie zmienia faktu, ze autor nie pisal nigdzie, ze chce cokolwiek przerabiac. Podkreslil nawet, ze kreca go gry. Skoro kreca go gry, to na ten moment najlepsza opcja dla komputerow high-endowych sa nowe radeony. Chlodniejsze, wcale nie mniej wydajne od GFow i w wiekszosci przypadkow sa tansze. Po co zatem pchac sie w cos co moze wyjdzie w marcu, a moze w lutym... 2011? o.O Cytuj Link to post Share on other sites
Krzychu2009 0 Napisano 8 Listopada 2009 Udostępnij Napisano 8 Listopada 2009 A ja mu polecam czekać?? Cytuj Link to post Share on other sites
wordowner 0 Napisano 9 Listopada 2009 Autor Udostępnij Napisano 9 Listopada 2009 chłopaki, spokój . Już znalazłem pewne rozwiązanie (acz niekoniecznie ostateczne) , niestety będę miał trochę mniej funduszy niż myślałem, więc wezmę coś do rozbudowy . Z tego co wyczytałem (a była tego masa) to cuda to wsparcie (głownie w sterach) gpu do obliczeń w programach graficznych, ale aby to wykorzystać to i sam program musi być pisany na GPU więc ATI również to wykorzystują , ati ma gorsze wyniki ale nie znaczne i właściwie nie robiące mi różnicy . Szczerze ? zawsze byłem za Zielonymi i niebieskimi , ale teraz bardziej rozsądnie i przyszłościowo lepiej wziąść amd i ati . Asus croshair III , 965 BE c3 , HD 5870 (jak ceny zejdą do 1000 zł to kupie drugą) a jeśli będe potrzebował czegoś bardziej profesjonalnego z nvidi to zawsze mogę ją do budy wpakować jako samą alternatywe do programów graficznych . Jak myślicie powinienem takie coś zrobić ? czy sprzedać telefon i miec te 2,5k wiecej i kupić nvidie i intela ? Cytuj Link to post Share on other sites
Krzychu2009 0 Napisano 9 Listopada 2009 Udostępnij Napisano 9 Listopada 2009 Rób jak chcesz. Ati ma stream, Skoro sprzedaż telefonu podniesie twoją produktywność i skróci czas pracy. To to zrób Proste. Możesz mieć nawet nokie 3310 na czas Żniw;) Ja już dawno przestałem inwestować w telefony;) Nie używam telefonów do zabawy, a do dzwonienia. Cytuj Link to post Share on other sites
wordowner 0 Napisano 9 Listopada 2009 Autor Udostępnij Napisano 9 Listopada 2009 no, tak , i tak tego telefonu (iphone 3gs) uzywam tylko do smsowania i dzwonienia.. no nic , zobaczymy . Cytuj Link to post Share on other sites
qrdel 0 Napisano 9 Listopada 2009 Udostępnij Napisano 9 Listopada 2009 Moim zdaniem dobry wybor. Sprzet jak najbardziej przyszlosciowy, a skoro dodatkowo uwazasz, ze nie stracisz zbytnio na zakupie HDka, to tym lepiej dla Ciebie. Bedzie chlodniej, ciszej i na podobnym poziomie jezeli chodzi o wydajnosc. Btw, my sie nie klocilismy, zwykla wymiana pogladow . Cytuj Link to post Share on other sites
wordowner 0 Napisano 10 Listopada 2009 Autor Udostępnij Napisano 10 Listopada 2009 no, tak , i tak tego telefonu (iphone 3gs) uzywam tylko do smsowania i dzwonienia.. no nic , zobaczymy .no to zależy na czym komu zależy, procek sobie poradzi ze wszystkim bez problemu a radeon hd 5870 jest najlepszy na rynku a mi głównie o grafe chodzi Cytuj Link to post Share on other sites
seryoga 0 Napisano 10 Listopada 2009 Udostępnij Napisano 10 Listopada 2009 Czekaj, czekaj. Ja czekam Chociaż na dwurdzeniowe Fermi poczekam pewnie jeszcze dłużej, bo premierę będą miały zapewne później od jednordzeniowych Ale cóż... Napewno warto Cytuj Link to post Share on other sites
IronFe 221 Napisano 10 Listopada 2009 Udostępnij Napisano 10 Listopada 2009 @wordowner dodaj do zestawu GF 9600 i będziesz miał CUDA Cytuj Link to post Share on other sites
Krzychu2009 0 Napisano 10 Listopada 2009 Udostępnij Napisano 10 Listopada 2009 Tak tak słuchaj się ludzi i kup wydajne 9600gt do cuda rolf. Niektórzy próbują na siłę hehe. Zależy jak mocno chce cudować. Może i cuda są ale dla lepszego efektu gtx285 heh Cytuj Link to post Share on other sites
IronFe 221 Napisano 10 Listopada 2009 Udostępnij Napisano 10 Listopada 2009 a co w tym dziwnego ze radeon będzie podstawową kartą do wyświetlania obrazu a GF 9600 do obliczeń fizyki ???? Cytuj Link to post Share on other sites
Krzychu2009 0 Napisano 10 Listopada 2009 Udostępnij Napisano 10 Listopada 2009 Ale nie samą fizyką człowiek żyje, CUDA a physx to dwie różne sprawy!!! A do physx polecił bym mu co najmniej 9600gso;) Cytuj Link to post Share on other sites
ivanos 112 Napisano 8 Grudnia 2009 Udostępnij Napisano 8 Grudnia 2009 steelek Btw... 5870 jest lepszy od 295 a wy mowicie ze 5870x2 bedzie taki jak gtx295... ludzie pomyslcie co piszecie. Oj oj widzę że się zagalopowałeś Od kiedy HD 5870 jest lepszy i szybszy od GTX 295 ?? Ta pierwsza ma jedynie mniejsze zapotrzebowanie na prąd szczególnie w trybie 2D,a tak to nic poza tym.Wydajność obydwu kart jest bardzo podobna i zdarzają się tytuły w których nowy Radzio wygrywa choć nieznacznie,ale są też takie w których prym wiedzie GTX 295.Polecam poczytać więcej testów tych kart lub przeglądnąć filmiki na You tube Cytuj Link to post Share on other sites
y0ddh4 10 Napisano 8 Grudnia 2009 Udostępnij Napisano 8 Grudnia 2009 Tylko, że HD 5870 jest w 40 nm i ma DX 11 Cytuj Link to post Share on other sites
Zeratul 1 Napisano 8 Grudnia 2009 Udostępnij Napisano 8 Grudnia 2009 steelek Btw... 5870 jest lepszy od 295 a wy mowicie ze 5870x2 bedzie taki jak gtx295... ludzie pomyslcie co piszecie. Oj oj widzę że się zagalopowałeś Od kiedy HD 5870 jest lepszy i szybszy od GTX 295 ?? Ta pierwsza ma jedynie mniejsze zapotrzebowanie na prąd szczególnie w trybie 2D,a tak to nic poza tym.Wydajność obydwu kart jest bardzo podobna i zdarzają się tytuły w których nowy Radzio wygrywa choć nieznacznie,ale są też takie w których prym wiedzie GTX 295.Polecam poczytać więcej testów tych kart lub przeglądnąć filmiki na You tube dokładnie tak jak mówi Stachu...wydajność to nie wszystko obie karty mają podobny poziom wydajności i albo obie gwarantują płynną rozgrywkę, albo nie...rzadko zdarza się tak, że jeśli jedna nie osiąga stabilnych 35 fps'ów to robi to druga itp. natomiast Radeon wygrywa tu zdecydowanie tym co oferuje oprócz wydajności...przede wszystkim funkcjonalnością jednego rdzenia, niższym poborem prądu, niższym procesem technologicznym, technologią Eyefinity oraz (teoretycznie) wysokim O/C pozdrawiam Cytuj Link to post Share on other sites
Fifilipek 0 Napisano 8 Grudnia 2009 Udostępnij Napisano 8 Grudnia 2009 Dlaczego GeForce? Jak masz być grafikiem to raczej jakieś Quadro? Nvidia chwali się że te karty są dwa razy wydajniejsze od najlepszych GeForce'ów. Cytuj Link to post Share on other sites
ivanos 112 Napisano 15 Grudnia 2009 Udostępnij Napisano 15 Grudnia 2009 Tylko, że HD 5870 jest w 40 nm i ma DX 11 Może mieć nawet DX 20 i proces 20nm,ale tu chodzi o wydajność obydwu kart,która jest bardzo podobna.Zresztą to DX11 jak na razie jest w powijakach i gry na nim oparte dopiero co się ukazują,a też nie w pełni korzystają z dobrodziejstw nowego API.Zresztą sama wydajność w DX 11 nie jest oszałamiająca widząc testy nowych HD 5000 w benchmarku Unigine Heaven Cytuj Link to post Share on other sites
Zeratul 1 Napisano 15 Grudnia 2009 Udostępnij Napisano 15 Grudnia 2009 Tylko, że HD 5870 jest w 40 nm i ma DX 11 Może mieć nawet DX 20 i proces 20nm,ale tu chodzi o wydajność obydwu kart,która jest bardzo podobna.Zresztą to DX11 jak na razie jest w powijakach i gry na nim oparte dopiero co się ukazują,a też nie w pełni korzystają z dobrodziejstw nowego API.Zresztą sama wydajność w DX 11 nie jest oszałamiająca widząc testy nowych HD 5000 w benchmarku Unigine Heaven co racja to racja...ale gier na DX11 będzie coraz to więcej, a GT 300 nie wiadomo kiedy będzie miało premierę ponad to nie rozumiem Twojej niejako kpiny z niskiego procesu technologicznego - jest on bardzo ważny... pozdrawiam Cytuj Link to post Share on other sites
Igoruss 5141 Napisano 15 Grudnia 2009 Udostępnij Napisano 15 Grudnia 2009 Twojej niejako kpiny z niskiego procesu technologicznego - jest on bardzo ważny...owszem jest bardzo ważny ale nie ma żadnego wpływu na wydajność Cytuj Link to post Share on other sites
mICh@eL 335 Napisano 15 Grudnia 2009 Udostępnij Napisano 15 Grudnia 2009 Polecam poczytać więcej testów tych kart lub przeglądnąć filmiki na You tube A ja polecam zapoznać się z terminem "microshuttering" i dopiero zabrać głos w sprawie kart graficznych z dwoma GPU... Może mieć nawet DX 20 i proces 20nm,ale tu chodzi o wydajność obydwu kart,która jest bardzo podobna.To, że śmiejesz się z procesu technologicznego świadczy o tym, że jesteś niedoinformowanym fanboy'em... :> Cytuj Link to post Share on other sites
Zeratul 1 Napisano 15 Grudnia 2009 Udostępnij Napisano 15 Grudnia 2009 Twojej niejako kpiny z niskiego procesu technologicznego - jest on bardzo ważny...owszem jest bardzo ważny ale nie ma żadnego wpływu na wydajność ale powiedz...czy mają 2 karty, jedną ATi i jedną nVidia o wydajności, która zawsze gwarantuje płynną rozgrywkę (nawet przy "zadymach" w strzelankach i strategiach) wybierzesz kartę, która pobiera mniej prądu i lepiej się podkręca, czy kartę, która przy frameracie rzędzu min 50 fps ma 3 klatki przewagi nad tą drugą dla mnie jest to oczywiste...a powyższa sytuacja IMO dobrze obrazuje sytuację na rynku w segmencie ~1400zł pozdrawiam Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.