Skocz do zawartości

Najświeższe szczegóły dotyczące GF100


Recommended Posts

Wymagana płyta główna z dwoma złączami PCI-Express, oraz dwie 460'tki zjedzą więcej prądu niż 480'tka. Ale co prawda to prawda - również jestem zdania, że bardziej opłacalny jest słabszy duet - w tym przypadku.

Duet ten jest silniejszy. Zdecydowanie. I chłodniejszy. C_H_Ł_O_D_N_I_E_J_S_Z_Y_!

Link to post
Share on other sites

Radeon HD 6970 kontra GeForce GTX 580. NVIDIA zaskoczy wszystkich, tuż przed końcem roku?

 

 

Zbędny balast precz. Rok 2010 chyli się ku końcowi i na ostatniej prostej AMD i NVIDIA powalczą o pozycję producenta najwydajniejszego GPU'2010. Z najnowszych doniesień z sieci wynika, że NVIDIA wyciągając wnioski z architektury procesora GF100, teraz kieruje się wprost na zwycięstwo i oddanie AMD poważnego ciosu.

 

W czasie gdy AMD jedynie dopieszcza architekturę układów Evergreen (Radeony HD serii 5000), NVIDIA postanowiła zmienić nastawienie i rozdzielić to, co wraz z architekturą Fermi próbowała połączyć. Procesor GF100 jest wciąż najpotężniejszą, graficzną jednostką obliczeniową, ale jego uniwersalność ciągnie za sobą spory bagaż. Stopień skomplikowania GPU sprawił, że obok wysokiej wydajności jest też wysoki pobór energii oraz poziom wytwarzanego ciepła.

 

NVIDIA postanowiła z tej lekcji wyciągnąć wnioski i, dokładnie jak w czasach serii GeForce FX, zmienić architekturę, w ramach której jeden GPU musiał udźwignąć zbyt wiele. Dlatego też karta GeForce GTX 580 oparta będzie na procesorze GF110, który co prawda wywodzi się od GF100, ale zmiany w nim wprowadzone mają znacząco wpłynąć na jego funkcjonowanie, wydajność oraz "prądożerność".

 

W przeciwieństwie do poprzednika, GF110 nie będzie łączyć w sobie funkcji "dla każdego". Nowy procesor, a raczej jego architektura, jest ukierunkowana wyłącznie na gry, a więc karty konsumenckie. Z GF110 wypada zatem zastosowanie go przez korporacje oraz serwery.

 

Skutkiem tego będzie wycięcie specjalistycznych jednostek, zapewniających funkcje typu HPC (High Performance Computing). Nie oznacza to oczywiście, że GF110 nie jest już układem typu GPGPU. Obsługa CUDA pozostaje, ale względem GF100, GF110 stracił około 300 milionów tranzystorów i w obliczeniach równoległych nie będzie już tak wydajny, jak jego poprzednik. Różnice mają być zauważalne przede wszystkim w zestawieniu z produktami serii Tesla, a więc nie w przypadku zastosowań "domowych".

 

Dla "Kowalskiego" wszystko ma być czystym zyskiem. Dzięki przeprojektowaniu architektury, wycięcia z jej ram HPC, wykorzystaniu dojrzałego procesu produkcyjnego, GF110 ma zapewniać wyraźnie lepszą wydajność w grach i to przy relatywnie niższym poborze energii. W nowym procesorze wykorzystano wszystkie 16 klastrów multiprocesorów strumieniowych, dzięki czemu ma on łącznie 512 rdzeni CUDA. To oznacza jednocześnie dostęp do większej ilości jednostek teksturujących oraz ROP.

 

Kontroler pamięci RAM pozostawiono bez zmian. Zmieniono natomiast częstotliwość pracy układów GDDR5 - z 3,7 do 4 GHz. Także częstotliwość samego GPU została zwiększona, nawet znacząco, bo z 700 do 775 MHz.

 

Przepustowość pamięci wynosi teraz 192,4 GB/s, a wydajność wypełniania tekstur niemal 50 gigatekseli (dokładnie 49,4). Według źródeł serwisu NordicHardware, GeForce GTX 580 pozostawi kartę Radeon HD 6970 w tyle, przyjmując koronę najwydajniejszego GPU bieżącego roku. Jeśli informacje na temat obniżonego poboru energii także potwierdzą się, to może dla odmiany to AMD będzie w kłopocie?

 

Cóż. Dawno nie było w pełni optymistycznych (nawet nieoficjalnych) wieści na temat kart graficznych NVIDII. Chyba byliśmy cierpliwi i zasłużyliśmy sobie na taką odmianę :-) .

 

No no koniec roku zapowiada się ciekawie :):D:wariat:

Link to post
Share on other sites

kradzież, złodziej, na stos! :) Spalić go! A części z komputera sprzedać na allegro i przeznaczyć na głodujące korporacje!

 

Wracając do tematu.

Duet ten jest silniejszy. Zdecydowanie. I chłodniejszy. C_H_Ł_O_D_N_I_E_J_S_Z_Y_!

 

Miałem na myśli, że karty same w sobie są słabsze - w duecie oczywiście biją 480-tkę, nawet HD5970.

 

Ale różnica w poborze to nie 15-20 W, a sporo więcej. GTX480 nie pobiera 300W :D

 

I co do ciepła - jeśli coś pobiera więcej prądu to musi być cieplejsze. Ogólna ilość oddanego ciepła przez oba układy powinna być większa niż w przypadku jednego GTX480.

 

Jednak osobiście bym się nie przejmował ani ciepłem, ani poborem 320W, tylko cieszył się z większej wydajności za mniejszą kasę.

Link to post
Share on other sites

...I co do ciepła - jeśli coś pobiera więcej prądu to musi być cieplejsze...

Tu się mylisz. Zgadzam się, że 2xgtx460 wyprodukuje więcej energii cieplnej niż jeden gtx480, ale temperatury kart wciąż będą niższe, ponieważ mimo, że 460-tki będą produkować razem więcej energii, ta energia nie przypada na 1 element. Wyjaśnię to obrazowo - czy jeśli ustawimy dwa grzejniki na np. 30 stopni to czy temperatura w pokoju będzie wynosiła 60? Chyba nie :).
Link to post
Share on other sites

Tu się mylisz. Zgadzam się, że 2xgtx460 wyprodukuje więcej energii cieplnej niż jeden gtx480, ale temperatury kart wciąż będą niższe, ponieważ mimo, że 460-tki będą produkować razem więcej energii, ta energia nie przypada na 1 element. Wyjaśnię to obrazowo - czy jeśli ustawimy dwa grzejniki na np. 30 stopni to czy temperatura w pokoju będzie wynosiła 60? Chyba nie :).

 

A czy ja mówiłem, że temperatury poszczególnych kart będą wyższe niż na jednym GTX480? :D W tym przypadku chodzi o to, że dwa GTX460 bardziej podgrzeją atmosferę w komputerze niż jeden GTX480, temperatury samych kart może i będą niższe, ale cała reszta będzie cieplejsza.

 

GTX460 nie daje rady HD5850, a HD5970 to więcej niż dwa HD5850

Odsyłam Cię do testów mądralo :wariat: SLI skaluje się lepiej niż CrossFire w serii HD58x0.
Link to post
Share on other sites
Gość usunięty

GTX460 nie daje rady HD5850, a HD5970 to więcej niż dwa HD5850

Odsyłam Cię do testów mądralo :) SLI skaluje się lepiej niż CrossFire w serii HD58x0.

Masz rację. 2xGTX460 1GB (OC/SOC) > 1xGTX480 > 1xGTX470 > 1xHD5870 > 1xHD5850.

Nie znalazłem jednak nigdzie testu z HD5970.

Co do skalowania to oba CF/SLI systemy multi-gpu skalują się z miesiąca na miesiąc coraz lepiej.

 

http://img.hexus.net/v2/graphics_cards/nvidia/gigabyte/GTX470SOC/graph-22.jpg

 

 

http://tpucdn.com/reviews/ATI/Radeon_HD_6850_CrossFire/images/perfrel.gif

Jeśli przyjąć, jak to jest w teście, że GTX460 1GB = HD6850 i ze skalują się tak samo (a w SLI nawet lepiej) to niestety, ale 2xGTX460 jest wydajniejsze od najsilniejszej jednoprocesorowej karty... A co dopiero po OC GTX'ów - a wiadomo, że bardzo dobrze się podkręcają :D

Link to post
Share on other sites

http://www.xbitlabs.com/articles/video/display/gf-gtx460-sli_12.html#sect0

 

Wszystko zależy od platformy testowej, do doboru gier itd. W linku ode mnie gdy porównamy wyniki w najbardziej znaczącej ostatnio rozdzielczości - fullHD - wychodzi na to, że w większości przypadków karty są siebie warte, czasem HD5970 jest szybsze o 10%, zaś czasem GTX460SLI jest szybsze o 20% (w H.A.W.X. nawet o 50%). Jeśli weźmiemy pod uwagę, że Dwa GTXy z 768 MB kupimy za 1000-1200zł, zaś wersje z 1 GB nieco drożej, zaś samo HD5970 kosztuje bodajże dwa klocki (niedawno 2400 było) To dla mnie AMD z tego porównania wychodzi zmiażdżone.

 

Ale, ale - mamy HD6870 :)

Link to post
Share on other sites

ciekawe czy zrobia 560 z g104 pełnym, a moze nazwa go g114?, fajnie by bylo, albo odrazu zaatakowac dwuchipowym potworkiem?, tylko ze przy cenie 2k za 580 musiala by kosztowac ponad 3 kola :hahaha:, a to juz nie fajnie.

 

No jeszcze tydzien do premiery, sie okaze, dawno nvidia tak szybko nie wypuszczala kart.

Link to post
Share on other sites

tak GTX 560 to będzie pełny g104

GeForce GTX 570 miałby pojawić się przed końcem roku i zastąpić GTX 470, kiedy ten drugi zacząłby znikać z magazynów. Przypuszcza się, że ilość jednostek SP w GeForce GTX 570 byłaby większa (480?). Z kolei GTX 560 powstałby na pełnym układzie GF104 (384 procesory CUDA) i oczywiście wygryzł z rynku świetnego GTX 460. W tym przypadku NVidia zapewne nie uśmierci od razu swojego „złotego” dziecka i może poczekać z premierą do pierwszego kwartału 2011 roku.

http://www.purepc.pl/sprzet_pc/karty_gr ... horyzoncie
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...