Skocz do zawartości

GTX660 SLI


Idź do rozwiązania Problem ogarnięty przez Gość effendi360,

Recommended Posts

Myślę że SLI ma sens tylko w przypadku najmocniejszych kart gdzie dla uzyskania większej wydajności można już tylko dokładać kolejne CPU. Dodatkowo SLI to więcej ciepła, większe zużycie prądu, większe obciążenie CPU. Lepiej wziąć jedną kartę na przykład jakiegoś hd7970.

Link to post
Share on other sites

Z Twojej sygnatury wynika, że jesteś posiadaczem 670-ki. Dlaczego nie 670 SLI?

hmm za drogi gips :P

 

Myślę że SLI ma sens tylko w przypadku najmocniejszych kart gdzie dla uzyskania większej wydajności można już tylko dokładać kolejne CPU. Dodatkowo SLI to więcej ciepła, większe zużycie prądu, większe obciążenie CPU. Lepiej wziąć jedną kartę na przykład jakiegoś hd7970.

Popatrz tylko na testy tych dwóch 660tek jak sobie świetnie radzą :D

Link to post
Share on other sites

Myślę że SLI ma sens tylko w przypadku najmocniejszych kart gdzie dla uzyskania większej wydajności można już tylko dokładać kolejne CPU. Dodatkowo SLI to więcej ciepła, większe zużycie prądu, większe obciążenie CPU. Lepiej wziąć jedną kartę na przykład jakiegoś hd7970.

A HD 7970 po OC ma większy pobór niż GTX 660 SLI :) 

  • Popieram 4
Link to post
Share on other sites

A HD 7970 po OC ma większy pobór niż GTX 660 SLI :)

Gdzie znalazłeś te testy? GeForce GTX 660 SLI 390W, a AMD HD 7970 380W. (No ale te 10W to prawie nie różnica.) Dodatkowo dwie karty będą miały dużo wyższą temperaturę niż jedna. :) Dalej nie widzę sensu, chyba że chcesz się tym trochę pobawić dla funu. :P 

Edytowane przez royceda59614
Link to post
Share on other sites
  • Rozwiązanie
Gość effendi360

Co wy z tym 660 sli ?

 

Bo effendi360 jakieś dwa czy trzy tygodnie temu z ciekawości postanowił sprawdzić jak by takie coś się sprawowało, odnalazł test i wrzucił na forum. Jeszcze teraz gtxxor to zakupił i ma ten tandem u siebie więc wszyscy dostali "nagłego" olśnienia :D Przypisuję sobie te zasługi, może niesłusznie ale nie zauważyłem aby ktoś przede mną polecał takie rozwiązanie tu na forum. Powinni mnie teraz mianować do tytułu "zasłużony". :D

 

Jak się okazuje w najtańszej opcji dostajemy za 1600zł tandem, który wydajnością w grach goni dwa i pół raza droższego titana a różnice między a topowymi akceleratorami 680/7970 w grach dochodzą do 20/30 klatek ! Dodajmy do tego, że do obsłużenia obu karcioszek wystarczy zasilacz o mocy 550W a pobór prądu w grach nie przekracza tego co łyka zestaw z pojedynczym 670 na pokładzie - głupim trzeba być żeby tego nie brać pod uwagę przy zakupie nowego komputera. Ludzie, nie bójcie się. To naprawdę działa i działa dobrze. Nvidia dba o wsparcie software jak może. Teraz wyszła poprawka do tomb raidera a nawet taki gó*****y (w sensie, małego kalibru, bo mi sie gra podoba :D ) produkt jak sniper elite nazi zombie army załapał poprawkę, bo gra jest pod amd i cholernie cięła a po aktualizacji, śmiga jak żyleta, gdzie mogli sobie taki niszowy produkt olać i pewnie nikt by się specjalnie nie przejął.

Edytowane przez effendi360
  • Popieram 6
Link to post
Share on other sites

Gdzie znalazłeś te testy? GeForce GTX 660 SLI 390W, a AMD HD 7970 380W. (No ale te 10W to prawie nie różnica.) Dodatkowo dwie karty będą miały dużo wyższą temperaturę niż jedna. :) Dalej nie widzę sensu, chyba że chcesz się tym trochę pobawić dal funu. :P 

Dodaj sobie sufiks "OC" i masz skąd to wziąłem... a tak btw. 660 może pobierać maks 150W z tytułu specyfikacji złącza PCI-E i wtyczki 6-pin, więc 2 sztuki w krytycznych warunkach nie mają prawa zjeść więcej niż 300W. A ty podałeś pobór platformy :P

 

 

 

http://www.morele.net/karta-graficzna-gigabyte-radeon-hd-7970-3gb-ddr5-384-bit-hdmi-dvi-i-minidp-box-gv-r797oc-3gd-449959/ nic tylko brać . Albo poszukać na aledrogo wersje z odblokowanymi zmianami napięć .

Fanboy. 

  • Popieram 1
Link to post
Share on other sites
Gość effendi360

 

Dodatkowo dwie karty będą miały dużo wyższą temperaturę niż jedna.

 

Bzdury piszesz. Przy odpowiednio przemyślanym chłodzeniu i dobrej wentylacji budy temperatury nie stanowią żadnego problemu dla sli. Miałem to wiem.

  • Popieram 2
Link to post
Share on other sites

No nie wiem chyba wystrzelałem się z argumentów. :D Chyba Cię nie przekonam.

Albo, mam jeszcze jedno. Mikroprzycięcia które czasem jeszcze występują i niepotrzebne dociążenie CPU które w grach sieciowych może zrobić różnicę. To wszystko co mam na nie. Ale jeśli złożysz te SLI to nie zrobisz złego dealu :D. Tylko po co pytasz? Skoro znasz odpowiedzi na wszystkie pytania :P

Link to post
Share on other sites

Bo effendi360 jakieś dwa czy trzy tygodnie temu z ciekawości postanowił sprawdzić jak by takie coś się sprawowało, odnalazł test i wrzucił na forum. Jeszcze teraz gtxxor to zakupił i ma ten tandem u siebie więc wszyscy dostali "nagłego" olśnienia :D Przypisuję sobie te zasługi, może niesłusznie ale nie zauważyłem aby ktoś przede mną polecał takie rozwiązanie tu na forum. Powinni mnie teraz mianować do tytułu "zasłużony". :D

Jam coś przebąknął wcześniej gdy zmieniałem radka HD7850, ale to sie nie liczy bo nie wrzuciłem testów , które przeglądałem :D

 

Up, dajcie sobie spokój z tymi mikroprzycięciami, tego już praktycznie nie ma na MultiGPU. Jeśli masz dobrą płytę , która obsłuży SLI to nic tylko brać :rotfl:SLI z dwóch 660tek to piękna rzecz 8-)

Edytowane przez Rafcio1874
Link to post
Share on other sites

Chyba nie wiesz bo jak byś wiedział to byś tego nie zrobił wyświetlany FPS w tych technologiach nie ma nic wspólnego z realiami masz 80fps a tak w rzeczywistości masz 60fps. Powodzenia w far cry 3 tam się przekonasz o co chodzi.



kolego popatrz do tego tematu kto jest na czele  w multi-gpu

http://forum.benchmark.pl/topic/73149-3dmark-2013/

I zawsze wybiore jedną mocniejszą kartę mimo że ogólnie będzie 15% w fps słabiej ogólnie niż jakiekolwiek rozwiązanie multi szczególnie ze słabszych modeli.

Link to post
Share on other sites

Dodaj sobie sufiks "OC"

 i masz skąd to wziąłem... a tak btw. 660 może pobierać maks 150W z tytułu specyfikacji złącza PCI-E i wtyczki 6-pin, więc 2 sztuki w krytycznych warunkach nie mają prawa zjeść więcej niż 300W. A ty podałeś pobór platformy :P

Tak podałem pobór całej platformy i jest większy więc :P I bez dodawania "sufiksu "OC" " potrafię doczytać czy to po OC czy bez :) 

Ale jeśli temp pojedynczej 660 pod obciążeniem  to jakieś 75 stopni, a temp HD to 80 stopni w Furmarku to jakim cudem to SLI ma się niby nie grzać?

Zresztą tak jak pisze kolega wyżej

 

Chyba nie wiesz bo jak byś wiedział to byś tego nie zrobił wyświetlany FPS w tych technologiach nie ma nic wspólnego z realiami masz 80fps a tak w rzeczywistości masz 60fps. Powodzenia w far cry 3 tam się przekonasz o co chodzi.

Link to post
Share on other sites

Maxforces, gdybyś mógł, zamieniłbyś te dwie karty na Titana? :menda: Bo to by był wydajnościowo krok wstecz.

 

Chyba nie wiesz bo jak byś wiedział to byś tego nie zrobił wyświetlany FPS w tych technologiach nie ma nic wspólnego z realiami masz 80fps a tak w rzeczywistości masz 60fps

To akurat ciekawe %-) Karty wygenerują 80 kl/s a w rzeczywistości jest 60, tak %-) ?

Edytowane przez Rafcio1874
Link to post
Share on other sites
Gość
This topic is now closed to further replies.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...