-
Liczba zawartości
480 -
Rejestracja
-
Ostatnia wizyta
Typ zawartości
Profile
Blogi
Forum
Kalendarz
Posty dodane przez walazz
-
-
hd5670 za 118PLN to dobra oferta
http://allegro.pl/karta-graficzna-radeon-r5670-cyclone-1gb-i3945414377.html
-
Ale to nie jest E5, tylko niby-Xeon pod S1150. Wydajnościowo niczego nie oferuje ponad i7 S1150 i mobilne i7QM. Nie ma co się jarać samą nazwą.
Xeon e3 to "niby" i5 ale ma 2mb cache więcej i instrukcje.
Także opłaca się brać xeony i tyle.
Nawet na LGA1366 xeony 6c/12t są po ok. 500PLN.
Także nie opłaca się patrzeć na innych że jarają się nazwą xeon skoro xeony są tańsze od i7 niby nie xeonów.
-
Albo HD7750 DDR5!!!!
-
Będzie.
Dlaczego opłaca sie wymienić? Proste, hd6670 jest lepszy bo:
hdmi ma w wyższej wersji która przenosi dźwięk (9600gt przenosi tylko video)
jest wydajniejsza na oko 30-40% i wspiera nowe biblioteki
pobiera ok. 50% prądu tego co 9600gt
ale lepiej zainwestuj w HD5750 lub HD5770 - sa dużo szybsze (~40% od HD6670)
-
A moze ktos chce kupic tego gtx650ti za mnie?
ten koles by sie z kurierem za 350 przez allegro od reki zgodzil
bo wlasnie sie zastanawiam - na mojej mam direct cu a tam nie
Słaby jest ten GTX650TI!!!!Mój regularny HD7770 z direct CU jest nie do porównania - jeśli chodzi o kulturę pracy, po prostu wiatrak jest w asusie bezgłośny , w palicie lekko słychać, no i cewek nie słychać w asusie a w palicie mimo wszystko słychać lekki szelest........... Dla mnie nie do przyjęcia. Cenowo nvidia wychodzi bardzo słabo. Okazyjnie - w cenie praktycznie nie do kupienia - za 300PLN GTX650TI w lipnym wydaniu palita to skandal przy pierwszym lepszym dostępnym prawie od ręki HD7770 z directCu.
Normalna cena karty na rynku to ok. 350-360PLN za używkę a za 300zł HD7770 jest po prostu lepszy.
To co że w kliku grach będzie 3-5FPS więcej.
Nawet sprawdziłem wydajność CUDA vs AMD APP. Konwersja tego samego pliku h264 na MOV (quicktime) (1080p) wygląda tak że na gtx650ti przerobienie wymaga 26,5 sek. a na hd7770 tylko 19,3.Dodam że kiedyś porównywałem GTX650 zwykły do HD7750 w cinebench opengl i różnica między nimi była ogromna. Czterdziści parę FPS gtx650 do ponad siedemdziesiąt na HD7750.
Poza tym nvidia inaczej wyświetla obraz. AMD daje wszystko pięknie wyrównane do 16:9 - chodzi o np. bios. Nvidia ta co miałem zmniejszała rozmiar i to wyglądało bardzo sztucznie, mniej czytelnie (chodzi o wszystko poza systemem operacyjnym).
Nvidia = lipa jak dla mnie.
Coś mi się zdaje że fascynacja nvidią przysłania ludziom oczy bo jak widzę to jedyną opłacalną kartą nvidii na dzisiaj w przedziale do 1000PLN jest tylko i wyłącznie GTX660 i nic więcej. W każdej innej kategorii cenowej karty z chipami AMD biją każdą inną nvidię na głowę.
Przypomina mi się taka sytuacja śmieszna (jak dla mnie). Jak koledze wybierałem części do komputera to sprzedawca w komputroniku wciskał na siłę GTX650. Cena? Bodajże 420PLN. Oczywiście kolega który nie zna tematu od razu łyknął by ją bo to przeciez DŻIFORS. Na pytanie czy tańszy o 60PLN HD7770 jest szybszy sprzedawca komputronika odpowiedział że jest "porównywalny". Szkoda że ani sprzedawca ani kupujący nie mieli ZIELONEGO (SIC!) pojęcia. Jednemu zamieszała w głowie nazwa "dżifors" a drugiemu sztuczne zawyżenie sprzedaży.............
Np. Byle co na AMD jest tak samo szybkie ale ma np. lepsze chłodzenie i niższą cenę.
No i to całe CUDA................ AMD APP zdaje mi sie po prostu lepsze.
Gdzie do ludzi z tymi cenami GTX650TI przy takich ofertach...........
http://allegro.pl/asus-hd7770-1g-ddr5-1020-4600-mhz-gwarancja-i3937478059.html
W takiej cenie nie kupi się nawet GTX650 (bez TI).
-
-
P4656 with NVIDIA GeForce GTX 650 TI and Intel Core i5-3330 - LINK - walassios
słaby jest gtx650ti........... na serio więcej sobie obiecywałem po tej karcie
mój regularny HD7770 z direct CU jest nie do porównania - jeśli chodzi o kulturę pracy, po prostu wiatrak jest w asusie bezgłośny , w palicie lekko słychać, no i cewek nie słychać w asusie a w palicie mimo wszystko słychać lekki szelest...........
-
Proste jak drut.
XEON.
Xeony też mają swoje ceny.
- 1
-
W takiej cenie?
-
GTX650TI za 300pln to się opłaca czy nie? chodzi o palita 1gb ddr5 - tyle z odbiorem osobistym mnie będzie kosztował
przesiadka z hd7770 direct-cu
-
Jaki ram?
1. NORMALNY
2. DDR3
3. KOMPATYBILNY
4. TAKI NA KTÓREGO CIĘ STAĆ
I tak nie zrobi ten ram większej różnicy. Pomiędzy ddr3 1066 a 1600 różnice w wydajności są marginalne.
-
Napisz pismo do prokuratury że podejrzewasz oszustwo.
-
Dla mnie lga1366 jest troche............... procesory może tanie ale płyty bardzo drogie.
Jak by się udało złapać tanią i dobrą płytę to CPU za 5 stów są już mocne, nawet 6core12threads.
http://allegro.pl/intel-xeon-l5638-s-1366-6rdzeni-rarytas-oc-3-0ghz-i3905655924.html
Albo 4core8threads za 230PLN od ręki.............
http://allegro.pl/xeon-e5530-4-8-ht4-x-2-53ghz-x58-lga1366-jak-i7-i3908201415.html
Kwestia problemowa to ......... płyta główna. Chłodzenie też jest chyba inne.
jeżeli ktoś poleca do i7 po OC (nawet do 3.5GHZ) spartana to chyba nie lubi autora tematu...
I7 to grzałki jakich mało! (920)
i do nich naprawdę potrzeba dobrego coolera!
Ja na moim megahalmsie ledwo trzymam 70 stopni w stresie na 3.6 Ghz
Boje się myśleć co by było na spartanie.
i7 920 BLOOMFIELD jest nieciekawy - dlatego tak tanio go spuszczają.
Te xeony w 32nm już są lepsze. Niektóre maja 4c8t i TDP = 60W
-
Jakiś czas temu były gtx660 firmy club z ładnym chłodzonkiem HP-Cu za 599 więc sprzedawanie gtxa660 używki bez gwarancji za 500PLN to żadna okazja.
Tak samo HD7770, używka jest warta mniej niż 300. Za swojego asusowego direct-cu dałem 270+kw i to było w miarę. Za 379PLN esc.pl miało club HD7790 nowego ale zorientowali się że to dobry biznes i szybko cena przekroczyła 400PLN.
Dolar trochę podskoczył i jest może i drożej ale nie znaczy że od razu można podnosić ceny już kupionych i zalegających w magazynach towarów.
Najlepsze zakupy można robić na CPU, i3 2100= 260PLN, i5 2400= 430PLN........ troche korci mnie i7 2600 ale coś mam pecha i ktoś mnie podkupuje co chwilę albo wychodzą jakieś dziwne problemy. Za 6 stów można znaleźć i7 2600 i to chyba najlepszy zakup jeśli chodzi o CPU - w szczególności że jest lutowany
-
Również uwielbiam wszystko co budżetowe (widać po sygnie hehe), gdyby nie chęć pogrania czasem w nowości to kto wie czym sobie takiego procka nie sprawił
Czy jest możliwość oc igpu tak jak w poprzednikach?
Pewnie tak. Na razie siedzę na i5 3330 znowu ale......... może mi się "odwidzi"
-
Na to wychodzi. Nie mogłem tylko znaleźć wyników z 3dmarka vantage żeby potwierdzić to w praktyce bo te obliczenia passmarka są dość specyficzne.
To jest ciekawe:
http://assets.hardwarezone.com/img/2012/10/3DMark_Vantage_3.jpg
http://www.xbitlabs.com/images/cpu/amd-fusion-intel-core-i3/3dmark-1.png
( http://www.xbitlabs.com/articles/cpu/display/amd-fusion-intel-core-i3_7.html )
http://i.imgur.com/C1oLNGDl.jpg
Innymi słowy G1820 jest mniej więcej odpowiednikiem w vantage A6-3500 lub I7 3770K + GT520
- 2
-
Nie uruchamiałem nic innego. Na g1610 uruchamiałem na integrze quake live @ 720p i ani razu nawet w największej rozwałce nie było spadku poniżej 60FPS. ( http://www.youtube.com/watch?v=Z4Wwb_iuMu4 ). Na G1820 uruchomiłem w 720p WAR THUNDER:
http://www.youtube.com/watch?v=4kyqC62Sszo
Moim zdaniem działa nieźle. Da się bez problemu grać na tej integrze ale jak to na integrach. Szału nie ma
Teraz zapuściłem radeona HD7770 na tego celka i WarThunder w 1080p ze wszystkim na max, filtrowaniami, teksturami, nawet trawą, wszystko co się da - nie ma spadku poniżej 30FPS a przeciętnie 38-45FPS. Grafika już na maxa musi być obciążona bo z celkiem wtedy pobór mocy = 112W czyli grafika osiągnęła swój max.
Wg. benchmarka passmark 8.0 (patrz wykresy passmarkowe) to igpu w G1820 jest na poziomie GT630 - pewnie chodzi o tą wersję ddr3 64bit.
- 1
-
- Popularne posty
- Popularne posty
Celeronowe "Tick-Tock" czyli G1820 HASWELL.1. Celeron - low end nie taki zły jak go malują.Życie nie znosi próżni - tak mawiają. Do grona HI-END oraz MID-END procesorów na kolejną nową podstawkę intela lga1150 wychodzi z dużym opóźnieniem kolejny procesor którego po prostu bakowało. Brakowało i to bardzo. Opóźnienie obiście zdaje mi się że było po prostu celowe. Żadnemu z producentów i dystrybutorów nie jest na rękę puszczanie w eter produktu który kosztuje dosłownie 1/4 ceny nowego i5 4440 który też nie oszukujmy się monstrum nie jest. Celerony to zawsze najniższe wydajnościowo procesory produkowane przez Intela. Czy to znaczy że są złe? Że do niczego się nie nadają?. Myślę że zły PR sprzedawców i brak wiedzy u klientów powoduje że ludzie kupują myszki gameingowe a nie zwykłe (wydając 150zł zamiast 30zł) oraz drogieprocesory do pracy biurowej zamiast np................ celerona płacąc 1/4 ceny. Bo to w końcu sprzedawcom zależy na tym by twierdzić że do przeglądania internetu trzeba mnieć mocny procesor a do korzystania z komunikatora internetowego i przeglądania www trzeba mieć przynajmniej łącze internetowe 5MBit - tak stwierdzili by sprzedawcy usług sieciowych... Ale przecież nie o dobro klienta chodzi w sprzedaży!. W tym momencie wiedza jest błogosławieństwem. Trzeba przyznać że wszystkie procesory wyprodukowane pod nazwą celeron to były po prostu "pocięte" procesory z danej architektury. Innymi słowy celeron to procesor który nie jest w jakiś sposób ułomny tylko co najwyżej ograniczony np. taktowaniem lub też wielkością pamięci cache w porównaniu do swoich hi-endowych odpowiedników. Dlaczego jest to tak ważne? Otóż patrząc w przeszłość widzimy że od kiedy firma Intel wypuściła procesory architektury Sandy Bridge do dnia dzisiejszego jest niedościgniona. Niedościgniona nie tylko wydajnościowo ale też i pod kątem oszczędzania energii, ceny czy wydajności per MHz i wat. Innymi słowy - celeron wydany w architekturze Sandy Bridge (G530!!!) okazał się bardzo udanym i opłacalnym dwurdzeniowcem. Oczywiście tak samo było z architekturą Ivy Bridge (G1610). Niestety progres ma tutaj swoje wady. Kupując tanie procesory Intela w architekturze Sandy Bridge (i nowszych), oprócz tego że dostajemy najlepszą obecnie architekturę procesorów (POD KAŻDYM WZGLĘDEM!!!) musimy godzić się na zablokowanie przez firmę Intel bardzo ważnej możliwości. Oczywiście chodzi o .... Ale o tym za chwilę. Cofnijmy się w przeszłość. Celeron 300A z końca lat 90 ubiegłego wieku. Wielu pamięta go do dziś z prostej przyczyny. To był zakup który przy odpowiedniej wiedzy mógł spowodować wielką oszczędność. Innymi słowy jak kupić coś za połowę ceny droższego procesora i spowodować żeby nie było różnicy wydajności. Ot taki "smart choice". Dla prawdziwych fanów hardware fakt iż można z czegoś taniego zrobić coś co będzie działać jak dużo wyższe modele (droższe!) dawał niesamowitą satysfakcję.2009r. Mój celeron E3200 (WOLFDALE 45nm) @ 4,4GHz w niektórych zadaniach posiadał wydajność i3 530!.(porównanie do testu techpowerup - http://tpucdn.com/reviews/Intel/Core_i3_540_530/images/superpi.gif)Obecnie jak wiadomo era modowania sprzętu została zniewolona przez producentów sprzętu - przede wszystkim jednego - oczywiście chodzi o firmę Intel. Z podkręcania procesorów zrobiono komercyjną i dochodową branżę przemysłu hardware komputerowego. Co to ma wspólnego z rodziną celeron? Otóż bardzo dużo. Ideą było uzyskanie wysokiej wydajności z taniego produktu (celeron?) a nie to co obecnie się dzieje i co jest tak zachwalane - zrobienie z mocnego procesora jeszcze mocniejszego tylko po to żeby zobaczyć kolejne cyferki w benchmarkach............ Oczywiście okupując to dopłatami do procesora w wersji K. Koniec końców - z powodów finansowych celeron w wersji K nigdy nie powstanie bo zagroziłby sprzedaży 3x droższego i3 , natomiast i3 w wersji K nigdy nie powstanie bo zagroziło by sprzedaży i5 który też jest odpowiednio droższy. Co na to AMD? Otóż wszystkie procesory są odblokowane ale nie robi to różnicy bo architektura FX nie jest tak atrakcyjna i żaden overclocking tego nie zmieni.Dla kogo więc Celeron G1820 będzie odpowiednim wyborem?. Myślę że przede wszystkim dla osób które wymagają od nowgo procesora przede wszystkim tego aby płynnie obsługiwał oprogramowanie używane do codziennych zadań domowych. Nie są to wielkie wymagania ale patrząc na cenę (155PLN) część z czytelników nie będzie tego pewna. Druga część czytelników która wie co potrafi poprzednik G1820 czyli G1610 lub nawet G530 będzie pewna wywiązania się z zadań i ciekawość skupi się tylko na tym ile architektura Haswell da w porównaniu do poprzedników . Niestety. O podkręcaniu G1820 tak jak i w poprzednich wcieleniach Celerona należy zapomnieć. A szkoda.2. G1820 - Najtańszy Haswell.Opakowanie procesora jest standardowe. Standardowe chłodzenie ze standardową pastą, nic nowego. Co ciekawe, zmieniono hologramy, naklejkę!! (co ciekawe!)........ procesor niczym się nie wyróżnia.Połączenie tego procesora z tanią (a jakże!) płytą ASROCK H81M daje dużo zalet. Za 189PLN dostajemy płytę z SATA3, USB3, PCI-E 3.0, CROSSFIRE-X (asrock w instrukcji chwali się że nawet quad crossfirex!), dvi, hdmi, dsub, sloty PCI.......... To chyba bardzo wiele jak na taką cenę , prawda?Zgodnie z zapowiedziami G1820 jest taki jak miał być. Zapowiadano progres i zgodznie z zapowiedziami jest dużo zalet.Co najważniejsze - w tej samej cenie "z marszu" co G1610. W porównaniu do Celerna G1610 Ivy Bridge w tej samej cenie (Recommended Customer Price BOX : $42.00) dostaniemy nowszą architekturę, 100MHz więcej, nowszą wersję iGPU - bliżej nie opisaną przez producenta. Poza tym architektura haswell wspiera standard pci-express 3.0. Dla zasady warto też wyróżnić kolejną oniżkę współczynnika TDP - zmiana w porównaniu do G1610 o 2W to bardzo niewiele ale zawsze coś. Oprócz tego bez zmian pozostają - maksymalne taktowanie pamięci RAM (1333MHz), ilość pamięci cache (2MB), wymiar technologiczny (22nm).Odświeżony został też zintegrowany układ graficzny. W porównaniu do G1610 widać znaczącą różnicę. Liczba shaderów wzrosła i to dość mocno bo z 6 do 10. O wspieraniu DirectX 11.1 należy raczej wspomnieć jako o ciekawostce ze względu na tak niską wydajność 3d. Co ciekawe, zintegrowana w G1820 grafika wspiera wyświetlanie aż 3 różnych obrazów (G1610 Ivy Bridge obsługiwał też 3, natomiast G530 Sandy Bridge obsługiwał tylko 2).3. Konfiguracja testowa.PROCESOR: Celeron G1820 (+HD-GRAPHICS)PŁYTA GŁÓWNA: Asrock H81MPAMIĘĆ RAM: 2x2GB DDR3 A-DATA 1600MHz CL8 (@ 1333MHz 7-7-7-18 1,5V)DYSK TWARDY: Samsung 500GB SATA2 HD502HJKARTA GRAFICZNA: Asus Radeon HD7770 DirectCuCPU COOLER: ARCTIC ALPINE 11 PROMONITOR: Samsung Syncmaster S22B300 (@DVI)ZASILACZ: FORTRON 350W FSP350-60HHN (85)TV: LG`32 32LH2000 (@HDMI)4. TestyCINEBENCH R11.5Przykładowe wyniki:CELERON G1620 2,23 (2,7GHz)CELERON G1820 2,29 (2,7GHz)PENTIUM G2020 2,44 (2,9GHz)Architektura Haswell sprawuje się minimalnie lepiej niż Ivy Bridge (zegar w zegar do G1620). Różnica jest minimalna i niezadowalająca wg. mnie. Ale jak wiadomo Cinebench lubi wysokie zegary, dużą ilość rdzeni (wątków) i wielką pamięć cache. Innymi słowy wszystko to czego nie ma w tym celeronie.AIDA64Wyniki w AIDA64 można uznać za zadowalające. Wydajność w obróbce grafiki 2d na poziomie APU 4 wątkowego @ 3,8GHz należy uznać za sukces. Patrząc na wydajnośc zegar w zegar z G1610 (@2,7GHz) wyniki przedstawiają się następująco:CPU QUEEN / PHOTOWORXXG1610(@2,7GHz) 12899 / 7967G1820(@2,7GHz) 13016 / 8775
Potwierdzenie wyników G1610@2,7GHz http://i.imgur.com/N5ly4ca.jpg oraz http://i.imgur.com/Sr5iXMp.jpg .I znowu można przyznać że Haswell to o jeden ząbek lepsza architektura. Niewiele ale zawsze. Oczywiście wzrost wydajności obróbki grafiki 2d (photoworxx) wynika z wzrostu przepustowości pamięci. Intel w każdej swojej nowej architekturze optymalizuje i poprawia kontroler pamięci. Nigdzie tego nie przeczytamy ale zauważymy w benchmarkach:G1610 (@2,7GHz) DDR3 1387MHz 6-7-6-20 = 16140 MB/s.G1820 (@2,7GHz) DDR3 1333MHz 7-7-7-18 = 18875 MB/s.Potwierdzenie wyników G1610@2,7GHz http://i.imgur.com/68pzdjp.jpg .Passmark 8.0PASSMARK - CPU MARKG1610(@2,7GHz) 2714G1820(@2,7GHz) 2928
Potwierdzenie wyniku G1610 http://i.imgur.com/cSQ9ru1.jpgNo cóż. Wzrost wydajności w porównaniu Ivy Bridge do Haswella o tym samym taktowaniu jest niepodważalny i dość duży. G1820 uzyskał 108% wydajności G1610 o takim samym taktowaniu.Crystalmark (g1820 vs g2020 vs g3220 vs g555 vs AMD A4-3300 & A4-5300)Porównanie pochodzi ze strony http://zigsow.jp/portal/own_item_detail/258868/Skorzystałem z japońskiego testu z prostej przyczyny. Idealnie pokazuje on że G1820 jest praktycznie odpowiednikiem Pentiuma G2020. Najważniejszą rzeczą w G1820 to jednak wydajność zintegrowanego GPU. Jest ono ok.40-60% mocniejsze od G1610.3DMark VantageZintegrowana grafika tak jak inne zintegrowane, raczej nie nadaje się do grania. Wynik CPU SCORE w Vantage daje G1820 miejsce gdzieś pomiędzy Athlonem ii x3 445 a Pentium G850. Wynik całkiem dobry ale nie zapominajmy że jest to dwurdzeniowy procesor który nie jest w stanie obsłużyć już nowych gier. Od jakiegoś czasu nowe gry wspierają już dość wydajnie większą niż dwa, ilość rdzeni stąd też G1820 może dobrze obsługiwać gry nie wymagające 3 lub 4 rdzeni.5. Pobór energii.SPOCZYNEK @ PULPIT:
OBCIĄŻCONE GPU+CPU @ WAR THUNDER:Nie uważam tych wyników za dobrych. Są praktycznie identyczne jak przy celeronie G1610. Problemem wg. mnie jest pobór mocy w IDLE. Myślę że powinien on zejść do 22-20W a może i nawet poniżej 20W. Myślę że winna jest płyta główna Asrocka. Zauważyłem że płyty główne od MSI oraz ASUSa lepiej radzą sobie z zarządzaniem energią w IDLE. Nie robi to wielkiej różnicy ale zawsze jakiś niesmak jest . Do testu był używany zasilacz o sprawności ok. 85% a procesor działał z dynamicznie zmniejszanym napięciem o 0,1V więc tymbardziej wynik pod obciążeniem nie jest zadowalający.
7. Podsumowanie.
Procesor można podsumować tylko w jeden sposób. Kolejny lepszy Celeron. Trochę szybszy procesor z dużo mocniejszym GPU ale w tej samej cenie to jest coś. Jeśli ktoś szuka taniego (przede wszystkim!!!) procesora do przeglądania WWW, grania w gry na facebooku, oglądania video itp. zajęć to można śmiało go brać. Z płytą główną która ma wyjście HDMI będzie to super rozwiązanie. Nie można wybaczyć jednej rzeczy i przy każdym teście procesorów Intela trzeba to podkreślać. Nie ma możliwości podkręcania. Jest to duży minus bo to procesor z ogromnym potencjałem. Nie mniej jednak w prostych zastosowaniach, G1820 sprawdza się bez zarzutu. Jest to dobra opcja jako procesor przejściowy przed i3/i5 albo jako typowo domowy CPU. Moim zdaniem bezcelowe jest kupowanie droższych G3220 i jemu podobnych. Nie ma żadnej różnicy czy dwurdzeniowy Haswell będzie miał 2,7GHz czy 3,2GHz. I tak nie pograsz w gry wymagające 4 rdzeniowego procesora. Jeśli chcesz grać w nowe gry, po prostu musisz się "wkupić" biorąc conajmniej i3 lub najtańszego i5. Można bez chwili zastanowienia powiedzieć że G1820 daje najtańszą wydajność wśród procesorów dwurdzeniowych.
Nie odważę się ocenić procesora w jakiejkolwiek skali. Dla kogoś kto szuka czegoś innego (wydajniejszego) będzie to po prostu słaby procesor (i oceni go nisko). Dla innych szukających upgrade z np. core2duo czy też athlona x2 - procesor jest świetną opcją , dla takich osób ocena będzie wysoka.
- 15
-
Hej,
skladam wlasnie nowy komputer i wychodzi na to, ze na procesor mam do przeznaczenia jakies 700zl, reszta zestawu to cos pokroju R9 270X badz GTX 760 (jeszcze nie zdecydowalem).
Polecono mi i5 3470, 3570K badz cos z 4XXX jesli nie bede chcial podkrecac (raczej bede chcial podkrecac). Moje pytanie jest takie: dlaczego nikt na tym forum nie poleca AMD? Przegladam wlasnie test wydajnosci kart graficznych na benchmark.pl i w platformie testowej znajduje sie taki o to procesor:
AMD X8 FX 8350 - cena na esc.pl to wlasnie okolo 700zl, czy nie warto zastanowic sie nad takim prockiem?
Dzieki!
Kup sobie fxa i porównaj do inteli w grach. Sam zobaczysz. Jak to mawiają - polok mondry po szkodzie. Nic nie da takiej nauczki jak przekonanie się na własnej D*
Genialny plan, produkujesz procesor 4 rdzeniowy a sprzedajesz jako 8. Czysto teoretycznie gdyby moduły były zaprojektowane ręcznie a budowa modułu zawierała taką samą ilość jednostek FPU co ALU to jest możliwe że wyszedł by z tego procesor nie gorszy niż Sandy Bridge od Intela.
Jakby moduł był rozbudowany tak jak powinien być jeden rdzeń to taki FX 8 rdzeniowy (modułowy) miałby 20-30% wyższą wydajność................................ i 20-30% większy pobór mocy - TDP wzrosło by ze 125W do 166W co by było chore. Innymi słowy - tak źle i tak niedobrze.
Oni muszą porzucić architekturę FX tak jak intel rzucił netbursta.
Ludzie mają krótką pamięć................... z pentium 4 też się śmiano na potęgę i "puste mhz" to było częste określenie.
-
W jednym poście , stare lub nowe, zabawne lub nieprzyjemne............. opisz swoją przygodę przy realizacji aukcji na allegro
-
Wystarczy tandetna płyta główna na H81 + i5 4440 to sobie polatasz tak wysoko że żaden FX ani jego przyszły następca nie zagrozi wydajnością w żadnej grze
-
U mnie GPU prawie w ogóle nie da się ukręcić pamięci podobno dobrze ale jak spróbowałem gpu to overclockingu mi się odechciało taka sztuka
-
walazz strona 151 ostatni post
No ta..........
Processor Intel Core i7-3770K Processor Reported stock core clock 4 500 MHz -
Pomyśl trochę............................. takie ciężkie?
Ale trudno, mój ostatni post tutaj bo nie zamierzam być Twoim osobistym przewodnikiem w świecie komputerów:
ATX jest droższy bo płyty są większe (PCB KOSZTUJE), mają więcej elementów które kosztują i więcej zajmuje miejsca w transporcie co też kosztuje.
Praktycznie się niczym nie różnią. Chyba że ktoś potrzebuje 4 PCI-E.............................. Ale w Twoim przypadku to po prostu niewiedza i ogólne przeświadczenie że większe = lepsze..........
Procesory Haswell
w Procesory i płyty główne
Napisano
Boxowe na sandy daje to dlaczego na hasłelu nie daje? Bo sandy jest lutowany a hasłell klejony.
Osobiście wolę sandy bo można się wrąbać w hasssa........... nie takiego.