Popularne posty walazz 99 Napisano 15 Stycznia 2014 Popularne posty Udostępnij Napisano 15 Stycznia 2014 (edytowane) Celeronowe "Tick-Tock" czyli G1820 HASWELL. 1. Celeron - low end nie taki zły jak go malują. Życie nie znosi próżni - tak mawiają. Do grona HI-END oraz MID-END procesorów na kolejną nową podstawkę intela lga1150 wychodzi z dużym opóźnieniem kolejny procesor którego po prostu bakowało. Brakowało i to bardzo. Opóźnienie obiście zdaje mi się że było po prostu celowe. Żadnemu z producentów i dystrybutorów nie jest na rękę puszczanie w eter produktu który kosztuje dosłownie 1/4 ceny nowego i5 4440 który też nie oszukujmy się monstrum nie jest. Celerony to zawsze najniższe wydajnościowo procesory produkowane przez Intela. Czy to znaczy że są złe? Że do niczego się nie nadają?. Myślę że zły PR sprzedawców i brak wiedzy u klientów powoduje że ludzie kupują myszki gameingowe a nie zwykłe (wydając 150zł zamiast 30zł) oraz drogieprocesory do pracy biurowej zamiast np................ celerona płacąc 1/4 ceny. Bo to w końcu sprzedawcom zależy na tym by twierdzić że do przeglądania internetu trzeba mnieć mocny procesor a do korzystania z komunikatora internetowego i przeglądania www trzeba mieć przynajmniej łącze internetowe 5MBit - tak stwierdzili by sprzedawcy usług sieciowych... Ale przecież nie o dobro klienta chodzi w sprzedaży!. W tym momencie wiedza jest błogosławieństwem. Trzeba przyznać że wszystkie procesory wyprodukowane pod nazwą celeron to były po prostu "pocięte" procesory z danej architektury. Innymi słowy celeron to procesor który nie jest w jakiś sposób ułomny tylko co najwyżej ograniczony np. taktowaniem lub też wielkością pamięci cache w porównaniu do swoich hi-endowych odpowiedników. Dlaczego jest to tak ważne? Otóż patrząc w przeszłość widzimy że od kiedy firma Intel wypuściła procesory architektury Sandy Bridge do dnia dzisiejszego jest niedościgniona. Niedościgniona nie tylko wydajnościowo ale też i pod kątem oszczędzania energii, ceny czy wydajności per MHz i wat. Innymi słowy - celeron wydany w architekturze Sandy Bridge (G530!!!) okazał się bardzo udanym i opłacalnym dwurdzeniowcem. Oczywiście tak samo było z architekturą Ivy Bridge (G1610). Niestety progres ma tutaj swoje wady. Kupując tanie procesory Intela w architekturze Sandy Bridge (i nowszych), oprócz tego że dostajemy najlepszą obecnie architekturę procesorów (POD KAŻDYM WZGLĘDEM!!!) musimy godzić się na zablokowanie przez firmę Intel bardzo ważnej możliwości. Oczywiście chodzi o .... Ale o tym za chwilę. Cofnijmy się w przeszłość. Celeron 300A z końca lat 90 ubiegłego wieku. Wielu pamięta go do dziś z prostej przyczyny. To był zakup który przy odpowiedniej wiedzy mógł spowodować wielką oszczędność. Innymi słowy jak kupić coś za połowę ceny droższego procesora i spowodować żeby nie było różnicy wydajności. Ot taki "smart choice". Dla prawdziwych fanów hardware fakt iż można z czegoś taniego zrobić coś co będzie działać jak dużo wyższe modele (droższe!) dawał niesamowitą satysfakcję. http://i.imgur.com/2wUL2A3l.jpg 2009r. Mój celeron E3200 (WOLFDALE 45nm) @ 4,4GHz w niektórych zadaniach posiadał wydajność i3 530!. http://i.imgur.com/mdXfUbJ.gif (porównanie do testu techpowerup - http://tpucdn.com/reviews/Intel/Core_i3_540_530/images/superpi.gif) Obecnie jak wiadomo era modowania sprzętu została zniewolona przez producentów sprzętu - przede wszystkim jednego - oczywiście chodzi o firmę Intel. Z podkręcania procesorów zrobiono komercyjną i dochodową branżę przemysłu hardware komputerowego. Co to ma wspólnego z rodziną celeron? Otóż bardzo dużo. Ideą było uzyskanie wysokiej wydajności z taniego produktu (celeron?) a nie to co obecnie się dzieje i co jest tak zachwalane - zrobienie z mocnego procesora jeszcze mocniejszego tylko po to żeby zobaczyć kolejne cyferki w benchmarkach............ Oczywiście okupując to dopłatami do procesora w wersji K. Koniec końców - z powodów finansowych celeron w wersji K nigdy nie powstanie bo zagroziłby sprzedaży 3x droższego i3 , natomiast i3 w wersji K nigdy nie powstanie bo zagroziło by sprzedaży i5 który też jest odpowiednio droższy. Co na to AMD? Otóż wszystkie procesory są odblokowane ale nie robi to różnicy bo architektura FX nie jest tak atrakcyjna i żaden overclocking tego nie zmieni. Dla kogo więc Celeron G1820 będzie odpowiednim wyborem?. Myślę że przede wszystkim dla osób które wymagają od nowgo procesora przede wszystkim tego aby płynnie obsługiwał oprogramowanie używane do codziennych zadań domowych. Nie są to wielkie wymagania ale patrząc na cenę (155PLN) część z czytelników nie będzie tego pewna. Druga część czytelników która wie co potrafi poprzednik G1820 czyli G1610 lub nawet G530 będzie pewna wywiązania się z zadań i ciekawość skupi się tylko na tym ile architektura Haswell da w porównaniu do poprzedników . Niestety. O podkręcaniu G1820 tak jak i w poprzednich wcieleniach Celerona należy zapomnieć. A szkoda. 2. G1820 - Najtańszy Haswell. Opakowanie procesora jest standardowe. Standardowe chłodzenie ze standardową pastą, nic nowego. Co ciekawe, zmieniono hologramy, naklejkę!! (co ciekawe!)........ procesor niczym się nie wyróżnia. http://i.imgur.com/7E0cQhll.jpg http://i.imgur.com/NyZnhwrl.jpg http://i.imgur.com/FmEmaY4l.jpg http://i.imgur.com/4Ix37jSl.jpg http://i.imgur.com/5WjDdBZl.jpg http://i.imgur.com/RDH4xZVl.jpg http://i.imgur.com/zu76AC5l.jpg http://i.imgur.com/MTPYvhhl.jpg http://i.imgur.com/ZjZDUAnl.jpg http://i.imgur.com/oe7KdHul.jpg http://i.imgur.com/te2kCuol.jpg Połączenie tego procesora z tanią (a jakże!) płytą ASROCK H81M daje dużo zalet. Za 189PLN dostajemy płytę z SATA3, USB3, PCI-E 3.0, CROSSFIRE-X (asrock w instrukcji chwali się że nawet quad crossfirex!), dvi, hdmi, dsub, sloty PCI.......... To chyba bardzo wiele jak na taką cenę , prawda? http://i.imgur.com/a9TRDyOl.jpg Zgodnie z zapowiedziami G1820 jest taki jak miał być. Zapowiadano progres i zgodznie z zapowiedziami jest dużo zalet.Co najważniejsze - w tej samej cenie "z marszu" co G1610. W porównaniu do Celerna G1610 Ivy Bridge w tej samej cenie (Recommended Customer Price BOX : $42.00) dostaniemy nowszą architekturę, 100MHz więcej, nowszą wersję iGPU - bliżej nie opisaną przez producenta. Poza tym architektura haswell wspiera standard pci-express 3.0. Dla zasady warto też wyróżnić kolejną oniżkę współczynnika TDP - zmiana w porównaniu do G1610 o 2W to bardzo niewiele ale zawsze coś. Oprócz tego bez zmian pozostają - maksymalne taktowanie pamięci RAM (1333MHz), ilość pamięci cache (2MB), wymiar technologiczny (22nm). Odświeżony został też zintegrowany układ graficzny. W porównaniu do G1610 widać znaczącą różnicę. Liczba shaderów wzrosła i to dość mocno bo z 6 do 10. O wspieraniu DirectX 11.1 należy raczej wspomnieć jako o ciekawostce ze względu na tak niską wydajność 3d. Co ciekawe, zintegrowana w G1820 grafika wspiera wyświetlanie aż 3 różnych obrazów (G1610 Ivy Bridge obsługiwał też 3, natomiast G530 Sandy Bridge obsługiwał tylko 2). 3. Konfiguracja testowa. PROCESOR: Celeron G1820 (+HD-GRAPHICS) PŁYTA GŁÓWNA: Asrock H81M PAMIĘĆ RAM: 2x2GB DDR3 A-DATA 1600MHz CL8 (@ 1333MHz 7-7-7-18 1,5V) DYSK TWARDY: Samsung 500GB SATA2 HD502HJ KARTA GRAFICZNA: Asus Radeon HD7770 DirectCu CPU COOLER: ARCTIC ALPINE 11 PRO MONITOR: Samsung Syncmaster S22B300 (@DVI) ZASILACZ: FORTRON 350W FSP350-60HHN (85) TV: LG`32 32LH2000 (@HDMI) 4. Testy CINEBENCH R11.5 http://i.imgur.com/b4w1B8ol.jpg Przykładowe wyniki: CELERON G1620 2,23 (2,7GHz) CELERON G1820 2,29 (2,7GHz) PENTIUM G2020 2,44 (2,9GHz) Architektura Haswell sprawuje się minimalnie lepiej niż Ivy Bridge (zegar w zegar do G1620). Różnica jest minimalna i niezadowalająca wg. mnie. Ale jak wiadomo Cinebench lubi wysokie zegary, dużą ilość rdzeni (wątków) i wielką pamięć cache. Innymi słowy wszystko to czego nie ma w tym celeronie. AIDA64 http://i.imgur.com/yCVfS1el.jpg http://i.imgur.com/kgSLnHtl.jpg http://i.imgur.com/e1ZgUtel.jpg Wyniki w AIDA64 można uznać za zadowalające. Wydajność w obróbce grafiki 2d na poziomie APU 4 wątkowego @ 3,8GHz należy uznać za sukces. Patrząc na wydajnośc zegar w zegar z G1610 (@2,7GHz) wyniki przedstawiają się następująco: CPU QUEEN / PHOTOWORXX G1610(@2,7GHz) 12899 / 7967 G1820(@2,7GHz) 13016 / 8775 Potwierdzenie wyników G1610@2,7GHz http://i.imgur.com/N5ly4ca.jpg oraz http://i.imgur.com/Sr5iXMp.jpg . I znowu można przyznać że Haswell to o jeden ząbek lepsza architektura. Niewiele ale zawsze. Oczywiście wzrost wydajności obróbki grafiki 2d (photoworxx) wynika z wzrostu przepustowości pamięci. Intel w każdej swojej nowej architekturze optymalizuje i poprawia kontroler pamięci. Nigdzie tego nie przeczytamy ale zauważymy w benchmarkach: G1610 (@2,7GHz) DDR3 1387MHz 6-7-6-20 = 16140 MB/s. G1820 (@2,7GHz) DDR3 1333MHz 7-7-7-18 = 18875 MB/s. Potwierdzenie wyników G1610@2,7GHz http://i.imgur.com/68pzdjp.jpg . Passmark 8.0 http://i.imgur.com/SzoNvZXl.jpg PASSMARK - CPU MARK G1610(@2,7GHz) 2714 G1820(@2,7GHz) 2928 Potwierdzenie wyniku G1610 http://i.imgur.com/cSQ9ru1.jpg No cóż. Wzrost wydajności w porównaniu Ivy Bridge do Haswella o tym samym taktowaniu jest niepodważalny i dość duży. G1820 uzyskał 108% wydajności G1610 o takim samym taktowaniu. Crystalmark (g1820 vs g2020 vs g3220 vs g555 vs AMD A4-3300 & A4-5300) http://i.imgur.com/LULTdePl.png Porównanie pochodzi ze strony http://zigsow.jp/portal/own_item_detail/258868/ Skorzystałem z japońskiego testu z prostej przyczyny. Idealnie pokazuje on że G1820 jest praktycznie odpowiednikiem Pentiuma G2020. Najważniejszą rzeczą w G1820 to jednak wydajność zintegrowanego GPU. Jest ono ok.40-60% mocniejsze od G1610. 3DMark Vantage http://i.imgur.com/C1oLNGDl.jpg http://www.3dmark.com/3dmv/4927734 Zintegrowana grafika tak jak inne zintegrowane, raczej nie nadaje się do grania. Wynik CPU SCORE w Vantage daje G1820 miejsce gdzieś pomiędzy Athlonem ii x3 445 a Pentium G850. Wynik całkiem dobry ale nie zapominajmy że jest to dwurdzeniowy procesor który nie jest w stanie obsłużyć już nowych gier. Od jakiegoś czasu nowe gry wspierają już dość wydajnie większą niż dwa, ilość rdzeni stąd też G1820 może dobrze obsługiwać gry nie wymagające 3 lub 4 rdzeni. 5. Pobór energii. SPOCZYNEK @ PULPIT: http://i.imgur.com/OsuoT0zl.jpg OBCIĄŻCONE GPU+CPU @ WAR THUNDER: http://i.imgur.com/3zCFE1Fl.jpg CPU STRES @ CINEBENCH R11.5: http://i.imgur.com/vTB62e8l.jpg Nie uważam tych wyników za dobrych. Są praktycznie identyczne jak przy celeronie G1610. Problemem wg. mnie jest pobór mocy w IDLE. Myślę że powinien on zejść do 22-20W a może i nawet poniżej 20W. Myślę że winna jest płyta główna Asrocka. Zauważyłem że płyty główne od MSI oraz ASUSa lepiej radzą sobie z zarządzaniem energią w IDLE. Nie robi to wielkiej różnicy ale zawsze jakiś niesmak jest . Do testu był używany zasilacz o sprawności ok. 85% a procesor działał z dynamicznie zmniejszanym napięciem o 0,1V więc tymbardziej wynik pod obciążeniem nie jest zadowalający. 7. Podsumowanie. Procesor można podsumować tylko w jeden sposób. Kolejny lepszy Celeron. Trochę szybszy procesor z dużo mocniejszym GPU ale w tej samej cenie to jest coś. Jeśli ktoś szuka taniego (przede wszystkim!!!) procesora do przeglądania WWW, grania w gry na facebooku, oglądania video itp. zajęć to można śmiało go brać. Z płytą główną która ma wyjście HDMI będzie to super rozwiązanie. Nie można wybaczyć jednej rzeczy i przy każdym teście procesorów Intela trzeba to podkreślać. Nie ma możliwości podkręcania. Jest to duży minus bo to procesor z ogromnym potencjałem. Nie mniej jednak w prostych zastosowaniach, G1820 sprawdza się bez zarzutu. Jest to dobra opcja jako procesor przejściowy przed i3/i5 albo jako typowo domowy CPU. Moim zdaniem bezcelowe jest kupowanie droższych G3220 i jemu podobnych. Nie ma żadnej różnicy czy dwurdzeniowy Haswell będzie miał 2,7GHz czy 3,2GHz. I tak nie pograsz w gry wymagające 4 rdzeniowego procesora. Jeśli chcesz grać w nowe gry, po prostu musisz się "wkupić" biorąc conajmniej i3 lub najtańszego i5. Można bez chwili zastanowienia powiedzieć że G1820 daje najtańszą wydajność wśród procesorów dwurdzeniowych. Nie odważę się ocenić procesora w jakiejkolwiek skali. Dla kogoś kto szuka czegoś innego (wydajniejszego) będzie to po prostu słaby procesor (i oceni go nisko). Dla innych szukających upgrade z np. core2duo czy też athlona x2 - procesor jest świetną opcją , dla takich osób ocena będzie wysoka. http://www.youtube.com/watch?v=4kyqC62Sszo Edytowane 15 Stycznia 2014 przez walazz 15 Cytuj Link to post Share on other sites
daryzda 1298 Napisano 15 Stycznia 2014 Udostępnij Napisano 15 Stycznia 2014 (edytowane) Lubisz widzę bawić się, nowym budżetowym sprzętem Oczywiście nie ma w tym nic złego, bo sprzęcik w swojej cenie jest bardzo dobry. A właśnie uruchamiałeś jakieś starsze gry na Integrze ? Grafika pewnie będzie na poziomie 9500 gt ddr3 ? Edytowane 15 Stycznia 2014 przez daryzda Cytuj Link to post Share on other sites
walazz 99 Napisano 15 Stycznia 2014 Autor Udostępnij Napisano 15 Stycznia 2014 (edytowane) Nie uruchamiałem nic innego. Na g1610 uruchamiałem na integrze quake live @ 720p i ani razu nawet w największej rozwałce nie było spadku poniżej 60FPS. ( http://www.youtube.com/watch?v=Z4Wwb_iuMu4 ). Na G1820 uruchomiłem w 720p WAR THUNDER: http://www.youtube.com/watch?v=4kyqC62Sszo Moim zdaniem działa nieźle. Da się bez problemu grać na tej integrze ale jak to na integrach. Szału nie ma Teraz zapuściłem radeona HD7770 na tego celka i WarThunder w 1080p ze wszystkim na max, filtrowaniami, teksturami, nawet trawą, wszystko co się da - nie ma spadku poniżej 30FPS a przeciętnie 38-45FPS. Grafika już na maxa musi być obciążona bo z celkiem wtedy pobór mocy = 112W czyli grafika osiągnęła swój max. Wg. benchmarka passmark 8.0 (patrz wykresy passmarkowe) to igpu w G1820 jest na poziomie GT630 - pewnie chodzi o tą wersję ddr3 64bit. Edytowane 15 Stycznia 2014 przez walazz 1 Cytuj Link to post Share on other sites
daryzda 1298 Napisano 15 Stycznia 2014 Udostępnij Napisano 15 Stycznia 2014 (edytowane) to igpu w G1820 jest na poziomie GT630 - Czyli, kurde nieźle cały procesor i CPU i GPU o wydajności GT630 tańsze od GT630. Edytowane 15 Stycznia 2014 przez daryzda Cytuj Link to post Share on other sites
walazz 99 Napisano 16 Stycznia 2014 Autor Udostępnij Napisano 16 Stycznia 2014 (edytowane) Na to wychodzi. Nie mogłem tylko znaleźć wyników z 3dmarka vantage żeby potwierdzić to w praktyce bo te obliczenia passmarka są dość specyficzne. To jest ciekawe: http://assets.hardwarezone.com/img/2012/10/3DMark_Vantage_3.jpg ( http://www.hardwarezone.com.sg/feature-amd-trinity-desktop-apu-graphics-dual-graphics-performance-review ) http://www.xbitlabs.com/images/cpu/amd-fusion-intel-core-i3/3dmark-1.png ( http://www.xbitlabs.com/articles/cpu/display/amd-fusion-intel-core-i3_7.html ) http://i.imgur.com/C1oLNGDl.jpg Innymi słowy G1820 jest mniej więcej odpowiednikiem w vantage A6-3500 lub I7 3770K + GT520 Edytowane 16 Stycznia 2014 przez walazz 2 Cytuj Link to post Share on other sites
daryzda 1298 Napisano 16 Stycznia 2014 Udostępnij Napisano 16 Stycznia 2014 Przyznam się że czekałem na ten procesor też uwielbiam te "budżetowe tematy", pewnie jak nic gry typu DOOM 3, Far Cry, Half Life 2 i podobne [ z tej epoki ] Ful HD i max detali. Jak tylko ktoś poprosi mnie o złożenie budżetowca, nie wytrzymam będę te gry musiał przetestować. Cytuj Link to post Share on other sites
kuba83bb 91 Napisano 16 Stycznia 2014 Udostępnij Napisano 16 Stycznia 2014 Również uwielbiam wszystko co budżetowe (widać po sygnie hehe), gdyby nie chęć pogrania czasem w nowości to kto wie czym sobie takiego procka nie sprawił Czy jest możliwość oc igpu tak jak w poprzednikach? Cytuj Link to post Share on other sites
walazz 99 Napisano 16 Stycznia 2014 Autor Udostępnij Napisano 16 Stycznia 2014 Również uwielbiam wszystko co budżetowe (widać po sygnie hehe), gdyby nie chęć pogrania czasem w nowości to kto wie czym sobie takiego procka nie sprawił Czy jest możliwość oc igpu tak jak w poprzednikach? Pewnie tak. Na razie siedzę na i5 3330 znowu ale......... może mi się "odwidzi" Cytuj Link to post Share on other sites
czesiek90 1 Napisano 5 Lutego 2014 Udostępnij Napisano 5 Lutego 2014 (edytowane) witam, moglbys zrobic testy integry np. cs:go fifa 14, LOL, Fm2013, Autocad 2013, z gory dzieki Edytowane 5 Lutego 2014 przez czesiek90 Cytuj Link to post Share on other sites
walazz 99 Napisano 6 Lutego 2014 Autor Udostępnij Napisano 6 Lutego 2014 (edytowane) Nie chce mi się tyle dziwnych rzeczy testować które w ogóle nie są przeznaczone dla żadnego celerona (przynajmniej na iGPU). Za to zrobiłem coś innego. iGPU z pierwszej próby ustawiłem na 1450MHz (+400MHz w porównaniu do stock), Porównanie do innych iGPU wyląda tak: http://i.imgur.com/2GkJvQI.png http://i.imgur.com/boBsfxI.jpg http://www.3dmark.com/3dm11/7930730 Jeśli chodzi o obciążenie CPU podczas oglądania materiału video to .............. Oglądając materiał : (1080p o słabym bitrate) miałem 10-30% obciążenia przy czym najczęściej 15-23% (nie sugerować się wykresem ze screena , to było tylko wybranie odpowiedniej klatki ) http://i.imgur.com/hgDTnnO.jpg Hmm............ koniec końców już miałem w budzie G1820.......... już zdecydowałem się pozostać (znalazłem powód z którego mój audigy se trzaskał przy wchodzeniu w stany Cx)......... i co? na allegro ktoś go już kupił. Taka ciekawostka na koniec. I5 3330 vs G1820 w AIDA64 CPU QUEEN - i5 3330 ma wydajność dwukrotnie większą niż g1820 http://i.imgur.com/SDOvUv6.jpg Ale za to w obróbce grafiki i5 3330 (procesor 4x droższy!!!! z szybszym taktowaniem pamięci bo 1600 zamiast 1333) ma wydajność tylko 1,5x G1820 http://i.imgur.com/c4Fkbnb.jpg A obciążenie i5 3330 na iGPU podczas w/w materiału video jest mniejsze - 3%-11% z czego najczęściej 5-8%. http://i.imgur.com/JNwikHe.jpg Edytowane 5 Lutego 2014 przez walazz 1 Cytuj Link to post Share on other sites
Gornik Steve 218 Napisano 6 Lutego 2014 Udostępnij Napisano 6 Lutego 2014 Pr0nmark 2014... Cytuj Link to post Share on other sites
Frasier 0 Napisano 14 Lutego 2014 Udostępnij Napisano 14 Lutego 2014 Bardzo dziękuję za test. Procesor wygląda bardzo fajnie. Szkoda, że przy 1080p nie ma mniejszego użycia, ale chyba dopiero od i3 jest Quick Sync i lepsza akceleracja. Wszystko opisałeś. Może zadam tylko dwa pytania: - jak tam stockowe chłodzenie? Mocno daje się we znaki? - płyta główna. Jak tam zintegrowany dźwięk? Cokolwiek nie tak? Gorszy niż myślałeś, że będzie? Z gier... Dość przetestowałeś. Jakby była kiedyś okazja, to CS Source (moim zdaniem dobrze grywalna), World of Tanks (pewnie słabo). Cytuj Link to post Share on other sites
walazz 99 Napisano 14 Lutego 2014 Autor Udostępnij Napisano 14 Lutego 2014 Dzwiek jak dzwiek. Slaby jak kazda integra. Jak dla mnie to lepiej kupic tania plyte i audigy se za 30 zl niz doplacac stowke do niby fajnej plyty glownej. Gier testowac sie nie oplaca bo po prostu integra nie nadaje sie do grania, no chuba ze low 720p i to nie do konca plynnie. Nie zapominajmy ceny ktora jest obecnie na poziomie 148pln. Do takiego cpu mozna smialo dokupic hd6770 albo i hd5750 i w 720p mozna smialo grac prawie we wszystko w dobrej plynnosci. Ogolnie zestaw w/w poszedl na allegro, nie podobala mi sie plyta glowna. Chodzi o sekcje zasilania ktora w stocku tego cpu byla dosc ciepla pod obciazeniem. Jakos mi to nie podpasowalo i juz lezy w firmie xcom w lodzi do odbioru dla mnie bardzo fajna plyta h81-p33 oraz g1820 w cenie 357 pln. Chyba to jest lepszy wybor. dlaczego? Plyty na lga 1150 maja straszliwie wątłe sekcje zasilania. Skoro ta lepsza asrockowa na celeronie byla prawie parzaca to co dopiero po oc i5? Dlatego znalazlem sobie msi. Ogolnie lga1150 to droga platforma i trzeba dobrze przemyslec przed zakupem bo mozna czesto kupic taniej i lepiej cos na lga1154 Cytuj Link to post Share on other sites
daryzda 1298 Napisano 14 Lutego 2014 Udostępnij Napisano 14 Lutego 2014 Plyty na lga 1150 maja straszliwie wątłe sekcje zasilania Z tego co się orientuję, to część zasilania jest przeniesiona do CPU. Cytuj Link to post Share on other sites
walazz 99 Napisano 15 Lutego 2014 Autor Udostępnij Napisano 15 Lutego 2014 (edytowane) Osobiście wątpię. Może jakiś układ logiczny odpowiedzialny za regulację napięcia ale raczej wątpię. LGA 1150 powstało by kupować nowe chipsety a nie po to żeby mieć "nowe możliwości". Oszczędności na płytach LGA1150 wynikają chyba z tego że nie ma prądożernych CPU. Wynika to z tego chyba że nie ma procesorów z TDP powyżej 84W czyli nie muszą pakować wytrzymałych elementów na PCB. NP. płyta którą zamówiłem z dość dobrą sekcją - MSI H81-p33 http://www.msi.com/product/mb/H81P33.html#/?div=CPUSupport Max 84W ma najbardziej prądożerny CPU. A dodam jeszcze że niektóre modele mają DWUFAZOWĄ sekcję zasilania. Producenci tak daleko poszli. Poniżej porównanie MSI na H81 oraz H61. Łatwo zauważyć na którą płytę są procesory bardziej wymagające. http://i.imgur.com/8OEW4kq.jpg Edytowane 15 Lutego 2014 przez walazz Cytuj Link to post Share on other sites
currahee 292 Napisano 15 Lutego 2014 Udostępnij Napisano 15 Lutego 2014 Osobiście wątpię Nie należy wątpić tylko co nieco poczytać np.: http://pclab.pl/art52670.html Zintegrowanie w cpu ISVR (Integrated Silicon Voltage Regulator) to jedna z największych zmian względem IB. Cytuj Link to post Share on other sites
walazz 99 Napisano 15 Lutego 2014 Autor Udostępnij Napisano 15 Lutego 2014 Innymi slowy zgadlem nie czytajac nigdy o tym. Cytuj Link to post Share on other sites
scythe1123 59 Napisano 15 Lutego 2014 Udostępnij Napisano 15 Lutego 2014 (edytowane) Rodzicom zakupiłem taki zestaw, Celeron G1820 + Asrock H81M. Za jakis tydizeń to złożę i wtedy będę mógł sprawdzić. Plus dla Asrocka jest taki, że nawet do tak tanich płyt wsadzają złącze HDMI. Jeśli chodzi o temperatury, to chyba standard, że są ciepłe. Według tego testu jest to norma: http://pccentre.pl/article/show/test-8-plyt-glownych-lga-1150-matx-z-chipsetem-h81/id=18114;page=19 Na szczęście układy są tak ułożone, że można radiator przykleić. W B85M pro4 którą chciałem sobie kupić były tak porozmieszczane, że na każdy układ musiałbym oddzielny radiator wycinać. Edytowane 15 Lutego 2014 przez scythe1123 Cytuj Link to post Share on other sites
walazz 99 Napisano 15 Lutego 2014 Autor Udostępnij Napisano 15 Lutego 2014 (edytowane) Mam już H81-P33. Zgodnie z przewidywaniem , pobór prądu spadł w idle . I to całkiem nieźle wygląda. Niestety płyta nie ma regulacji V-CPU. Integrowana muzyczna jest o jeden poziom lepsza od asrokowej H81M. http://i.imgur.com/8478W9c.jpghttp://i.imgur.com/g3xcg7l.jpg Edytowane 15 Lutego 2014 przez walazz Cytuj Link to post Share on other sites
scythe1123 59 Napisano 15 Lutego 2014 Udostępnij Napisano 15 Lutego 2014 Tak z ciekawości, mógłbyś do porównania pokazać pobór mocy pod obciążeniem? Cytuj Link to post Share on other sites
walazz 99 Napisano 16 Lutego 2014 Autor Udostępnij Napisano 16 Lutego 2014 (edytowane) 36-41W, z integrą pod war thunder do 51W Trochę podrównałem IHS dzięki czemu mogłem zdławić RPM wiatraka do............... o tym za chwilę. IHS był nierówny a teraz jest znacznie lepiej. Widać poniżej że na IHS jest idealnie okrągła wklęsłość na środku. http://i.imgur.com/07McoWO.jpg http://i.imgur.com/tG0LNTc.jpg Jaki był efekt szlifowania? W takim IDLU nie max ale z winampem temperatura na poziomie 29-31 stopni przy ~550 RPM arctic alpine 11 pro http://i.imgur.com/Jx3bLGM.jpg Edytowane 16 Lutego 2014 przez walazz Cytuj Link to post Share on other sites
scythe1123 59 Napisano 16 Lutego 2014 Udostępnij Napisano 16 Lutego 2014 masz temperatury przed zabiegiem do porównania? Cytuj Link to post Share on other sites
walazz 99 Napisano 16 Lutego 2014 Autor Udostępnij Napisano 16 Lutego 2014 (edytowane) Z pamięci tylko, jakieś 2-3 stopnie więcej przy 1200RPM. Po ok. godzinie testów max temperatura zarejestowana to 40 dla jednego i 41 dla drugego rdzenia. I jeszcze taka ciekawostka: G1820 2,7GHz vs AMD-A4-3400@2,7 vs Phenom ii x2 @3,75GHz http://funkyimg.com/u2/3009/744/787367cinebench_JPG.jpg http://i.imgur.com/K72w9I4.jpg http://i.imgur.com/9kqnpi0.jpg Edytowane 16 Lutego 2014 przez walazz Cytuj Link to post Share on other sites
walazz 99 Napisano 3 Kwietnia 2014 Autor Udostępnij Napisano 3 Kwietnia 2014 (edytowane) Odgrzebałem trochę temat bo przeszedłem w końcu na G1820. Darmowe quicksync tym bardziej mnie skusiło. Jaki jest efekt odblokowania quicksync na celeronie? Ano taki że G1820 stał się multimedialnym kombajnem.............. multimedialnym kombajnem przyszłości za 150PLN. Po zainstalowaniu najnowszych sterowników iGPU odblokowujących na iGPU quicksync oraz nowego FFDSHOW i ustawieniu dekodowania video na quicksync ............. różnica jest kosmiczna. Intel QuickSync Decoder http://sourceforge.net/projects/qsdecoder/ Intel® Iris™ and HD Graphics Driver for Windows* 7/8/8.1 64-bit https://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&DwnldID=23714&lang=eng&wapkw=g1820 Elysium_trailer_1-4K-HDTN.mp4 http://videos.hd-trailers.net/Elysium_trailer_1-4K-HDTN.mp4 ........................... test polegał na odtworzeniu video w rozdzielczości 4k UHD czyli video w rozdzielczości 4096x1716........ na monitorze niestety tylko 1080p ale downscalling pozwala w pełni zasymulować playback 4k UHD............. efekt? PEŁNA PŁYNNOŚĆ i obciążenie CPU na poziomie 50% http://i.imgur.com/QDOiyGl.jpg http://i.imgur.com/QDOiyGl.jpg Edytowane 3 Kwietnia 2014 przez walazz Cytuj Link to post Share on other sites
Xarix 2265 Napisano 3 Kwietnia 2014 Udostępnij Napisano 3 Kwietnia 2014 Prosiłeś na SB o przetestowanie. Łap wynik - i7 2600 Cytuj Link to post Share on other sites
Recommended Posts
Dołącz do dyskusji
Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.