Skocz do zawartości

Temat o kartach graficznych INTEL, aka trzeci gracz


Recommended Posts

  • 3 tygodnie później...

Kolejny przeciek nt spodziewanej wydajności B780 i ponownie mowa o poziomie 4070S/Ti 

 

https://ithardware.pl/aktualnosci/intel_battlemage_wyciekla_specyfikacja_mozliwa_wydajnosc_na_poziomie_geforce_rtx_4070_super-31339.html

Przy czym moim zdaniem to wyjdzie jako B770 finałowo. 

  • Lubię to 1
Link to post
Share on other sites

Odpowiednik 4070s/ti to jeszcze low-end czy już niższa średnia półka według szanownego forum? Trzymam za intela kciuki, że pomimo kiepskiej sprzedaży nie wycofa się prędko z rynku GPU, im większa konkurencja tym lepiej dla konsumentów.

  • Lubię to 1
Link to post
Share on other sites
2 minuty temu, zbiku90 napisał:

Trzymam za intela kciuki, że pomimo kiepskiej sprzedaży nie wycofa się prędko z rynku GPU, im większa konkurencja tym lepiej dla konsumentów.

No pewnie że lepiej. Kiedy Intel zapowiedział wejście na rynek GPU, dużo osób marzyło:

- Ale super, trzech wielkich graczy, to konkurencja na rynku kart graficznych i ceny spadną.

No i Intel wypuścił kilka modeli. Po tym zabiegu dzięki większej konkurencji ceny poszybowały w górę jak nigdy dotąd :rotfl:

  • Smutne 1
Link to post
Share on other sites
14 godzin temu, wodego napisał:

Po tym zabiegu dzięki większej konkurencji ceny poszybowały w górę jak nigdy dotąd :rotfl:

Nawet tutaj jest kilka osób które kart AMD czy Intela nie chciałoby nawet za darmo, a NVidia już od trzech generacji testuje ile da się wyciągnąć z frajerów (nie piszę o ludziach, którym CUDA czy Tensory są faktycznie potrzebne do pracy). Wczoraj znajomy pytał czy 4060 za 1500zł głównie pod Warzone 2 będzie dobrym pomysłem, po wybiciu tego pomysłu z jego głowy logicznymi argumentami i wykresami zaproponował 2060 6GB za ponad 1000. I tak się ten biznes kręci, klapki na oczach.

  • Smutne 2
Link to post
Share on other sites
28 minut temu, zbiku90 napisał:

Nawet tutaj jest kilka osób które kart AMD czy Intela nie chciałoby nawet za darmo

 

I są ku temu solidne przesłanki, choćby nie wiem z której strony patrzeć. Co dostajemy u Intela? Skopane sterowniki które w jednych grach może faktycznie brylują, natomiast w innych mamy grecką tragedię. U AMD dostajemy standardową rasteryzację porównując segment w segment minimalnie wyższą kosztem tragicznych i żałosnych wręcz prób gonienia Nvidii w nowinkach (FSR i ten ich generator klatek nie nadaje się do niczego, a wydajność w RT jest w najbardziej optymistycznych scenariuszach porównywalna z Ampere, poprzednią generacją zielonych). I tenże pakiet dostajemy w niższej, lecz IMHO dalej  za wysokiej jak na to co oferuje cenie. 

 

Skoro zostałem nazwany frajerem to odbijam piłeczkę - Niebieskie i czerwone karty są również dla frajerów co sępią sobie na przyjemności każdej złotówki, stękają, jęczą, przydreptują w miejscu zanim ją wydadzą na półprodukt i przez pół życia danej generacji kart polują na okazje na peperku. Po czym  już w momencie zakupu karta zostawia niedosyt i niespełnione oczekiwania. Już od początku używania karty grają w niepełnych ustawieniach (o ile akurat grę da się odpalić i nie trzeba wcześniej przeprowadzić kilkugodzinnej walki z pecetem i sterownikami), dobrze wyglądającej gry w pełnym RT nigdy nie widzieli ale już wiedzą z góry że to im niepotrzebne.

 

Jako frajer z poprzedniej wypowiedzi pozwolę sobie po powrocie z pracy dokończyć dzisiaj Widmo wolności na mojej frajerskiej karcie :D 

Edytowane przez joker5513
  • Popieram 1
Link to post
Share on other sites
58 minut temu, joker5513 napisał:

Niebieskie i czerwone karty są również dla frajerów co sępią sobie na przyjemności każdej złotówki, stękają, jęczą, przydreptują w miejscu zanim ją wydadzą na półprodukt i przez pół życia danej generacji kart polują na okazje na peperku

Wypraszam sobie! Ja tak robię, ale w kontekście kart NVIDII. 

 

Na przykład teraz w mojej obudowie siedzi RTX 4070 z outletu kupiony za 1972 zł. 

Link to post
Share on other sites
Godzinę temu, joker5513 napisał:

Skoro zostałem nazwany frajerem to odbijam piłeczkę - Niebieskie i czerwone karty są również dla frajerów co sępią sobie na przyjemności każdej złotówki, stękają, jęczą, przydreptują w miejscu zanim ją wydadzą na półprodukt i przez pół życia danej generacji kart polują na okazje na peperku. Po czym  już w momencie zakupu karta zostawia niedosyt i niespełnione oczekiwania. Już od początku używania karty grają w niepełnych ustawieniach (o ile akurat grę da się odpalić i nie trzeba wcześniej przeprowadzić kilkugodzinnej walki z pecetem i sterownikami), dobrze wyglądającej gry w pełnym RT nigdy nie widzieli ale już wiedzą z góry że to im niepotrzebne.

 

Jako frajer z poprzedniej wypowiedzi pozwolę sobie po powrocie z pracy dokończyć dzisiaj Widmo wolności na mojej frajerskiej karcie :D 

 

Też trochę snobistyczne, biorąc pod uwagę że większość osób tutaj żyje w Bolzdze to raczej sporo by umarło z głodu albo nie byliby w stanie opłacić czynszu gdyby kupili sobie RTX'a. Nie każdy gra też w tytuły z np. RTX czy DLSS/FSR (whatever you pick). Większość gier, która skupia większość rynkową (tytuły online) nie obsługuje takich gimmicków i nigdy nie będzie. 
A i funfact: RayTracing (po roku mogę to potw.) w World of Warcraft nadal działa dużo lepiej na FSR3 niż RTX'ach. :wariat: Anomaly still persists. 

 

DLSS i FSR, jakikolwiek framegen to syf, który najlepiej zaorać, wszyscy w długim okresie przez to "przegramy". Lenistwo deweloperów + degradacja jakości obrazu c.d.
To jest ich super tania metoda zwiększania rozmiaru słupków na wykresach podczas premier oraz w papirusach marketingowych.  

 

Wniosek: każdy producent to menda i każdego z nas... nie powiem co. Fishsticks w pączusia. 

 

Co do perf per watt realnie jest h2h jeżeli ktoś umie robić uV i rozumie jak działa core frequency i skalowanie na RDNA3. Ba, w ciągu zaledwie tylko tego miesiąca RX 7900 XTX zaczął rywalizować z potężnym  RTX 4090 w akceleracji AI (last dwa update'y ROCm). A do tego value per €. 

 

Dla każdego coś się znajdzie, robisz A to kupujesz AMD, robisz N kupujesz NVIDIE. Wiesz dokładnie co robisz, np. "I" to kupujesz taniego Intela Arc'a A770 bo ci styknie i wiesz że tutaj sterowniki cię nie storpedują. Różne potrzeby, różne budżety. Jedyne czym gardzę to fanboystwo. :rudolph:

 

  • Popieram 2
Link to post
Share on other sites

Panowie, Panowie, aż dziś wsadzę ARCa do mojego prywatnego komputerka :)  Trafi tam zamiast RTX 3060Ti, posiedzi najbliższy miesiąc. 

 

17 minut temu, Revenant napisał:

Ba, w ciągu zaledwie tylko tego miesiąca RX 7900 XTX zaczął rywalizować z potężnym  RTX 4090 w akceleracji AI (last dwa update'y ROCm). A do tego value per €. 

Nawet jakby był 50% wydajniejszy w AI to w dalszym ciągu to za mało by realnie konkurować z NVidią czy Intelem. Jeżeli mówimy o pracach związanych z AI i wykorzystaniem konkretnego środowiska w realnych projektach, to zaplecze składające się z jednego modelu karty konsumenckiej i jednej profesjonalnej to trochę mało by jakkolwiek rozpatrywać wykorzystanie karty. 

image.png.689655609451abf6f3910a3435ce2c42.png

AI nie uczy się tylko po to by było fanie nauczone, tylko do tego by wykorzystać potem do rozwiązania rzeczywistego problemu. Z mojej praktyki wynika, że użycie potem zwykłej stacjonarki, na której sieć projektowano / uczono, zwykle nie wchodzi w grę. Ograniczenia związane z ROCm są takie, że ciężko jest nawet znaleźć laptopa, na którym wykorzystam taką sieć zaprojektowaną / uczoną na czymś innym. 

 

 

Link to post
Share on other sites
45 minut temu, Revenant napisał:

DLSS i FSR, jakikolwiek framegen to syf, który najlepiej zaorać, wszyscy w długim okresie przez to "przegramy". Lenistwo deweloperów + degradacja jakości obrazu c.d.
To jest ich super tania metoda zwiększania rozmiaru słupków na wykresach podczas premier oraz w papirusach marketingowych.  

Odnoszę wrażenie że ani jednego ani drugiego nie widziałeś, jeżeli takie dyrdymały wypisujesz. Od dłuższego czasu dlss działa bardzo dobrze i jakiekolwiek wychwycenie różnic to porównywanie printscreenów. O FSR tego zdecydowanie powiedzieć nie sposób. 

 

Nie zrozumcie mnie źle, bardzo się cieszę że pomimo wszystkich oczywistych wad i zacofania w nowościach o co najmniej jeden gen są jeszcze chętni na czerwone karty. Jakieś resztki walki cenowej jeszcze na rynku obowiązują, szkoda tylko że nie w segmencie kart który mnie interesuje :/ 

 

Link to post
Share on other sites
6 godzin temu, joker5513 napisał:

Odnoszę wrażenie że ani jednego ani drugiego nie widziałeś, jeżeli takie dyrdymały wypisujesz. Od dłuższego czasu dlss działa bardzo dobrze i jakiekolwiek wychwycenie różnic to porównywanie printscreenów. O FSR tego zdecydowanie powiedzieć nie sposób. 

 

Nie zrozumcie mnie źle, bardzo się cieszę że pomimo wszystkich oczywistych wad i zacofania w nowościach o co najmniej jeden gen są jeszcze chętni na czerwone karty. Jakieś resztki walki cenowej jeszcze na rynku obowiązują, szkoda tylko że nie w segmencie kart który mnie interesuje :/ 

 

Nie wiem co dla ciebie znaczy że DLSS działa bardzo dobrze ? Ale jeśli dla ciebie jakość obrazu jest na drugim miejscu to tak, DLSS jest spoko bo jest szybciej i gorzej. Dla mnie zawsze jest mydło. Proteza wymyślona aby nie ośmieszyć wydajności kart graficznym w nowych grach.

Nie mierz wszystkich swoją miarą , dobrze że chociaż napisałeś że nie jest w twoim segmencie , bo w moim jak najbardziej jest , jeśli wiesz do czego będziesz używać:) 

Jeśli ktoś używa kompa w konkretnych programach i grach to nie potrzebuje RTX4090 gdzie to samo zrobi szybciej na dwa razy tańszym RX7900XTX . Trzeba być tylko świadomym , no chyba że kasa dla ciebie nie gra roli to zawsze kupujesz najdroższą kartę na rynku.

 

 

Link to post
Share on other sites
10 minut temu, Kawabonga napisał:

Dla mnie zawsze jest mydło. Proteza wymyślona aby nie ośmieszyć wydajności kart graficznym w nowych grach.

Podaj proszę przykłady gier które rzekomo ogrywałeś/widziałeś. Bo naprawdę albo pie...sz głupoty i nigdy DLSS w ustawieniu JAKOŚĆ nie widziałeś albo włączasz je żeby skalowało do natywnej monitora 1080p (bardzo możliwe jako że masz/miałeś 3060ti).

 

W jednym przyznam rację - głęboko w .... obudowie mam te "zastosowania profesjonalne". W domu komputer służy mi tylko do rozrywki, netu i ewentualnie odtwarzania multimediów. Naglę się jak widać okazuje że co drugi Kowalski z Nowakiem w domu renderują, kleją filmy albo pomagają w rozwoju chata gpt :D Więc na ten temat się nie wypowiem ale generalnie w tym aspekcie Radeony SSĄ jeszcze bardziej niż w grach więc....

Edytowane przez joker5513
Link to post
Share on other sites
29 minut temu, Kawabonga napisał:

Jeśli ktoś używa kompa w konkretnych programach i grach to nie potrzebuje RTX4090 gdzie to samo zrobi szybciej na dwa razy tańszym

To są testy typu co szybciej wyświetli pulpit

Adobe premiere pro to tylko nvidia i intel wiec nie wiem co to za pomiary są

Link to post
Share on other sites
9 minut temu, janek20 napisał:

To są testy typu co szybciej wyświetli pulpit

Adobe premiere pro to tylko nvidia i intel wiec nie wiem co to za pomiary są

Pewnie gościu dostał kasę od AMD i sobie wymyślił te wyniki XD 

30 minut temu, joker5513 napisał:

Podaj proszę przykłady gier które rzekomo ogrywałeś/widziałeś. Bo naprawdę albo pie...sz głupoty i nigdy DLSS w ustawieniu JAKOŚĆ nie widziałeś albo włączasz je żeby skalowało do natywnej monitora 1080p (bardzo możliwe jako że masz/miałeś 3060ti).

 

W jednym przyznam rację - głęboko w .... obudowie mam te "zastosowania profesjonalne". W domu komputer służy mi tylko do rozrywki, netu i ewentualnie odtwarzania multimediów. Naglę się jak widać okazuje że co drugi Kowalski z Nowakiem w domu renderują, kleją filmy albo pomagają w rozwoju chata gpt :D Więc na ten temat się nie wypowiem ale generalnie w tym aspekcie Radeony SSĄ jeszcze bardziej niż w grach więc....

Proszę Cię , nie mów że ty na 4090 włączasz DLSS ??? Ja staram się to omijać, chociaż mam 3060Ti.  60 FPS mi wystarczy bez DLSS.

Jedyny program których  używam z tych testowanych do Davini Reslove i nie ma sensu dopłacać do nvidii.

Edytowane przez Kawabonga
Link to post
Share on other sites
Teraz, Kawabonga napisał:

Pewnie gościu dostał kasę od AMD i sobie wymyślił te wyniki XD

Gdzieś tam radeon daje a gdzieś jest półproduktem w stosunku do nvidii

A ze dostaje to wiadomo.Nie będzie cie za darmo zabawiał,aż taki ciekawy nie jesteś

  • Haha 1
Link to post
Share on other sites
1 minutę temu, janek20 napisał:

Gdzieś tam radeon daje a gdzieś jest półproduktem w stosunku do nvidii

A ze dostaje to wiadomo.Nie będzie cie za darmo zabawiał,aż taki ciekawy nie jesteś

To wychodzi na to że dla mnie wszystkie sedany to półprodukty bo ja całe życie kombiakiami jeżdżę , proszę cię nie bądź dziecinny . ;)

Edytowane przez Kawabonga
Link to post
Share on other sites
48 minut temu, Kawabonga napisał:

Proszę Cię , nie mów że ty na 4090 włączasz DLSS ???

A czemu miałby tego nie robić? Akurat w 4k DLSS pozostawia najmniej widocznych śladów a niektóre gry niestety z 4090 nie wyciągną tych 100+ fps. 

 

50 minut temu, Kawabonga napisał:

60 FPS mi wystarczy bez DLSS.

 

53 minuty temu, Kawabonga napisał:

Jedyny program których  używam z tych testowanych do Davini Reslove i nie ma sensu dopłacać do nvidii.

60 FPS jednych zadowala, innych nie. Sam wolę grać przy 100+ FPS. Różnica w odczuwalnej płynności i odczuwalnych opóźnieniach jest kolosalna. Wiesz, to troszkę nie wiem dlaczego krytykujesz to, że ktoś inny może mieć inne potrzeby niż Ty. Widzisz, ja pod ręką mam sporo różnych kart graficznych, od RTX 3050 do 2x RTX 4090 i właśnie do prywatnego komputera, na którym czasem pracuję a czasem gram, wsadziłem Intel ARC A750.

image.thumb.png.0611229110ca488c8ca59560fe0c3853.png

 

To jest naprawdę świetna karta, pod warunkiem, że ktoś ma ograniczone oczekiwania co do samej wydajności i odrobinkę cierpliwości gdy coś idzie nie po myśli. Przy cenie na poziomie ok 1000 zł (często bywają w promocji) to ta karta zjada na śniadanie wszystkie Radeony 6600 :), często w grach konkuruje z RTX 3060 / 3060Ti, co stanowi sensowną propozycję, zważywszy na cenę. 
 

  • Lubię to 3
Link to post
Share on other sites
24 minuty temu, Adames napisał:

A Wiesz, to troszkę nie wiem dlaczego krytykujesz to, że ktoś inny może mieć inne potrzeby niż Ty. Widzisz, ja pod ręką mam sporo różnych kart graficznych, od RTX 3050 do 2x RTX 4090 i właśnie do prywatnego komputera, na którym czasem pracuję a czasem gram, wsadziłem Intel ARC A750.

 

Ale ja go nie krytykuje, tylko uświadamiam. Jego zdaniem co byś nie robił na kompie to tylko nvidia i najlepiej 4090  , bo wszystko inne to półprodukt którego nie chciał by za darmo. XD 

Edytowane przez Kawabonga
Link to post
Share on other sites
1 godzinę temu, Kawabonga napisał:

Proszę Cię , nie mów że ty na 4090 włączasz DLSS ???

Na 3080/3090ti/4080 włączałem regularnie, na 4090 trzeba się posiłkować DLSS jakość i frame generatorem w Cyberpunku z Pathtracingiem i powiedzmy w Hogwarcie (na upartego można bez ale czasem chrupnie poniżej 60fps), resztę gier które mam i gram ogarnia bez problemu z rt bez upskalowania. Nie każdy gra w 1080p - w 4K lub 3440x1440 i 4090 czasem to za mało do komfortowej rozgrywki (komfort to dla mnie 100fps +).

 

 

8 minut temu, Kawabonga napisał:

Ale ja go nie krytykuje, tylko uświadamiam. Jego zdaniem co byś nie robił na kompie to tylko nvidia i najlepiej 4090  , bo wszystko inne to półprodukt którego nie chciał by za darmo. XD

To chyba bardziej Ty uświadomienia potrzebujesz... Kup już tego śmiecia 7800XT, będziesz miałw swoim łarzonie zamiast 140 klatek 155 a w innych grach niegrywalne fpsy. EOT

Edytowane przez joker5513
  • Że co, proszę? 1
  • Haha 2
Link to post
Share on other sites
20 minut temu, joker5513 napisał:

Na 3080/3090ti/4080 włączałem regularnie, na 4090 trzeba się posiłkować DLSS jakość i frame generatorem w Cyberpunku z Pathtracingiem i powiedzmy w Hogwarcie (na upartego można bez ale czasem chrupnie poniżej 60fps), resztę gier które mam i gram ogarnia bez problemu z rt bez upskalowania. Nie każdy gra w 1080p - w 4K lub 3440x1440 i 4090 czasem to za mało do komfortowej rozgrywki (komfort to dla mnie 100fps +).

 

 

To chyba bardziej Ty uświadomienia potrzebujesz... Kup już tego śmiecia 7800XT, będziesz miałw swoim łarzonie zamiast 140 klatek 155 a w innych grach niegrywalne fpsy. EOT

@Adames Sam widzisz że on i jego 4090 rules i wie najlepiej co kto potrzebuje XD 

@joker5513 Ile godzin masz pograne w CB i HL ? 40 ?  Czy tylko odpalasz benchmark aby sprawdzić jak tam wygląda RT w 100FPS  ? XD

Ja w warzonie i apex legend mam po około 800 godzin i wiem że amd tam chodzi lepiej  nie potrzebuje dopłacać panu kurteczce :D 

Jak Intel będzie w tych grach wypadał dobrze i będzie tanio  to i może będę miał intela.

Edytowane przez Kawabonga
Link to post
Share on other sites
10 godzin temu, Kawabonga napisał:

Ile godzin masz pograne w CB i HL ? 40 ?

W cyberpunku jakieś 80, w Hogwarcie pod 100h...

 

10 godzin temu, Kawabonga napisał:

Ja w warzonie i apex legend mam po około 800 godzin

Cieszę się twoim szczęściem. Z Multi osobiście gram w Hunt Showdown (jakieś 700h mam wbite). w mojej rozdzielczości 3080 kręcił sie koło 100fps, 3090ti dopiero po maksymalnym OC zamykał monitor na 144Hz a 4080 i 4090 już pracują na pół gwizdka. Ta gra jest na DX11 i lubi mocny procesor, najlepiej z 3d cache. Brak wtedy irytujących spadków - na Intelu sie zdarzały, 7800X3D już trzyma stabilnie jak skała nawet 180 Hz.

 

Warzona nie cierpie a Apexa nie próbowałem. To też jest battleroyale?

 

A za ten fragment w sumie przepraszam:

 

10 godzin temu, Kawabonga napisał:

To chyba bardziej Ty uświadomienia potrzebujesz... Kup już tego śmiecia 7800XT, będziesz miałw swoim łarzonie zamiast 140 klatek 155 a w innych grach niegrywalne fpsy. EOT

Nie było to potrzebne :( 

Edytowane przez joker5513
Link to post
Share on other sites

Super, cieszę się, że Panowie się pogodzili, wróćmy do Intela :) 

 

Dziś za cel wziąłem sobie odpalenie mojej własnej kaskady klasyfikatorów, dumnie nazwanej "AbsolutelyNotHaarCascadeClassifier". Pierwsze odpalenie jak leci -> Blue Screen. Dawno nie widziałem tego w windowsie.

 

Chwila kombinowania nad przestawieniem flag i działa :)

image.png.c58095d7e1dd008605069e46b2319773.png

 

To co widać na wykresie to czasy inferencji każdego z etapów (0 = etap pominięty w danym samplu). Jest ogólnie dobrze, dla porównania wyniki z RTX 3060Ti (testowany jakiś czas temu - ten sam komputer i środowisko, jedynie gpu inne):
image.png.a191ceaeae79a6b26530f73a27340326.png

 

To co widać, to przy ARC jeden etap zabiera potwornie dużo czasu - etap z wykorzystaniem yolo w OpenCV. Dlaczego? Niestety, tutaj nie ma dobrej odpowiedzi, obecnie opencv straszliwie muli na wszystkim poza CUDA, to jest nie do końca wina intel gpu - raczej intel software, że nie dopilnowali by OpenCV (którego zapoczątkował intel ... ) potrafił ładnie wykorzystywać nowe wynalazki. Pozostałe etapy, które używają bezpośrednio TensorFlow - z pluginem do DirectML - działają pięknie, średnio ok 25% szybciej niż RTX 3060Ti. Następne co sprawdzę, to jak sobie poradzi z wynalazkiem, który ostatnio dosyć często używam, a który działa fenomenalnie na intel iGPU - sieć MiDaS.


https://pytorch.org/hub/intelisl_midas_v2/

 

Link to post
Share on other sites

A jak kogoś ciekawi jak wygląda życie z ARC A750 w praktyce to:

- Far Cry 6 - 1440p ustawienia High + DXR + FSR Ultra Quality -> płynnie, bez problemów, fajnie wygląda, fajnie działa. Nie mierzyłem FPS, ale oko mi mówi, że jest wincyj jak 60 mniej jak 100. Testów jest pewnie sporo na necie, to nie będę lał wody. 0 problemów.

- Serious Sam HD - The First Encounter - Ustawienia MAX, 1440p. Gra mega płynna, 200/300+ FPS, brak rwania, itd, są jednak bugi:

      - Przy przejściu na nową mapę czasem gra wyrzuca do windowsa - nie udało się zaalokować 44 GB pamięci. Tutaj pomaga ustawienie grafiki na low, przejście przez przeładowanie mapy i znów na high. 

      - Dwa razy zdarzyło mi się nagły freeze całego PC, z takim brzęczącym dźwiękiem a potem reset. Nawet BSOD nie było, brak też jakiś wzmian w podglądzie zdarzeń.  Minidump nie został wygenerowany. 

- Przy monitorze MSI Optix G27C4 występowały czasem mignięcia (ok 0.5s) na czarno obrazu przy przeglądaniu neta z youtube w tle lub na karcie obok. Przy monitorze IIYAMA 1440p nie zaobserwowałem migania. Połączenie obu monitorów przez display port. 

- Zastanawia mnie, dlaczego ARC próbuje współdzielić dodatkowe 32 GB RAM

- BRAK piszczenia cewek, nawet w furmarku, a przynajmniej nic takiego nie wychodzi z zamkniętej obudowy. Karta przy mocnym obciążeniu daje o sobie znać, wentylatory są dosyć głośne, ich ton jest jednak akceptowalny - przypomina podmuch powietrza, bez buczenia śmigieł / silnika.

image.png.6c29f9d0c46679d5aab9d500f220c9e3.png

 

 

Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...