Skocz do zawartości

Temat o kartach graficznych INTEL, aka trzeci gracz


Recommended Posts

Jak z poborem mocy podczas Heavena?

 

Wg bardzo wczesnych zapowiedzi Intel Battlemage celuje w topowym modelu w wydajność 4070 Ti (w grach). 

 

https://www.purepc.pl/intel-battlemage-ma-podobno-zaoferowac-dwukrotnie-wiecej-blokow-xe-core-i-wydajnosc-klasy-geforce-rtx-4070-ti

 

Nawet jeśli to ma wyjść za rok to dogonienie Topu Nv / AMD z poprzedniej generacji w drugiej iteracji dedykowanych GPU od Intela to byłby ogromny sukces. Co więcej, jako że przy Arc niebiescy niemalże zrealizowali swoje obietnice (wydajność doganiająca 3070 w niektórych zastosowaniach) to taki 4070 Ti wcale nie wydaje się niemożliwy - a mówimy wtedy o karcie do w miarę komfortowego grania w 2K.

Link to post
Share on other sites

Niestety nie wiem i na chwilę obecną nie wiem jak to sprawdzić bo:

- Narzędzie intela - intel-gpu-top pokazuje wszystko, tylko nie power -.-" dla integry na lapku pokazuje, dla arc już nie -.-"

- Nie mam nigdzie pod ręką cęgów by sprawdzić linię 12V

image.thumb.png.edaa16471fb09befd754c78f3c802b3e.png

 

Narzędzie od zielonych - nvidia-smi zawsze pokazuje total power, to od intela nie.

 

Obecnie buduję OpenCV z wsparciem dla OpenVino, to pozwoli na test Nvidia-CUDA vs Intel na OpenVino. 

Dla przykładu nvidia-smi:
image.png.eccd58f5e50c3d67fe70b7e6aa63b457.png

  • Haha 1
Link to post
Share on other sites

@Rebelmind

image.png.8d98d5a2c30963f16ba090f1e5cf01e4.png

 

Także teges :)

 

 

Mam pierwszy test przydatności karty Intel Arc A750 w AI !!! Panowie i Panie, jest PETARDA! Serio. Wreszcie karta inna niż NVidia, która jest przydatna poza graniem :).

 

Jak testowałem?

Zrobiłem własny benchmark korzystając z OpenCV, w którym mierzę czas jaki zajmuje przepuszczenie jednej klatki wideo przez sieć neuronową. Sieć neuronowa to:

Yolo v4-p6, uczona na zbiorze MS COCO:

https://github.com/AlexeyAB/darknet

Na potrzeby testu, maskę wejściową ograniczyłem do 640x640.

 

OpenCV zbudowane ze wsparciem dla CUDA, OpenCL, OpenVino.

 

Szybkość sieci sprawdzam przepuszczając kolejno 1000 klatek i obliczając średni czas jaki zajmuje przepuszczenie tego przez sieć. Czas dekodowania obrazu z filmu nie jest brany pod uwagę. Film w rozdzielczości 1280x720, spakowany kodekiem H264 High Profile. 

Co jest zatem brane pod uwagę? Czas skalowania obrazu do rozdzielczości docelowej (to wykonuje się na CPU, wartość stała), czas przesyłania obrazu do GPU (to jest zależne głównie od platformy i trochę od samego GPU), czas wnioskowania (czyli przepuszczenie obrazu przez gpu, zależy od API, sterownika, wydajności samej karty itd), czas pobrania wyników (tego nie jest wiele, zależne od platformy i gpu, mały wpływ na pomiar wydajności)

 

Platforma testowa:

CPU -> Threadripper 1920X Stock

MB -> Asrock X399 Phantom Gaming 6

RAM -> 64 GB 3000 CL16 Quad Channel

GPU:

MSI Ventus RTX 2080Ti

Gigabyte Paździerz RTX 2060

Intel ARC A750

 

OS + driver:

intel A750: 
Kernel: 5.17.0-1020-oem
intel-i915-dkms - Out of tree i915 driver for Ubuntu oem kernel version 5.17.
intel-i915-dkms/jammy,jammy,now 0.6469.0.3.221221.4.5.17.0.1020+i11-1 all [installed]

 

Nvidia i CPU:

Kernel: 5.19.0-35-generic
Driver Version: 515.65.01

 

Wykresy -> Wyniki przeliczone na FPS. Więcej = lepiej 

 

Wyniki:

image.png.f53b5ced2197c2b0916c5f7d71afa558.png

 

Test interfejsu:

cv::dnn::DNN_BACKEND_OPENCV
cv::dnn::DNN_TARGET_OPENCL

Dla cpu we wszystkich testach użyto:

cv::dnn::DNN_BACKEND_OPENCV
cv::dnn::DNN_TARGET_CPU

 

Generalnie standardowy interfejs OpenCV z OpenCL jest słaby. Potrafi zdławić wydajność nawet takiej karty jak RTX 2080Ti. Zaletą tego jest jednak to, że bez ingerencji w kod można to odpalić na niemal wszystkim. Jak widać ARC jest górą :)

 

 

Następny test:

image.png.4680b607717236fcdc2a5bf2487d38f9.png

 

Interfejs

cv::dnn::DNN_BACKEND_OPENCV
cv::dnn::DNN_TARGET_OPENCL_FP16

 

Brak optymalizacji OpenCL do efektywnego wykonywania operacji o połowie precyzji, stąd wyniki nawet gorsze od poprzednich. Ot taki urok jak coś jest do wszystkiego.

 

Teraz pora na "prawdziwe testy"

image.png.fe1a3b10a3c4746f53d501eb74b0be94.png

 

Dla kart NVidia:

cv::dnn::DNN_BACKEND_CUDA
cv::dnn::DNN_TARGET_CUDA

 

Dla karty ARC:

cv::dnn::DNN_BACKEND_INFERENCE_ENGINE
cv::dnn::DNN_TARGET_OPENCL

 

Karta wyciąga prawie 20 FPS w dosyć ciężkiej sieci, jest niewiele słabsza od RTX 2060. Sukces Panowie i Panie, karta jest użyteczna! Nawet mimo, że to tylko OpenCL a nie dedykowany interfejs Intela.

 

Ostatni test na dziś:

image.png.4873df94d14e6ca0680a7aab6fc19548.png

 

 

Interfejs:

Dla kart NVidia:

cv::dnn::DNN_BACKEND_CUDA
cv::dnn::DNN_TARGET_CUDA_FP16

 

Dla karty ARC:

cv::dnn::DNN_BACKEND_INFERENCE_ENGINE
cv::dnn::DNN_TARGET_OPENCL_FP16

 

Wykorzystując operacje o połowie precyzji karta intela przy obecnym API nie skaluje się tak dobrze jak karty NVidia z CUDAmi. Tutaj widać doświadczenie zielonych. Poczekamy, zobaczymy może będzie lepiej. 

 

Tak czy inaczej karta bardzo pozytywna. Na razie zostanie w mojej maszynie jako karta robocza, zobaczę co wyjdzie z tego w przyszłości. 

Edytowane przez Adames
  • Lubię to 4
Link to post
Share on other sites

Czyli przy wykorzystaniu kart dla zadań związanych z AI te nowe Intele wypadają bardzo konkurencyjnie, szczególnie bez dedykowanego, autorskiego oprogramowania pod to! Zakładam zatem, że taki A750 jest również sporo tańszy niż RTX 2080 Ti. Dzięki wielkie @Adamesza taki test! 

Link to post
Share on other sites

A proszę bardzo :)

 

Ważnym aspektem testowania GPU w AI jest niestety fakt, że nie da się porównać kart stosując wyłącznie metodę jednej zmiennej, bo karty są tak różne, że inaczej można by uzyskać nieprawidłowe wnioski. Dlaczego? Przecież jest OpenCL, który działa na wszystkim. No działa... Trochę jak z testowaniem technik upscalingu, czyli XESS vs DLSS vs FSR, vs DLS-FG .... i wszystkie inne kombinacje. Nikt chyba nie powie, że to pełen obraz sytuacji na rynku i RTX z dlss-fg jest najlepszy, bo ma najwięcej fps, bo to powoduje inne komplikacje. 

 

Testowanie i wyciąganie wniosków z testów stało się obecnie skomplikowane. To samo tyczy się testowania wydajności w AI - nie mogę przetestować intela pod najnowszym kernelem - brak wsparcia, dedykowany build kernela też może mieć negatywny wpływ na sterowniki NVidia (nie testowałem tego, ale podejrzewam, że byłyby problemy z uruchomieniem). Kolejna sprawa - wsparcie, podobnie jak DLSS jest tylko dla nvidii, tak CUDA api jest też tylko dla nich zarezerwowane, "czysty" OpenCL działa na wszystkim, ale nie pozwala uzyskać pełnego potencjału karty.  Dlatego testuję OpenCL z backendem OpenVino vs CUDA, bo to porównanie potencjalnie pozwala na uzyskanie najwyższej wydajności z obu kart. Tak przekładając to na język growy, to testuję czy Vulkan + FSR jest lepszy od DirectX + DLSS. Prawda jest taka, że tak właśnie kart się używa, kiedy przychodzi do realizacji prawdziwego systemu, o ile jest taka opcja (np czy framework do AI umożliwia takie przejście). Dzięki takim testom można się dowiedzieć, czy jedno rozwiązanie można zastąpić innym. Różnica pokroju 2-5% jest w tym przypadku nieistotna i nie decyduje czy dana karta jest alternatywą dla innej. 

 

Wystarczy już rozterek, nt testowania, pora przejśc do merytoryki. Testy lrzejszej sieci, Yolo v4, przy masce wejściowej 608x608, tak aby mieć porównanie (nie jeden do jednego, ale raczej ogólnie co do klasy wydajności) do wyników uzyskanych w darknecie:

 

image.thumb.png.f280ac4c547ed0c398484cfa0dc02a45.png

 

To jest test dla pełnego YOLO v4 przy różnych nastawach maski wejściowej (network Size). Obecnie jeszcze nie ogarnełem jak skorzystać z Intelowych rozszerzeń do mnożenia macierzy (intel one api) dlatego nie porównuję do tensorRT (kolumny tkdnn). Na kolumny z ogromnymi wynikami przy batch=4 nie należy patrzeć, używanie wsadów to co innego i to samo można zrobić w openCV, skalowanie będzie podobne. Temat na inne posiedzenie. Tutaj autor popełnił gafę porównując wyniki z darknetu do tkDNN przy batch=4, nie tak nie wolno, to bez sensu.

 

A teraz wydajność:

image.png.0caa42b4f4a84d0efffec0208e2a2df5.png

 

CPU -> 2,73 FPS

A750 -> 43.14 FPS

RTX 2080Ti -> 50,12 FPS

 

Użyte api:

Nvidia -> cuda

Intel -> OpenVino / OpenCL

CPU -> OpenCV / OpenCL

 

Tym razem widzimy, że przy lżejszej sieci skalowanie jest inne. Dlaczego? Tutaj przy niektórych typach sieci jest taki problem z "rdzeniami" karty jak z ilością VRAM w grach. Jeżeli VRAM jest wystarczająco, to jego ilość nie ma większego znaczenia dla płynności gry i tylko goła wydajność GPU się liczy. Niektóre konstrukcje sieci neuronowych mają podobnie, jeżeli układ ma "wystarczająco" jednostek obliczeniowych, by np za jednym rzutem przeliczyć całą warstwę, to gpu będzie lepiej obciążony. Dlatego w różnych modelach skalowanie wydajności kart graficznych może wyglądać różnie. Tutaj własnie to widzimy, przy w dalszym ciągu dosyć ciężkiej sieci (ale jednak trochę lżejszej od poprzedniej) taki RTX 2080Ti jest ledwie 16% wydajniejszy od ARC A750 (czyli nawet nie topowego modelu od Intela). Jakby to wyglądało porównując z współcześniejszą kartą? Taki RTX 3070 w zastosowaniach AI (tam gdzie podczas uczenia nie ogranicza go ilość VRAM) jest identycznie wydajny jak RTX 2080Ti. Niestety w chwili obecnej nie mam na stanie żadnej karty z serii RTX 30xx, rozeszły się.  

 

 

Mamy więc kartę za mniej niż RTX 3050, która wydajnością w AI celuje w RTX 3060Ti. 

  • Lubię to 3
  • Popieram 1
Link to post
Share on other sites

Bardzo mnie cieszą takie tematy, nie nastawione na hejt typu:

"nie mam, nie znam się, a się wypowiem" :facepalm:

 

Sam wczoraj odebrałem ARC A770 LE 16GB i dopiero będę testował :D

 

Jeśli chodzi o gry na ARC A750 to polecam rzetelny film mojego znajomego: 

Intel Arc A750 Benchmark ReBAR On | ReBAR Off | Forza Horizon 5 | 1080p | Low, High, Ultra, Extreme

  • Lubię to 3
  • Haha 1
  • Dzięki 1
Link to post
Share on other sites
5 minut temu, TRACZKOLWIEK napisał:

Bardzo mnie cieszą takie tematy, nie nastawione na hejt typu:

"nie mam, nie znam się, a się wypowiem" :facepalm:

Intel Arc tj konkretny egzotyk więc szansa na jakikolwiek feedback od faktycznego posiadacza graniczy z cudem. Na szczęście cuda i @Adamessię zdarzają. Poza tym jeśli te karty stają się coraz bardziej dojrzałe w temacie sterowników (a tak się dzieje) to intel dobrze się zaczyna rozpychać zza pleców duopolu. Wiem, daleka droga jeszcze, ale coś się dzieje. 

  • Dzięki 1
  • Popieram 1
Link to post
Share on other sites

Od grudnia mam A750, więc jeżeli ktoś ma jakieś pytania to można pisać i postaram się odpowiedzieć.

 

W dniu 29.03.2023 o 10:22, Rebelmind napisał:

Intel Arc tj konkretny egzotyk więc szansa na jakikolwiek feedback od faktycznego posiadacza graniczy z cudem. 

Z tym cudem trochę bez przesady :P Coraz więcej ludzi decyduje sie na karty Intela, ale na pewno jest to jeszcze mikro ilość w skali całego kraju. M.in. właśnie z tego powodu kupiłem A750 i jestem mega zadowolony. Absolutnie nie żałuje zakupu, ale nie jestem zaślepiony zaletami, bo Arci oczywiście mają niezrozumiałe wady i to niemałe. W lutym napisałem parę zdań na pclabie, więc pozwolę sobie wkleić tutaj:

 

Cytat

Oczywiście, że warto za taką cenę, ale pod jednym warunkiem - masz ochotę na udział w rozwoju sterowników, apki i karty oraz świadomie godzisz się na to, że coś może nie działać "tak jak powinno".

Stery sprzed paru dni wiele poprawiły, łącznie w końcu z Intel Arc Control, które nie jest już wyłącznie nieużywalną, nieintuicyjną nakładką w formie żartu (szkoda, że ta nowa aplikacja też ma swoje błędy, ale i tak widać postęp). Sama karta wizualnie i jakościowo jest rewelacyjna jeżeli ktoś nie lubi kolorków. Jakość wykonania i spasowanie wszystkiego na wysokim poziomie, ciężka i niesamowicie elegancka. Wentylatory są bardzo, bardzo ciche (mimo tego, że CM je zrobił), w spoczynku niesłyszalne, ale żeby nie było za kolorowo, to są wady, które może uda się załatwić sterownikami, a niektórych niestety nie. Pierwsza rzecz, to absurdalne uzycie energii w spoczynku na poziomie około 40W. Jednocześnie taktowanie pamięci jest ustawione sztywno na 2000 MHz w idle i możliwe, że właśnie to jest powodem takiego poboru prądu. Druga kwestia - temperatury i tu jest dziwna akcja. Karta oczywiście posiada tryb pół-pasywny, ale działa to w taki sposób, że od startu wentylatory się nie kręcą i temperatura rośnie, ale gdy dojdzie do 48, to się uruchamiają na stałe, czyli w praktyce w spoczynku pasywne działanie nie istnieje. Normalnie byłaby to dla mnie dyskwalifikacja całkowita, ale na szczęście są na tyle ciche, że ich nie słychać z odległości 50 cm i tylko dlatego to akceptuje (400-500 rpm). Co dla mnie jest bardzo ważne, bo jestem mega wyczulony na cisze, absolutnie nie słychać momentu startu "wiatraków" i właśnie dlatego można mieć wrażenie, że karta pracuje cały czas full pasywnie. Natomiast mówimy o pozycji klasycznej, czyli horyzontalnej. Gdy chcemy zamontować wertykalnie, to niestety łożysko jednego z nich zaczyna lekko terkotać. Mega minus dla CM. Po trzecie, kompletnie niezrozumiała budowa. Nie wiem kto wpadł na taki pomysł i co brał po drodze, ale tak zabudowana konstrukcja zawierająca m.in. klej łączący plastiki, to przynajmniej dziwne rozwiązanie. Pod kątem serwisowania, to jest chory nielogiczny dramat. Mam wrażenie, że gdyby nie to szczelne zabudowane pudełko, to temperatury pod obciążeniem byłyby niższe, a skoro w temacie temperatur w load, to na szczęście karta się tutaj mega broni. W syntetyku temperatura rdzenia i pamięci to max 80-82 stopnie przy maksymalnych ~2100 rpm i jednocześnie 34-35 dB. W grach utrzymuje się w przedziale około 55-70, więc chłodno i jak najbardziej ok.

 

 

Edytowane przez nietypowy_
  • Lubię to 1
  • Dzięki 1
  • Popieram 1
Link to post
Share on other sites
13 godzin temu, nietypowy_ napisał:

Nie wiem kto wpadł na taki pomysł i co brał po drodze, ale tak zabudowana konstrukcja zawierająca m.in. klej łączący plastiki, to przynajmniej dziwne rozwiązanie.

Ktoś kto chciał aby było ładne, aczkolwiek niekoniecznie miał pod ręką kontrakt z fabryką, która jest przygotowana do zrobienia tego "jak należy". Często takie sprawy jak wybór fabryki do obudów to kwestia innego działu i takie rzeczy jak ograniczenia dot. odlewania malutkich zatrzasków, czy koszty dot. montażu wkładek gwintujących i wiele wiele innych, wychodzą dopiero na końcu, kiedy już projektuje się obudowę etc, a fabryka ma już kontrakt na wykonanie obudowy itd.  To są naprawdę skomplikowane sprawy logistyczne i potrzeba stanąć po drugiej stronie barykady, aby zrozumieć cały proces. Na pewnych etapach projektu nie da się też tak z dnia na dzień zmienić podwykonawcy. Nie bronię Intela, tylko to niekoniecznie jest bezpośrednio wina projektanta obudowy, że musiał użyć kleju zamiast "cywilizowanych" rozwiązań. To po prostu efekt braku doświadczenia w realizacji całego procesu wypuszczenia takiego produktu na rynek, z podobnymi problemami zmagała się Tesla, też "bogata" firma.

 

A teraz kolejne porównanie wydajności. Tym razem sprawdzałem jak wygląda skalowanie "lekkiej" sieci wraz z wielkością pierwszej warstwy wejściowej, czyli poniekąd wielkości zdjęcia jakie można wsadzić do detekcji obiektów. 

 

Zawodnicy to jak zwykle CPU - Threadripper 1920x (12/24 c/t), nvidia - GeForce RTX 2080Ti, intel - ARC A750. Wyniki w FPS.

image.thumb.png.389d0db83780200bbe999542cf679a6e.png

 

Jak widać, im większe zdjęcie, tym wolniej się je obrabia. YOLO v7 to "nowy" wynalazek, który nawet na CPU potrafi działać nieźle, 35 FPS wystarczy by w czasie rzeczywistym wykrywać i śledzić ludzi w tłumie. Nvidia z kolei nadaje się do tego, aby strumienie z wielu kamer przetwarzać jednocześnie. To api (Interfejs OpenVINO z OpenCL w OpenCV) chyba nie jest mocną stroną Intela, karta mimo wszystko daje radę. Co ciekawe tutaj jest raczej problem z "pełnym" obciążeniem karty w tej sieci, gdyż karta podczas testu jest obciążona w ok. 35%, podczas kiedy Nvidia leci na 100%.  Być może uruchomienie kilku strumieni przetwarzania AI pozwoli na pełne wykorzystanie potencjału karty w tej sieci i lepsze skalowanie? Do sprawdzenia. 

 

 

  • Lubię to 3
  • Popieram 1
Link to post
Share on other sites

Co do testowania Yolo v7 - tiny - chyba jednak byłem w błędzie. Testowanie tego modelu przy jednym wątku nie tylko ukrywa wydajność kart intel, ale potwornie zaniża wydajność kart Nvidia.  Zmieniłem test tak aby był teraz uruchamiany wielowątkowo. Każdy wątek ma swoją instancję sieci neuronowej. Przed odpaleniem benchmarka jest robiony "warmup" (rozgrzewka), czyli przez sieć jest przepuszczany jeden obraz. Jest to konieczny krok, bo openCV wykonuje leniwą inicjalizację zasobów. Następnie odpalamy n wątków, gdzie zadaniem każdego jest przeskanowanie 1000 klatek. Średni FPS to łączna ilość klatek (n wątków razy 1000) przez czas potrzebny na ich przetworzenie. Np:
2 Wątki = 2000 Klatek, czas przetwarzania 15.874 , AVG FPS: 125.99

 

Teraz wyniki (MAX FPS z wszystkich pomiarów wielowątkowych dla każdej wielkości input):
image.thumb.png.48a0db59ccc0c97e6d69119c1d0961f2.png

To nawet nie jest blisko  To jest pogrom.

Podejrzewam, że to kwestia sterownika, być może zarządzania dostępem do pamięci, być może coś innego. Podczas benchmarka narzędzie intel_gpu_top wskazywało duże obciążenie "blitter" - pomiędzy 95 a 100% a "Render / 3D" zwykle wskazywało ok 59% (z niewielkimi wahaniami), stąd podejrzewam że jednak to może być coś z podsystemem pamięci. 

 

Dla ciekawskich jak karty skalowały się z kolejnymi wątkami:

 

Cytat

Intel 416
1 Thr -> 93.31
2 Thr -> 124.49
4 Thr -> 124.46
8 Tgr -> 124.78

Intel 640
1 Thr -> 44.96
2 Thr -> 62.84
4 Thr -> 62.47
8 Tgr -> 63.16

Intel 1280
1 Thr -> 13.25
2 Thr -> 17.42
4 Thr -> 17.49
8 - skip

Intel 2560
1 Thr -> 3.20
2 Thr -> 4.33
4 Thr -> 4.32
8 - skip


Nvidia 416
1 Thr -> 223.97
2 Thr -> 395.774
4 Thr -> 647.48
8 Thr -> 753.03
16 Thr -> 795.08
32 Thr -> 735.879
64 Thr -> 716.33 

Nvidia 640
1 Thr -> 136.43
2 Thr -> 236.02
4 Thr -> 342.54
8 Thr -> 417.80 
16 Thr -> 450.03
32 Thr -> 430.94 

Nvidia 1280
1 Thr -> 37.67
2 Thr -> 71.85
4 Thr -> 105.60
8 Thr -> 121.45
16 Thr -> 123.06
32 Thr -> 120.79

Nvidia 2560
1 Thr -> 8.12
2 Thr -> 15.19
4 Thr -> 24.59
8 Thr -> 31.75
16 Thr -> OOM (Out of Memory)

 

Z moich testów jednak wyszło jeszcze coś ciekawego -> prawdopodobnie w tym artykule: https://learnopencv.com/performance-comparison-of-yolo-models/

popełniono błąd, badano zapewne tylko dla jednego wątku, co spowodowało niewykorzystywanie pełnego potencjału kart, które tam były, inaczej 4090 w sieci Yolo v7 - tiny ( tam oznaczony jako v7t) byłby przynajmniej kilka razy szybszy od 1080Ti, a tak mamy błędne poczucie, że lepiej jednak tą sieć odpalić na 1080Ti.  Dodatkowo jeszcze procek, tutaj zdaję sobie sprawę, że Threadripper 1920x nie jest najszybszym prockiem i może też wpływać na wyniki, tam nikt nie wspomina o użytym procesorze, więc podejrzewam że to i7 6850K (o którym wspomniano w artykule), który jak na dzisiejsze standardy to już zbyt szybki nie jest. 

 

-- Edit coś dziwnie mi przekreśliło wszystko

Edytowane przez Adames
  • Lubię to 1
  • Popieram 1
Link to post
Share on other sites

Intel Battlemage pracę idą zgodnie z planem. Premiera potwierdzona na Q3 2024 podczas konferencji dla inwestorów. 

 

https://www.purepc.pl/intel-sklada-kolejne-zamowienia-w-tsmc-uklady-z-rodziny-battlemage-i-celestial-maja-zadebiutowac-w-niedalekiej-przyszlosci#comment-1154794

 

Intel Celestial (3. generacja GPU) dopiero w 2026.

  • Lubię to 1
  • Haha 1
Link to post
Share on other sites
  • 6 miesięcy temu...

https://www.purepc.pl/intel-arc-a580-debiut-karty-graficznej-do-grania-w-full-hd-budzetowy-uklad-lepszy-niz-nvidia-geforce-rtx-3050

 

Aczkolwiek biorąc pod uwagę, że A750 w tej chwili na promce w x-złomie kosztuje 850zł...

 

https://www.x-kom.pl/p/1115190-karta-graficzna-intel-intel-arc-a750-8gb-gddr6.html

 

I MRSP na poziomie 180USD, to tak średnio to opłacalne.

 

  • Smutne 1
Link to post
Share on other sites

A tymczasem na konferencji dla inwestorów Intel potwierdził premierę architektury Battlemage na przyszły rok oraz kolejnej generacji na późny 2025! 

 

https://videocardz.com/newz/nvidia-2024-2025-data-center-roadmap-lists-gh200-gb200-and-gx200-next-gen-gpus

  • Lubię to 1
Link to post
Share on other sites
2 godziny temu, pendzel_3 napisał:

https://www.purepc.pl/intel-arc-a580-debiut-karty-graficznej-do-grania-w-full-hd-budzetowy-uklad-lepszy-niz-nvidia-geforce-rtx-3050

 

Aczkolwiek biorąc pod uwagę, że A750 w tej chwili na promce w x-złomie kosztuje 850zł...

 

https://www.x-kom.pl/p/1115190-karta-graficzna-intel-intel-arc-a750-8gb-gddr6.html

 

I MRSP na poziomie 180USD, to tak średnio to opłacalne.

 


Bo nigdy nowa karta z niskiej półki nie będzie opłacalna. Za wysoki jest koszt stały kart - PCB, ścieżki na connectorze, port zasilania, koszt produkcji nawet najprostszego chłodzenia. Zawsze będzie się bardziej opłacało średnią półkę wziąć, o ile celem zakupu nie jest "cokolwiek, jak najtaniej" a nie "tanio i perf/$"

  • Lubię to 1
Link to post
Share on other sites

Ostatnio pobawiłem się trochę krzywą żeby obniżyć temperature A750 w idle, ale żeby jednocześnie było cicho lub bardzo cicho. Oto co mi wyszło (kopia z posta z fp)


 

Cytat

 

Po premierze Intel Graphics A750, sterowniki i soft były bardzo niedopracowane. Jednym z wielu przykładów może być brak chociażby tak podstawowej funkcji, jak możliwość ręcznego ustawienia krzywej wentylatorów. Skutkowało to tym, że domyślny tryb auto powodował uruchomienie wentylatorów na około 500 rpm przy zachowaniu stałej temperatury 48-49 C, a to wszystko w przewiewnej i dziurawej budzie Darkflash Global DLC29 Full Mesh z sześcioma wentylatorami. Owszem, było bardzo cicho, ale trochę bolała ta wysoka temperatura w spoczynku.


Kilka miesięcy temu w końcu została dodana personalizacja krzywej obrotów. Po krótkiej zabawie udało się osiągnąć złoty kompromis lub nawet sytuację idealną jak na ten model. Na screenie widoczne jest ustawienie, którego efektem są temperatury w okolicach 37-38 C, czyli bardzo zdrowo. Natomiast to, co jest najlepsze, to brak wzrostu głośności. Obroty oczywiście wzrosły i utrzymują się na poziomie 1050-1100, ale szum jest tak samo niesłyszalny jak w przypadku fabrycznych obrotów ~500 rpm. Może i dla kogoś wyda się to dziwne i absurdalne, ale taki jest fakt - wentylatory od Cooler Master znowu potwierdziły swoją wysoką jakość. Przypominam, że mam dziurawą jak szwajcarski ser obudowę, a komputer znajduje się nie dalej niż 80 cm ode mnie, więc blisko. Dodatkowo jestem bardzo, bardzo wyczulony na hałasy dochodzące z PC, więc jeżeli mnie praca w okolicach 1000-1100 absolutnie nie przeszkadza (po prostu jej nie słyszę, tak samo jakby to bylo 500), to znaczy, że jest rewelacyjnie.


Zachowanie w idle było dla mnie zawsze bardzo ważne, ponieważ zdecydowanie więcej czasu spędzam bez grania (pisanie, yt, filmy, czytanie), ale sprawdziłem z ciekawości jak się zachowuje karta w grach. Przykładowo Cyberpunk 2077, Doom 2016 czy Atomic Heart. W zależności od gry i ustawień (max/ultra, bez RT, 1440p), 70-81 C przy 1300-1800 rpm. Jest zdecydowanie głośniej, ale to oczywiste. Natomiast nie ma przesady i jest zdrowo.


Nie wiem jak może być na A770, ale podejrzewam, że podobnie. Trzeba oczywiście wziąć poprawkę na 1. przewiewną bude 2. ilość wentylatorów 3. temp otoczenia (u mnie około 23 C) 4. ilość wydzielanego ciepla przez cooler. Jednak niezaleznie od wszystkiego - najważniejsze, że można korzystać cicho i chłodno, ze świadomością, że temperatura rdzenia nie podchodzi po 50.

 

 

Zrzut ekranu 2023-10-11 004219.png

Link to post
Share on other sites

Moja A750 po testach w sumie leży ładnie w pudełku. Mam jednak zamiar za jakiś czas wskrzesić projekt wykorzystania jej do AI, jak na razie jest jeden problemik, bardzo polubiłem WSL a intel wspiera wirtualizację dla wszystkich swoich GPU poza ARC :( Mając lapka z integrą intela zacząłem mocno doceniać to jak elastyczne jest OpenVino i całkiem sporo potrafi wycisnąć z takiego i5 1135G7.

Link to post
Share on other sites
  • 2 miesiące temu...

Battlemage potwierdzony na końcówkę Q3 2024. 

 

https://www.purepc.pl/intel-potwierdza-premiere-kart-graficznych-z-rodziny-battlemage-w-przyszlym-roku

 

Może być bardzo ciekawie jeśli faktycznie max co AMD pokaże w next gen to faktycznie ~8700 XT o mocy 7900 XT/X, bo topowy Intel ma podobno celować w wydajność 4070 Ti a przy alchemikach Intel pokazał, że potrafi te karty konkurencyjnie wycenić. 

 

I na to wszystko Nv, która opóźnia premierę Blackwell'a do Q1 2025 :/

  • Lubię to 2
Link to post
Share on other sites

Liczę, że zrobią jakąś TOP edycję z 32 GB lub 48 GB, mogli by mieć większe cyferki niż "biedne karty po 24 GB" a i użytek z nich też by się zrobiło. Taki RTX 4090 w wersji 48GB by dosłownie miażdżył ... sam siebie w wersji 24 GB. Jedyne co jest obecnie potrzebne konsumenckim kartom, to WINCYJ VRAM! 

Link to post
Share on other sites
  • 3 tygodnie później...

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...