Skocz do zawartości

Dziura w procesorach Intela 8 generacji


Recommended Posts

4790K to jest architektura  Haswell prawda? Czy się mylę?  Bo jak zaczną się te restarty,to nawet nie da się chyba aby poprawkę zainstalować.

 

Ja już zaczynam powoli zbierać pieniążki aby prawdopodobnie latem wymienić całą skrzynkę z 4790K na coś nowszego,lepszego i bezproblemowego. 

Link to post
Share on other sites

Czytam czytam i nadal nie wiem, czy kolega tak zawzięcie troluje, czy naprawdę dał sobie wmówić, że bardzo dobry procesor nadaje się na śmieci tylko dlatego, że ktoś narobił szumu. Pomijam już to, że nawet tracąc 50% wydajności nie zauważyłby różnicy w zastosowaniach które opisuje, a spadki o ile są, to prawie niezauważalne z tegp co pisze tutaj większość osób która poprawkę ma za sobą.

Edytowane przez wojciechu15
Link to post
Share on other sites

ok sprawdziłem celerona 1.9ghz na ivy brige

Nie ma żadnych niestabilności w necie,renderingu i grach

 

Co  do wyniku  z cinebench  to w czasie  pobierania  aktualizacji  115 pkt

Po wstrzymaniu jej 104

A po  patchu 126 pkt ;)


http://pclab.pl/zdjecia/artykuly/art385/2014/10/proce/1005m/chart/cine_cpu.png

 

Co by  się zgadzało z tym co jest na necie .Celeron w  single channel ;)

Link to post
Share on other sites

 

 

Pomijam już to, że nawet tracąc 50% wydajności nie zauważyłby różnicy w zastosowaniach które opisuje,

 

 

To jest dopiero trolowanie. Po cholerę mi taki proc który po update traci 50% swojej mocy? Gdzie jest logika?


Na razie i tak będę czekał do czerwca, do tego czasu dużo będzie się dziać. 

Link to post
Share on other sites

Fragment wpisu który cytujesz to taka hiperbola mająca pokazać, że nawet gdyby problem był rzeczywiście duży, to ciebie tak naprawdę nie dotknie, bo przy zastosowaniach które opisujesz tak mocny procesor i tak "się nudzi". W rzeczywistości jak pokazują testy, oraz relacje osób które są już po aktualizacji (których zresztą jest sporo w tym temacie, którego najwyraźniej nie prześledziłeś przed wejściem w polemikę) spadek wydajności nie występuje, a jeżeli jakieś zmiany są to raczej w granicach błędu pomiarowego i to zarówno na minus jak i na plus. Trudno wprawdzie z góry zakładać coś na 100% bo jak pokazują relacje nawet czołowi producenci puszczają jakieś aktualizacje kiedy nie mają finalnego kodu na co wskazuje support ASrocka, ale nie ma co panikować bo prawie na pewno tragedii nie będzie. Dziura jest od lat, znana odpowiednim osobom też od jakiegoś czasu i równie dobrze sprawa mogła tak wisieć jeszcze kolejne 10 lat gdyby się o tym głośno na konferencji nie zrobiło a support intela zamiótłby sprawę pod dywan i po cichu połatał w kolejnej generacji.

 

Jako osoba z dłuższym stażem na forum, która po liczbie wpisów sądząc lubi zabrać głos powinieneś do sprawy podejść logicznie, a nie dać się ponieść zamieszaniu które powstało wokół sprawy i o mało co nie przekreślić z góry procesora za ponad tysiaka, w sytuacji kiedy i tak jest on kilkukrotnie mocniejszy niż wymagałoby twoje zastosowanie. 

 

Nie dziw się mojej reakcji na twoje wpisy, bo jak widzę osobę która na forum zamieściła prawie 1500 postów, a w temacie pisze jakby brakowało jej elementarnej wiedzy toi po prostu stwierdziłem, że sobie jaja robisz. Tak więc bez spinki i włączamy myślenie. Pozdrawiam i kończę OT, bo też niewiele do tematu wnoszę.

Edytowane przez wojciechu15
Link to post
Share on other sites
Dziura jest od lat, znana odpowiednim osobom też od jakiegoś czasu i równie dobrze sprawa mogła tak wisieć jeszcze kolejne 10 lat gdyby się o tym głośno na konferencji nie zrobiło a support intela zamiótłby sprawę pod dywan i po cichu połatał w kolejnej generacji.

 

 

 

spadek wydajności nie występuje,

 

Znana od lat,ale odpowiednia reakcja dopiero teraz. 

 

 

Architektura Haswell ma ucierpieć do dwucyfrowej liczby. To może być 10% a może być i 30%.

I kto powiedział że wystarczy tylko jedna łatka? Będzie pewnie kilka i za każdym razem obniżająca wydajność.

Ja nikogo nie namawiam przejść na lepszy model procka. Ten kto chce niech zostaje z Haswell.

Nie panikuję, drażni mnie ta cała sytuacja z updatami i  łatkami obniżającymi wydajność.

Edytowane przez droid
Link to post
Share on other sites

 

 

Architektura Haswell ma ucierpieć do dwucyfrowej liczby.

Straszne uogólnienie. Równie dobrze można napisać że architektura Haswell osiąga spadek wydajności nawet 60%.

 

 

 

I kto powiedział że wystarczy tylko jedna łatka?

Nie wystarczy jedna dla systemu operacyjnego ? :)

Może napisz do Microsoftu, że wydali łatkę która nic nie daje bo oni nadal myślą że rozwiązali problem z Meltdown i Spectre w wariancie drugim.

  • Popieram 2
Link to post
Share on other sites

Przy okazji nakręca się dezinformacje o luce w procesorach znanej od lat. Od lat czyli od czerwca 2017 gdy zespół z Google odkrył tą podatność i poinformował o niej Intela. I dopiero na podstawie tej jednej podatności na atak powstały trzy jego odmiany z czego tylko jedna jest na chwilę obecną realna do zastosowania a dwie (Spectre) to zagrożenie teoretyczne, być może ktoś kiedyś będzie potrafił je wykorzystać w praktyce a być może łatanie biosu okaże się zbędnym problemem.

 

 

 

Dziura jest od lat, znana odpowiednim osobom też od jakiegoś czasu

 

Znana od lat,ale odpowiednia reakcja dopiero teraz. 
  
  • Popieram 1
Link to post
Share on other sites

Przejście na nowszy model procesora nic nie da, bo obecnie na rynku nie ma generacji wolnej od tej "wady" zarówno od AMD jak i od Intela, co więcej, nawet planowana 9 generacja  na dzień dzisiejszy też ma tą wadę o czym wspomniał nawet sam Intel, do premiery układów  będą chcieli jeszcze wprowadzić poprawki w architekturze.  Więc co byście nie kupili to i tak kupicie procesor z "wadą"

Link to post
Share on other sites

Dokładnie, to, że luka istnieje od 1995 nie oznacza, że była znana. O tym nie dowiemy się najprawdopodobniej nigdy (użycie nie pozostawia śladów). Przez meltdown jeszcze się nie przebiłem, natomiast o specter nieco poczytałem. Czemu luka jest tak stara? Bo wynika z pewnego mechanizmu, który przez ostatnie 12 lat zwiększał (!) FPS. Nawet teraz, po łatkach i kilku procentowym spadku (dla typowego kowalskiego), funkcja ta przynosi korzyści. Mowa o mechaniźmie predykcji (kilka części składowych), którego celem jest zminimalizowanie cykli w trakcie których niektóre fragmenty procesora zwyczajnie czekają i nic nie robią. Co do zarzutów o "celowo" umieszczonej podatności... nie twierdzę, że w pewnym momencie ktoś jej nie odkrył i przemilczał ten fakt, ale... nie jest ona ukryta. Każdy (dowolny producent, a także zaciekawiony student) mógł wpaść na to, że ten mechanizm pozostawia ślady, które co prawda nie są możliwe do uzyskania bezpośrednio przez zapytanie, które je tam umieściło, ale innym można je już odczytać. Logicznie, wszystko wygląda ok, bo dane zostają w cache-u i nie są zwracane, gdyż wywołanie które je utworzyło nie miało do tego prawa. Po problemie, prawda? No właśnie nie, bo przy odrobinie wysiłku (też nie jest to oczywiste) cache można odczytać. Wygląda to na zwykły błąd technologii, której celem była optymalizacja (a więc sprawdzanie dodatkowych warunków nie jest wskazane), a która to była implementowana... w latach 90! Bezpieczeństwo wtedy nie było tak modne jak dzisiaj. Inżynierowie walczyli o brakującą wudajność, dzięki czemu mamy jej tyle, że kilka procent możemy poświęcić na bezpieczeństwo.

 

P.S.

Spadek wydajności jest bardziej odczuwalny dla systemów starszych od Win 10, oraz CPU Intela sprzed serii 6000. Ponadto, w wyniku załatania meltdown (nie znam jeszcze szczegółów) wszystkie operacje wymagające odwołania się do przestrzeni kernela z przestrzeni użytkownika zostały obciążone i m.in. z tego powodu (operacja zapisu i (chyba) odczytu wymaga odwołania do przestrzeni kernela) tak bardzo widoczny jest spadek przy szybszych dyskach SSD (NVMe). Zwykły użytkownik może zmierzyć to dla jednego SSD, a co mają powiedzieć serwerownie z RAID-ami?

  • Popieram 1
Link to post
Share on other sites

No  mierzył i mu wyszło  na plus a nie minus  w  ssd ;)


Przejście na nowszy model procesora nic nie da, bo obecnie na rynku nie ma generacji wolnej od tej "wady" zarówno od AMD jak i od Intela, co więcej, nawet planowana 9 generacja  na dzień dzisiejszy też ma tą wadę o czym wspomniał nawet sam Intel, do premiery układów  będą chcieli jeszcze wprowadzić poprawki w architekturze.  Więc co byście nie kupili to i tak kupicie procesor z "wadą"

Podobno nowe cpu beda tego pozbawione

Sama architektura sie nie zmieni bo wszystkie lake to to samo ;)

Edytowane przez HAKELBERY
Link to post
Share on other sites

ja dziś odpaliłem prime95, bo bawiłem sie trochę napięciem cpu i chciałem sprawdzić stabilność, zminimalizowałem i zapomniałem o nim - włączam Project Cars, jade sobie wyścig, patrze na fps - oho, cpu 100% i spadki do 55 kl/s, łatka jednak pożarła mi wydajność :D

dopiero jak wyszedłem z gry po godzinnej rozgrywce skapnąłem sie , ze cały czas prime95 dusi system :D

Edytowane przez k0chan
  • Popieram 2
Link to post
Share on other sites

 

 

No mierzył i mu wyszło na plus a nie minus w ssd

SATA 3? Problem z tą podatnością jest taki, że różnice wahają się w zależności od procesora, systemu i... zastosowania. Dla "Kowalskiego" w części zastosowań spadku nie będzie, albo zostanie zakryty przez inne łatki poprawiające wydajność (w sposób nie związany z podatnością).
Co do tego, że podatność istnieje i jej załatanie wpłynie negatywnie na wydajność nie ma najmniejszej wątpliwości. Co do skali dla typowego użytkownika... ciężko coś dokładnie powiedzie, bo... kim jest typowy użytkownik? Wystawia sklep na własnym PC i baza SQL zwolniła o 20%? Ma kilka maszyn wirtualnych i stracił do ~30%? Korzysta z dysków NVMe SSD w RAID-ie, do obróbki foto/wideo i stracił kilkadziesiąt % "przepustowości"? A może gra w gry i stracił od 0 do 10% (choć ktoś w tym temacie zauważył, że emulatora dotknęło to bardziej)?
Poza tym, niektóre aplikacje (głównie profesjonalne/firmowe jak np. Pulse Secure) potrzebowały patcha, by działać poprawnie po restrykcjach narzuconych przez patch systemowy. Z bardziej "ludzkich" aplikacji kojarzę antywirusy, które w większości (wszystkie?) nie były kompatybilne i wymagały aktualizacji.
  • Popieram 1
Link to post
Share on other sites
Co do zarzutów o "celowo" umieszczonej podatności... nie twierdzę, że w pewnym momencie ktoś jej nie odkrył i przemilczał ten fakt, ale... nie jest ona ukryta. Każdy (dowolny producent, a także zaciekawiony student) mógł wpaść na to, że ten mechanizm pozostawia ślady, które co prawda nie są możliwe do uzyskania bezpośrednio przez zapytanie, które je tam umieściło, ale innym można je już odczytać.

Gdyby odkrycie luki związanej z Meltdown było tak proste i oczywiste jak to opisujesz to zapewne zostałaby odkryta już dawno a jednak było potrzeba do tego ponad dekady i grupy ekspertów opłacanych przez Google. Intel Management Engine również nie jest w żaden sposób ukryty a jak się okazało stanowi idealne środowisko dla luk i backdorów. Od Skylake w górę mamy w procesorach Intela moduł sygnałowy który prowadzi nasłuch cały czas, nawet na wyłączonym komputerze (standby zasilacza). Również tego nie ukrywali a przecież jest oczywistą sprawą że gdy owa "funkcja" wyjdzie na jaw to będzie mocno krytykowana. Niekompetencja czy działanie celowe to się można tylko domyślać. 

  • Popieram 1
Link to post
Share on other sites

 

 

Gdyby odkrycie luki związanej z Meltdown było tak proste i oczywiste jak to opisujesz to zapewne zostałaby odkryta już dawno a jednak było potrzeba do tego ponad dekady i grupy ekspertów opłacanych przez Google

Podatność odkryli równocześnie badacze Googla i ludzie z jakiegoś uniwersytetu (Ci odkryli więcej wektorów/wariantów ataku).

 

Engine również nie jest w żaden sposób ukryty a jak się okazało stanowi idealne środowisko dla luk i backdorów.

Nie do końca. Intel AMT to przykład "security by obscurity", czyli coś tam tworzą i nikomu nie pokazują kodu licząc, że nikt nic nie znajdzie. Tutaj miałeś mechanizm znany i opisany w niejednym datasheet-ie/spec sheet-ie. Każdy się na to patrzył i nikt nie zauważył.

 

Od Skylake w górę mamy w procesorach Intela moduł sygnałowy który prowadzi nasłuch cały czas, nawet na wyłączonym komputerze (standby zasilacza).

Wake-on-LAN? Z wikipedii

 

Od czasu powstania płyt głównych typu ATX, komputer nigdy nie jest całkowicie wyłączony. Po jego wyłączeniu pracuje zasilacz dostarczając jedno z napięć (5V), co umożliwia czuwanie niektórym elementom komputera. Włączenie komputera polega na wysłaniu sygnału do zasilacza, że ma zacząć dostarczać wszystkie napięcia do wszystkich elementów komputera.

Nie bronię INTEL-a. Za AMT można go winić, ale nie z powodu tego, że działa nawet przy wyłączonym PC, ale za fakt, że dostarczają rozwiązanie, którego kod jest całkowicie zamknięty, a które jest dziurawe i sygnały o tym dostają "co chwilę". Jeżeli jednak coś się ma tu zmienić, to widzę tylko jeden sposób. Kupno rozwiązań konkurencji i jasny sygnał, czemu taką decyzję podjąłem.
Idealne narzędzie szpiegowskie? Nie można wykluczyć, że zostawili furtkę dla wywiadu, ale zważywszy, że kod i tak jest zamknięty równie dobrze mogliby zrobić "oficjalnego" backdoora (może i jest - jeszcze nieodkryty) "na potrzeby administracji", a nie ser szwajcarski z zabezpieczeń.

 

owa "funkcja" wyjdzie

Przecież oni tego nigdy nie ukrywali. Taka jest idea, że możesz zarządzać sprzętem, nawet, gdy jest wyłączony.
Link to post
Share on other sites
Wake-on-LAN?

 

Nie. Artykuł pierwszy lepszy z google http://pclab.pl/news65418.html

 

 

Nie do końca. Intel AMT to przykład "security by obscurity", czyli coś tam tworzą i nikomu nie pokazują kodu licząc, że nikt nic nie znajdzie.

 

Obawy co do IME były od dawna i sprawdziły się czarne scenariusze gdy jedna po drugiej zaczęły wychodzić kolejne poważne luki. Jeśli w procesor wbudowany jest "nadzorca" mający pełny dostęp do zasobów komputera, posiadający własny system operacyjny (MINIX) działający niezależnie od systemu operacyjnego komputera to nie jest pytanie czy może to zostać wykorzystane jako backdoor tylko kiedy zostanie to wykorzystane jako backdoor. Tworzenie takiego minikomputera w CPU i rozszerzanie kolejnych jego możliwości wraz z nowymi wersjami (np. nasłuch audio) jest tak nielogiczne z punktu widzenia ryzyka o bezpieczeństwo i ochronę prywatności, że nie powinny dziwić głosy zarzucające Intelowi celowe umieszczanie backdoorów w produkowanym sprzęcie.

 

https://www.dobreprogramy.pl/Chcesz-rootkita-Intel-przyznaje-sie-do-fatalnych-bledow-w-Management-Engine,News,84331.html

https://www.dobreprogramy.pl/W-zabezpieczeniach-zdalnego-zarzadzania-Intela-przez-9-lat-tkwila-luka,News,80830.html

http://pclab.pl/news76214.html

Link to post
Share on other sites

Z tym słuchaniem otoczenia nie słyszałem. Muszę poczytać. Sama idea oddzielnego urządzenia do zarządzania (nawet wyłączonym) sprzętem nie jest nowa i nie ogranicza się do Intela (w świecie serwerów dopłaca się za to - DRAC). To co Intel zrobił źle, to domyślnie włączona funkcjonalność (a przynajmniej jej część) AMT (choć nie wiem do końca, czy to wina Intela, czy producentów MOBO), no i fakt, że nie przyłożył się do audytowania i remediacji podatności. Warto również zauważyć, że nie każde CPU ma klasyfikacje vPro, więc jeżeli był to od początku backdoor dla służb, to można spać spokojnie, bo nie celowali w zwykłego Kowalskiego, a firmy (high endowy sprzęt oberwał rykoszetem).

Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...