Skocz do zawartości

Cleaner_1980

Użytkownik
  • Liczba zawartości

    814
  • Rejestracja

  • Ostatnia wizyta

Posty dodane przez Cleaner_1980

  1. Masz to fatalnie zwymiarowane. Niestety konsekwencje braku ZPT w szkołach są nieubłagane.

     

    Mylisz wysokość z szerokością, później piszesz o grubości. O wcięciu (felc) piszesz jako pierdolniku bez informacji jaki ma być głęboki. 

    Podejrzewam, że to był główny powód dla którego nikogo nie znalazłeś kto by chciał się tego podjąć.

    https://zpe.gov.pl/a/rysunek-techniczny---zasady-wymiarowania/DeQvmxrJ0

    Wcięcie możesz wykonać sam piłą ręczną do drewna. Dla niewprawnych są piły z prowadnicą, żeby nie przekosić krawędzi

     

     

    Poza tym brakuje informacji czy deska ma być heblowana, domyślam się, że tak.

    Jeśli będzie pełniła funkcję jakiegoś blatu krawędzie powinny być sfazowane. Można to zeszlifować papierem ściernym owiniętym wokół prostego twardego materiału (w sklepach budowlanych są specjalne kostki), szlifierką taśmową lub frezarką ręczną

    Czy deska ma być jakos zabezpieczona przed warunkami zewnętrznymi

     

    Frez to narzędzie. 

    https://pl.wikipedia.org/wiki/Frez

    Potocznie nazywa się też tak powierzchnie po procesie obróbki frezem. Taka powierzchnia może mieć rozmaity kształt w zależności od kształtu narzędzia i jego sposobu prowadzenia

     

    Jeśli chcesz zrobić coś ciekawego z drewnem taki projekt to najlepszy początek. 

    Deski możesz kupić w tartaku. 

     

    Jeśli zdecydowanie wolisz, żeby ktoś to wykonał to przede wszystkim musisz zrobić porządny rysunek. Nikt kto profesjonalnie się zajmuję taka robotą nie będzie tracił czasu i nerwów na rozszyfrowaniu o co Ci chodzi. 

     

    Jeśli to ma być zrobione bez twojej fizycznej i umysłowej ingerencji to pozostaje Ci żmudne szukanie firmy chwilowo bez zleceń (teraz pewnie nie ma takich) zajmujących się produkcją mebli na wymiar lub schodów drewnianych.

     

  2. Do RTX 2070 Super będzie bieda z zasilaczem - ma 550W + wykręcony procek. 

     

     

    Zasilacz ma dobry certyfikat próbowałbym maksymalnie z RTX 2060 / RTX 2060 Super, przykładowo ta sama wersja karty (jest dobra), co zapodał Kamil: https://www.x-kom.pl/p/505260-karta-graficzna-nvidia-gainward-geforce-rtx-2060-super-phoenix-8gb-gddr6.html

     

    Warto przeliczyć jeszcze, ile wyjdzie Tobie poboru maksymalnie (jakie chłodzenie, ile wentylatorów, dysków). 550W przy RTX 2060S i OC tego procka może sięgać max. 500W (ale sprawdź mnie). 

    Ludzie czy wy oszaleliście? Czy nikt już na tym forum nie moderuje takich błędów?

     

    Od kiedy to 550W zasilacz z mocną linią 12V (528W) to za mało żeby obsłużyć jednoprocesorową kartę i procesor po OC. To przyzwoity zasilacz. Nie ma powodu go wymieniać, ani obawiać się jego przeciążenia

     

    Od lat interesuje mnie ten temat. Mam w domu watomierz, oglądam testy i nie przypominam sobie, żeby jakaś konfiguracja przekroczyła 450W na poborze z gniazdka (pomijam karty dwurdzeniowe lub konfigurację SLI)

    Z reguły topowe komputery z trudem osiągają 350W.

     

    Taka konfiguracja z 2070S być może przekroczy 300W na ciekłym azocie.

     

    Proszę w takich kwestiach opierać się na faktach lub powstrzymać od komentarzy

    Na poparcie tezy podaję film

    • Popieram 1
  3. Za dużo "chyba" w Twojej wypowiedzi


    Całość komentarza oparłeś na bezpodstawnym założeniu, że bredzę o niestworzonych historiach kierując się swoimi rzekomymi uprzedzeniami

    Pozwól że podam jedno z wielu źródeł, które stały się inspiracją dla moich poglądów

     

     

    Jest tego dużo więcej, szczególnie na zagranicznych serwisach. 

    Zachęcam Was do zgłębienia tematu

    Że swojej strony kończę tę dyskusję bo przypomina mi zapasy w kisielu

  4. Porównaj sobie RX 5700XT vs RTX2070S w 1440p do 2160p.

     

    Porównałem wielokrotnie i dla mnie spadki do 30 FPS w 1440p dla RTX 2080 obok astronomicznych cen monitorów z G-Sync są powodem wyboru karty AMD.

     

    Kwestia mikroprzycieć jest przez większość benchmarkow kompletnie pomijana by dla innych być tylko jednym z wielu elementów oceny. Dla mnie to kwestia zasadnicza.

    Co mi po tym że moja karta jest w stanie wyświetlić 155 FPS w dogodnych warunkach pokonując wyraźnie konkurenta, żeby nagle przyciąć do 25 klatek akurat kiedy zobaczyłem na ekranie przeciwnika.

     

    To jest prawdziwa miara płynności i komfortu grania.

     

    @ do kolegi Marekpe

    Miałem karty NVidii począwszy od GeForce 256 poprzez 8800GT, GTX660, GTX1060, GTX1080, GTX1080Ti i miałem wiele kart AMD i z moich dwudziestu lat doświadczenia w obcowaniu z kartami graficznymi jasno wynika, że AMD dba o swoich klientów poprawiając wsparcie do swoich kart przez lata. Przykładem jest moja niedawno sprzedana R9 290 która do końca działała płynnie we wszystkich grach. O NVidii niestety nie mogę tego samego powiedzieć. Od lat mają topowe układy graficzne, wypuszczają stosunkowo dobre sterowniki przy premierze, żeby wraz z nową generacja kart radykalnie ograniczyć aktualizacje optymalizujące nowe tytuły gier.

     

    Dla kogoś kto w ogóle wierzy w hasło "komputer na dziś i jutro" zdecydowanie lepszym wyborem jest AMD niż Nvidia

  5. Zasilacz ma 360W na linii 12V co wystarczy do Twojej konfiguracji.

     

    Jest jednak kilka kwestii o których musisz pamiętać (napiszę o tym w dalszej części komentarza)

     

    Koledzy zapewne wolą dmuchać na zimne odradzając Ci takie zestawienie podzespołów.

    Mają w tym wiele racji

     

    Kilka słów wyjaśnienia

    Większość użytkowników nie ma pojęcia o charakterystyce pracy zasilaczy dlatego serwisy testujące podzespoły komputerowe wolą nie narażać się na krytykę. Rekomendując moc zasilacza podają informacje z dużą rezerwą. 

    Z takich źródeł za pewne czerpią wiedzę również moi szanowni koledzy.

     

    Kilka faktów

    - moc zasilacza podawana jest na wyjściu, gdy serwisy najczęściej podają zużycie z gniazdka. Różnica może sięgnąć kilkudziesięciu Watów w zależności od sprawności zasilacza.

    - Ryzen R5 3600 + RX5700XT (pełna konfiguracja w stopce) z routerem, monitorem i głośnikami pobiera z gniazdka w moim przypadku 320-350 W w grze Overwatch (zmierzone watomierzem Brennenstuhl PM240E)

    - powyższe oznacza, że można bezpiecznie założyć, że pobór prądu na linii 12V nie przekracza w mojej konfiguracji 300W (bardziej prawdopodobne 270)

     

    Uwagi do Twojej konfiguracji

    1) odradzam przetaktowanie podzespołów

    2) jeśli planujesz dużo dysków HDD, napęd optyczny, a w szczególności dużo wentylatorów stosunkowo niewielka rezerwa mocy Twojego zasilacza może się znacząco zmniejszyć zbliżając niebezpieczne do granicy wytrzymałości

    3) Twój zasilacz nie jest nowy. Na pewno ma niższą sprawność niż w dniu zakupu. Przy pracy na poziomie 80% mocy szybko może ulec awarii. 

    4) ewentualna awaria zasilacza może w skrajnym przypadku doprowadzić do uszkodzenia podzespołów komputerowych

    5) jeśli uważałeś w szkole na zajęciach praktyczno technicznych możesz odkręcić obudowę zasilacza i obejrzeć go pod kątem spuchniętych kondensatorów (nie brakuje zdjęć wyjaśniających jak to wygląda). Pamiętaj, aby odłączyć zasilacz od prądu i uważać aby niczego nie uszkodzić. Jeśli nie czujesz się na siłach to poproś kogoś kto ma doświadczenie elektryczne

    6) jeśli to możliwe sprawdź napięcia zasilania pod obciążeniem szczególnie na linii 12V (są poradniki jak to zrobić, również na tym forum)

     

    Podsumowując

    Przy zastrzeżeniu powyższych punktów możesz zastosować ten zasilacz.

    Niemniej jednak zakup nowego zasilacza do powyższego zestawu jest racjonalny nie tylko że względu na mniejsze ryzyko uszkodzenia, ale i oszczędności na zużyciu prądu (w Twoim przypadku zakup nowego zasilacza ~500W w certyfikacji Gold w kwocie do 250 zł powinien zwrócić się w mniej niż 10000 godzin)

    • Popieram 1
  6. Wszystko będzie ładnie działać, ale ani RTX2070 ani RX5700XT nie będzie w pełni wykorzystany.

    Sam ostatnio kupiłem 5700XT i przez pewien czas chodził na 3570K dopóki go nie sparowałem z R5 3600

    Różnica jest widoczna w średniej ilości klatek, żeby stać się drastyczna jeśli chodzi mikroprzyciecia. 

     

    Duże znaczenie u Ciebie będzie oczywiście miało samo taktowanie procesora. Nie wiem jakie jest w Twoim przypadku. Jeśli blisko 5Ghz w niektórych grach ta różnica nie będzie tak uciążliwa. Bardziej jednak podejrzewam że max 4,5Ghz, które w grach gdzie będzie dużo obiektów interaktywnych w jednym miejscu (jak Battle Royal czy RTS) przełoży się na wąskie gardło dla karty pokroju 5700XT

     

    W Twoim przypadku zakup kart w cenie 2000 zł  ma sens tylko jeśli taki wydatek jest dla Ciebie nieistotny lub w ciągu następnych 12 miesięcy będziesz aktualizował pozostałe części komputerowe. 

     

    W innym przypadku GPU w kwocie do 1000 zł będzie bliżej optymalnego rozwiązania z ewentualną przesiadką na zupełnie nową konfigurację w późniejszym czasie.

     

    @Do pozostałych użytkowników, czemu naciskacie na 2070 który jest nie tylko droższy ale i mniej wydajny (o czym poniżej)

     

    Dopiero 2070 Super i 2080 można realnie przyrównywać do 5700XT i to tylko w FullHD bo w wyższych rozdzielczościach NVIDIA dodatkowo traci.

    Pomijając, że ja osobiście dobieram kartę do monitora, to AMD ma w większości gier lepsze przebiegi krzywych 99% czasu niż NVIDIA.

    To oznacza, że choć na papierze NVIDIA ma więcej średnich klatek to częściej są na tych kartach przycinki poniżej granicy płynności, co mnie osobiście najbardziej irytuje.

     

    Z całym szacunkiem dla kolegi, ale zakładanie że wsparcie dla Ray tracingu jest inwestycją w przyszłość przy karcie pokroju 2070 to przykład naiwności.

    NVIDIA nie jest znana z częstych aktualizacji sterowników do starszych platform.

    Ray tracing wraz z DirectX 12.2 zanim na dobre zagości w grach (dopiero z nową generacją konsol deweloperzy zaczną poważnie implementować tę technologię) to ta karta i tak będzie za stara, żeby marzyć o wysokich detalach w nowych produkcjach

     

    Przy zmianie na Nvidie dodatkowo dochodzi zmienia sterowników karty graficznej, a z powodzeniem tego manewru bywa różnie 

     

    Tutaj jest link do filmu gdzie omówiono przykład łączenia RTX2070 z procesorem 4690K i porównano go do 7820X co w jakimś tam stopniu daje obraz parowania starego procesora z nową kartą

  7. Temat monitora 21:9 rozpracowuję od dłuższego czasu.

    Bardzo dużo osób grających FPSy online twierdzi że 21:9 nie nadaje się do rozgrywek rankingowych.

    Zbyt duże pole widzenia staje się tu problemem, rzekomo gracz nie nie jest w stanie skupić wzroku na obszarze przed nim.

    Ja osobiście chciałem zaryzykować, ale moja aktulna gra nr 1 - Overwatch nie wspiera tego trybu.

    To jest ważny minus, tym bardziej że wiem, iż takich gier jest więcej.

    Myślę że takie monitory najlepiej sprawdzają się do gier wyścigowych i strategicznych

  8.  

     

    Ostatnia sprawa np. mam 160fps w grze a gram na monitorze ustawionym 240hz jak to wygląda?

    Nic, po prostu niektóre klatki wyświetli 2 razy, tak jak aktualnie 60 Hz monitor wyświetla obraz który przez GPU jest wyliczany w np. 35 FPS

     

     

    Czy pakować się w 240hz w moim wypadku?

    wszyscy pro gamerzy grają na 200+, więc ma to bez wątpienia znaczenie.

    Możesz sobie pooglądać symulacje w necie

  9. Kup watomierz, wydatek 30-50 zł, przestaniesz zgadywać jakie pobory ma Twój zestaw.

     

    W jakich częstotliwościach pracuje procesor?

    Reset masz tylko w grze, pod pełnym obciążeniem GPU?

    To się dzieje natychmiast czy po jakimś czasie od osiągnięcia maksymalnego obciążenia?

  10. Ja przeszedłem przez wszystkie te dylematy co Ty.

    Dysk 4TB został jako magazyn do komputera.

    Do telewizora kupiłem kolejny, 

    ADATA DashDrive Durable HD650 - 2TB

    Ja zapłaciłem 370 zł. Teraz możesz je kupić za mniej niż 300.

    U mnie ten dysk działa bez zarzutu, pomimo że inny dysk miał problemy z zapisem programów TV (za długi miał chyba czas dostępu i podczas testu telewizor odmawiał z nim współpracy)


    Czyli podsumowując nie ma się czym przejmować prędkością dysku ? :)

    Już o tym nadmieniłem, teraz to rozwinę.

    Prędkość odczytu i zapisu nie są jedynymi istotnymi parametrami.

    Jeden z moich dysków miał całkiem wysoką prędkość zapisu, a mimo to telewizor nie chciał z nim współpracować przy zapisywaniu filmów.

    Podczas pierwszego zapisu telewizor formatuje sobie dysk i przeprowadza próbę zapisu.

    U mnie tej próby nie chciał przejść bo za długi był czas dostępu, wiem bo jak już po wielu próbach go przeszedł to później już działał prawidłowo, ale zawsze był problem z tym pierwszym razem

    • Popieram 1
  11. W sumie to wiedziałem, że nożyce się odezwą :)

    Choć byłem obiektywny w ocenie, to Ty uznałeś ją za apologizację androida, który nota bene mierzi mnie w co najmniej równym stopniu jak iOS.

     

    Zwyczajnie uważam, że Apple jest prestiżowy i tak jak inne luksusowe produkty, jest nie dla każdego. Z tego wynika również jego część ograniczeń, jak zamknięte środowisko

     

    Jeszcze raz napiszę, jeśli kogoś nie stać na wydanie kilku tysięcy złotych raz na pół roku na telefon. To iPhone nie jest urządzeniem dla niego i choćbyś nie wiem jak zaklinał rzeczywistość to próby zmiany tego stanu rzeczy kończą się tak jak opisałem w pierwszym poście.

     

    Odnośnie szpiegowania, wielu moich znajomych używa iOS i cześć z nich zauważyła ciekawe rzeczy.

    Przykład?

    Wyobraź sobie, że zupełnie przypadkowo swoim telefonem przesuwasz nad obiektem, który jest reklamowanym w internecie produktem.

    Nie wykonujesz żadnego zdjęcia, nie jesteś również zainteresowany tym produktem, nigdy nie wyszukiwałeś go w sieci. 

    Mimo to, po tym z pozoru nieznaczącym fakcie zbliżenia obiektywu do omawianego przedmiotu zaczynasz otrzymywać spersonalizowane reklamy właśnie z tym obiektem

     

    Poniżej link, żebyś nie czuł się że jestem gołosłownym

     

    https://thehackernews.com/2017/10/iphone-camera-spying.html

  12. Ja korzystam z OnePlus 3T i 6 będzie kolejna. Jedyny mankament dla mnie to szklane plecy zamiast metalowych.

    Apple to jest inny temat. Po prawdzie jeśli masz obiekcje to Apple jest nie dla Ciebie.l

     

    Tę markę używają ludzie którzy nie mają wątpliwości oraz nie mają problemów z wydaniem ponad 1000 Euro na najnowszy telefon co kilka miesięcy.

     

    Kupując iPhone musi Cię być stać na iMaca i milion innych rzeczy w których płacisz za prestiż. Jak ludzi nie stać na Lacoste, Breitlinga luksusowe auto itp to później chodzą ze zbita szybką w jabluszku i ciułają złotoweczki na nowe "cudeńko"

     

    Pomijając cały oczywisty hate wobec Apple, m.in. szpiegowanie użytkowników, zamknięte środowisko czy postarzanie systemu na starszych urządzeniach to iOS działa bardzo płynnie i oszczędnie obchodzi się z baterią co w Androidzie jest złotym runem

  13. Ja kupiłem Adata Dashdrive Elite UE700 128GB USB3.0 

    Transfery pokrywają się w przybliżeniu z deklaracjami producenta. 120MB/s dla zapisu i ok. 230 dla odczytu (u mnie odpowiednio 110 i 220)

    Są wersje 64 i 32 GB. 

    Bez problemu znajdziesz test tego urządzenia.

    Ja jestem zadowolony. Sprawne i estetyczne.

×
×
  • Dodaj nową pozycję...