Skocz do zawartości

Ada Lovelace - wątek o kartach RTX 4000


Recommended Posts

1 minutę temu, joker5513 napisał:

Zazwyczaj jak ktoś buduje customa to raczej jest maniakiem i chce wycisnąć cały sok do ostatniej kropelki

 

No tak, wiadomka :)

 

Ja robię customa bo nie lubię jak mi szumi, priorytety z latami się zmieniają, obecny priorytet to stabilność :D

Link to post
Share on other sites
55 minut temu, GreQonE napisał:

 

Jako nabywca 4090 Frostbite od Inno3d zadam ważne filozoficzne pytanie, czy ma aż tak duży sens kręcenie 4090, skoro ograniczając już standardowy PT do 60-70% tracimy raptem 5-7% wydajności? A dodając 0.05V na rdzeniu i PT w kosmos zyskujemy łącznie jakieś 10% wydajności kosztem poboru prądu rzędu 850W? :)

 

Wiadomo, że kto ma ochotę ten się bawi, niemniej chyba nie ma co aż tak stygmatyzować "referentów".

Pod kątem OC oczywiście, bezsens, ale w innych wypadkach, czemu nie?

 

Tu nie chodzi o kręcenie nawet (przy czym idzie wycisnąć czasem pod 10% po OC z 4090 jeśli masz platformę z i9-13900K wyregulowaną konkretnie, a to jest już coś w kwestii dodatkowej wydajności), a o fakt o którym pisałem wcześniej. Mianowicie im bardziej rozbudowane VRM, więcej faz na lepszych komponentach tym efektywniej rozkładana jest temperatura pomiędzy poszczególne mosfety co owocuje w praktyce niższymi temperaturami wpompowywanymi w układ LC. Masz wtedy nie tylko chłodniejsze VRM ale również pcb karty w okolicach VRM, a to przekłada się na całokształt i zbijasz jeszcze bardziej temperaturę samego GPU jak i VRAM. No i takie bardziej dowalone VRM przekłada się również na wyższą stabilność i utrzymywanie wyższych zegarów, mniejsze spadki boosta itd. Złożony temat. Co do undervolta to nie jest tak, że w każdym wypadku tracisz kilka procent wydajności jedynie, to zależne od silnika gry, ustawień, rozdziałki, możesz stracić i ponad 10% i w skrajnych wypadkach więcej. Nawet jeśli zegar utrzymuje się na tym samym poziomie to masz zjawisko tożsame z phantom throttlingiem w CPU kiedy procek trzyma niby zegary na danym poziomie, jednak zapewnia niższą wydajność analogicznie do tych samych zegarów ale na wyższych voltach. Bardzo cierpi wtedy 1% low.  Po prostu niedożywiony napięciem komponent. Dobrze to widać w wypadku CPU na Raptorach, Alderach, Rocketach oraz Zen4 i Zen3. Przy GPU mocno daje się we znaki przy Adach i Ampere. Oczywiście to wszystko kwestia podejścia i tego co kto preferuje, jednak warto mieć to na uwadze. Co do poboru przez GPU to podejrzewam, że pisząc o 850W miałeś na myśli całą platformę, bo jeśli samo GPU to nie ma na to absolutnie szans. Nawet w 6880x2880 na RTX 4090 STRIX przy PT 600W z dedykowanym kablem 12VHPWR oraz OC +100 / + 1000, sporadycznie kiedy widziałem dobicie do 550W na GPU.

Przy czym karta trzymała boost w zakresie 2985 do nawet 3100 MHz.

 

Dziś albo jutro puszczę rozbudowany materiał nad którym pracowałem ostanie kilka tygodni, mianowicie RTX 3090 vs RTX 3090 Ti vs RTX 4090 gdzie będzie bardzo klarownie widać wszystko odnośnie zachowania kart w tym ich power draw, a też co nieco wyjaśniam tam jak to jest ze sprawnością energetyczną RTX 4090 oraz realnym apetytem tego radosnego potworka :) W Styczniu wleci RTX 3090 Ti vs RTX 4080 vs RTX 4090, osobno w 1440p i 4K, a następnie 3440x1440p / 5160x2160 / 6880x2880.

 

6 godzin temu, wiwat napisał:

Nie lepiej kupić gotowca z Gigabyte lub Msi z zestawem wodnym?

Cieszysz się a tu lipa

Lepsza karta (pcb),  tu nie masz chłodnicy a płacisz sporo

 

fef.jpg

 

Nie ma co porównywać konstrukcji AIO (czy to na CPU czy GPU) do pełnoprawnego LC. Zupełnie inny świat w kwestii kultury pracy, możliwości odprowadzania ciepła, samych temperatur. No i blok full cover na GPU to zupełnie co innego niż hybrydy AIO.

39 minut temu, GreQonE napisał:

 

No tak, wiadomka :)

 

Ja robię customa bo nie lubię jak mi szumi, priorytety z latami się zmieniają, obecny priorytet to stabilność :D

 

Ja buduję customy tak by było mega cicho, wydajnie i zimno oraz estetycznie. Takie mam założenie :) Przy czym skupiam się na topowych rozwiązaniach bo w tym celu zgłaszają się do mnie ludzie. Także wiadomo, każdy ma swoje podejście i każde podejście jest dobre jeśli służy danemu człowiekowi indywidualnie. Tu nie ma czegoś takiego jak "moja racja jest mojsza, niż Twojsza" przy czym warto mieć pogląd na fakt co się uzyskuje za sprawą różnych rozwiązań. Słabsze konstrukcje to mniejsze możliwości i sumarycznie gorsze efekty przy niższej cenie, mocniejsze konstrukcje to lepsze efekty i możliwości przy wyższych poniesionych kosztach. Coś za coś. Kwestia wyboru i preferencji :)

47 minut temu, wojciech spychała napisał:

Od siebie dodam jeszcze że Founders Edition od zawsze nie było tożsame z konstrukcją referencyjną. Jednocześnie dopiero Founders RTX 3090 Ti (bo zwykły 3090 miał przypał vRAM po drugiej stronie PCB) i teraz RTX 4080/90 są realnie dobrymi kartami (konstrukcyjnie, za równo w kwestii chłodzenia jak i samego PCB). Nie jestem pewien co do RTX 3080/80Ti ale zwykłe 3080 i niżej są dosyć przeciętne. Natomiast RTX 2000 (FE) były bardzo słabe (to wiem, bo nadal na nich testuję :P).  


Odwrotnie jest u AMD - tam faktycznie karta z prezentacji to właśnie konstrukcja referencyjna. 
 

 

Zgadza się, RTXy 2080 / 2080 Ti FE chociażby były  anemiczne względem dowalonych konstrukcji autorskich. Od Ampere NV rozdzieliła pcb od FE od referencyjnego.

Akurat RTX 3090 FE cierpiał na tą samą przypadłość co 3090 autorskie dowalone, czyli problemy z VRAM na tylnej stronie pcb karty. Aktywny nawiew, zmiana termopadów to istotna kwestia. Przy custom LC warto dorzucać aktywny backplate (jeśli jest taka możliwość, bo nieraz radiator mobasa nad PCI-E blokuje) przy czym i tak i tak RTX 3090 Ti będzie nawet bez aktywnego backplate chłodniejszy i sprawniejszy energetycznie. Na 3090 Ti masz nowsze rewizje GDDR6X, mniejszy apetyt na prąd no i 12 kostek x2 GB po jednej stronie pcb zamiast 24x1 GB po dwóch również swoje robi. Jak testowałem 3090 STRIX przy PT 480 W vs 3090 Ti FTW3 przy PT 480W to w tych samych miejscach testowych, ustawieniach oraz rozdzielczościach 3090 Ti zazwyczaj żarła około 50/60W mniej niż 3090 i trzymała wyższy boost. To jest między innymi zasługa właśnie zastosowania innych kostek pamięci.

Edytowane przez EH_Gosu
  • Lubię to 1
Link to post
Share on other sites
Godzinę temu, EH_Gosu napisał:

850W miałeś na myśli całą platformę, bo jeśli samo GPU to nie ma na to absolutnie szans

Der8auer zrobił testy wykorzystując autorskie rozwiązania jeżeli chodzi o pobór mocy, bezposrednio z wtyczki 12vhpwr :)

Polecam zerknąć, z tego co pamiętam pobory właśnie plasowały się w okolicach podanego przeze mnie poziomu i to tylko z tej wtyczki

 

Co do VRM, stabilność tak, generalna "dobrość" (xD) tak, ale co do temperatur wpomopwanych - dla układu LC nie ma znaczenia czy pompujesz 70C 100W czy 50C 100W, Watt to Watt i tyle, czysta fizyka

 

 

  • Lubię to 1
  • Popieram 1
Link to post
Share on other sites
14 minut temu, GreQonE napisał:

Der8auer zrobił testy wykorzystując autorskie rozwiązania jeżeli chodzi o pobór mocy, bezposrednio z wtyczki 12vhpwr :)

Polecam zerknąć, z tego co pamiętam pobory właśnie plasowały się w okolicach podanego przeze mnie poziomu i to tylko z tej wtyczki

 

Co do VRM, stabilność tak, generalna "dobrość" (xD) tak, ale co do temperatur wpomopwanych - dla układu LC nie ma znaczenia czy pompujesz 70C 100W czy 50C 100W, Watt to Watt i tyle, czysta fizyka

 

 

 

No zrobił to na customowym biosie 1000W pozbawionym zabezpieczeń. To jest bios pod LN2 (ciekły azot) i nie ma to niczego wspólnego z użytkowaniem normalnym tej karty, nawet na maxa wykręconej pod LC :)

 

Co do tego ile wpompowujesz W przy danych C  do układu to jak najbardziej ma to znaczenie w kwestii temperatur, tego jak układ pracuje itd. Wiesz, "trochę" jednak mam pojęcia i praktycznego doświadczenia z custom LC ponieważ zajmuje się tym profesjonalnie na co dzień od wielu lat i są "pewne" różnice pomiędzy teorią, a praktyką :) Tylko żeby takie różnice odczuć to trzeba dbać o wszelkie detale, termopady, odpowiednio zaprojektowany układ itd. Jest masa mitów w sieci odnośnie LC i błędnych informacji na które trzeba uważać. Temat rzeka. Mam swoje podejście do tematu, które przekłada się na odpowiednie rezultaty, a podparte jest to tysiącami godzin praktyki. Nie raz i nie dwa myślałem, że coś nie ma znaczenia bo w teorii nie powinno mieć jednak rzeczywistość okazała się zgoła inna. Tak to działa, trzeba badać zawsze samemu, nigdy nie polegać na opinii innych, testach itd.

 

No nic, trzymaj się pozytywnie i pozdrowienia. Wracam do działań wszelakich, przed świętami urwanie głowy x10 :D

Edytowane przez EH_Gosu
  • Lubię to 1
Link to post
Share on other sites
6 minut temu, EH_Gosu napisał:

 

No zrobił to na customowym biosie 1000W pozbawionym zabezpieczeń. To jest bios pod LN2 (ciekły azot) i nie ma to niczego wspólnego z użytkowaniem normalnym tej karty, nawet na maxa wykręconej pod LC :)

 

Co do tego ile wpompowujesz W przy danych C  do układu to jak najbardziej ma to znaczenie w kwestii temperatur, tego jak układ pracuje itd. Wiesz, "trochę" jednak mam pojęcia i praktycznego doświadczenia z custom LC ponieważ zajmuje się tym profesjonalnie na co dzień od wielu lat i są "pewne" różnice pomiędzy teorią, a praktyką :) Tylko żeby takie różnice odczuć to trzeba dbać o wszelkie detale, termopady, odpowiednio zaprojektowany układ itd. Jest masa mitów w sieci odnośnie LC i błędnych informacji na które trzeba uważać. Temat rzeka. Mam swoje podejście do tematu, które przekłada się na odpowiednie rezultaty, a podparte jest to tysiącami godzin praktyki. Nie raz i nie dwa myślałem, że coś nie ma znaczenia bo w teorii nie powinno mieć jednak rzeczywistość okazała się zgoła inna. Tak to działa, trzeba badać zawsze samemu, nigdy nie polegać na opinii innych, testach itd.

 

No nic, trzymaj się pozytywnie i pozdrowienia. Wracam do działań wszelakich, przed świętami urwanie głowy x10 :D


Dodam tylko, że ten BIOS nie ma overcurrent protection, więc karta nie wyłączy się jak coś zje...zepsujesz z prundem, tylko spali :P

  • Popieram 1
Link to post
Share on other sites
7 godzin temu, wiwat napisał:

Nie lepiej kupić gotowca z Gigabyte lub Msi z zestawem wodnym?

Cieszysz się a tu lipa

Lepsza karta (pcb),  tu nie masz chłodnicy a płacisz sporo

 

 

No nie mam CL na GPU mam 1x420x30 i 1x360x45 chlodnice i caly osprzet od Corsair wiec duzo latwiej wszystko spasowac i miec oprogramowanie.

  • Popieram 2
Link to post
Share on other sites
Godzinę temu, EH_Gosu napisał:

No zrobił to na customowym biosie 1000W pozbawionym zabezpieczeń. To jest bios pod LN2 (ciekły azot) i nie ma to niczego wspólnego z użytkowaniem normalnym tej karty, nawet na maxa wykręconej pod LC

 

Właśnie jedyne różnice to brak OCP, OVP i z limitem 1000W, generalnie te same wyniki osiągniesz robiąc shunt mod :)

 

Biny się nie zmieniają, jedyne co dodatkowo zrobił to przez linię i2c przeprogramował sterownik od napięcia, aby podawał na rdzeń nieco wyższe napięcie (1.1V zamiast 1.05V) i tyle wystarczyło żeby faktycznie wycisnąć z karty ostatnie soki

 

Przy okazji odkrył powód dla którego nVidia zablokowała możliwość podnoszenia napięcia ;)

Godzinę temu, EH_Gosu napisał:

do układu to jak najbardziej ma to znaczenie w kwestii temperatur, tego jak układ pracuje itd.

Generalnie temat spłyciłem, bo tak, ma to znaczenie, niemniej w skali o której mówimy jest ono marginalne.

Przewodnictwo cieplne będzie różne w zależności od różnych materiałów, temat rzeka jak piszesz, niemniej dalej obstaje przy swoim że w tej skali o której mówimy wpływ wyższych temp. jest marginalny na sam układ chłodzenia cieczą (poza oczywiście jakimiś odbarwieniami na niklu ;) , bo to jedna z większych bolączek przy wysokich temp)

Link to post
Share on other sites
5 godzin temu, GreQonE napisał:

 

Ja robię customa bo nie lubię jak mi szumi, priorytety z latami się zmieniają, obecny priorytet to stabilność :D

Dokładnie tak jest! Za pierwszym razem kręciłem w kosmos, teraz na 3080 jest lekki UV nawet, bo w PoE (które potrafi ostro docisnąć hw) jest 50°C na rdzeniu przy pompie na 10% i wentach 20%.

 

Cisza + Stabilność <3

  • Lubię to 2
  • Popieram 1
Link to post
Share on other sites
W dniu 22.12.2022 o 13:43, EH_Gosu napisał:

 

Nie ma co porównywać konstrukcji AIO (czy to na CPU czy GPU) do pełnoprawnego LC. Zupełnie inny świat w kwestii kultury pracy, możliwości odprowadzania ciepła, samych temperatur. No i blok full cover na GPU to zupełnie co innego niż hybrydy AIO.

 

 

A myślałem ze kupiłem porządną wersję

Link to post
Share on other sites
1 godzinę temu, wiwat napisał:

A myślałem ze kupiłem porządną wersję

 

To nie ma nic do tego czy wersja jest porządna czy nie. Konstrukcje z AIO po prostu nie leżały i nigdy nie będą leżeć obok custom LC. Inna liga w kwestii możliwości odprowadzania ciepła, kultury pracy itd. Jednak również inna liga w aspektach cenowych, coś za coś.

 

I o to w tym chodzi bo sugerowałeś kampersowi, że bez sensu iść w blok itd. Jego LC całkowicie deklasuje jakiekolwiek AIO na rynku więc nie ma co nawet tego porównywać bo to jakby taczkę obok czołgu postawić gdzie AIO to taczka, LC to czołg :)

Edytowane przez EH_Gosu
  • Lubię to 1
  • Dzięki 1
Link to post
Share on other sites

4070 Ti sprzedawany w Serbii! 

 

https://videocardz.com/newz/nvidia-geforce-rtx-4070-ti-is-already-on-sale-in-serbia-costs-1400-us-dollars

 

1400$ brutto :o W wątku jakiś gość z Serbii potwierdza zatem 899$ MSRP i że cena to nie jest placeholder :/

 

"You are not right, unfortunately. In Serbia the 4080 costs 1700 eur and the 4090 is 2000 euros.

The price is not a placeholder, it is the exact price. :(" 

 

W Se RTX 4080 Gigabyte Gaming OC kosztuje ~1500€ brutto. 

Link to post
Share on other sites

Maksymalny pobór jaki wycisnąłem z karty po oc na +115 +1000

The Callisto Protocol polacem świetna przygodówka, mylę ze nawet jedna z lepszych gierek ostatnich lat 

 

20221225_112926.jpg

Link to post
Share on other sites
58 minut temu, wiwat napisał:

Maksymalny pobór jaki wycisnąłem z karty po oc na +115 +1000

The Callisto Protocol polacem świetna przygodówka, mylę ze nawet jedna z lepszych gierek ostatnich lat 

 

 

Pogadamy jak przejdziesz. Ładny benchmark graficzny i nic poza tym.

Link to post
Share on other sites
48 minut temu, MiK napisał:

 

:rotfl:

Grałeś w to ? dla mnie nie jest to jakiś mega horror bardziej przygodówka

44 minuty temu, ODIN85 napisał:

Pogadamy jak przejdziesz. Ładny benchmark graficzny i nic poza tym.

Kończe 5 misję z 8 i gierka naprawdę fajna i wciągająca, nie odgrzewany kotlet lub gniot jak seria gierek o obcym

Mam włączony RT w połowie wszystko inne na max bez polepszaczy dssl w 4k i nie mam żadnych spadków czy scinek ładnie śmiga

Edytowane przez wiwat
Link to post
Share on other sites
Dziś wieczorem (o ile przetworzy się do 4K na YT, a materiał swoje waży więc to trwa, jeśli nie dziś to jutro) wleci obszerny godzinny materiał poświęcony RTX 4090. Trochę trzeba było czekać jednak pasjonaci konkretnych testów w czasie rzeczywistym z masą informacji na OSD oraz wiedzy odnośnie zachowania danych kart, będą zadowoleni :)
 
Testy RTX 3090 STRIX vs RTX 3090 Ti FTW3 vs RTX 4090 STRIX
1440p / 4K / FP32 / RT / RT + DLSS Q
 
Jak coś robić to konkretnie.
 
W styczniu RTX 3090 Ti vs RTX 4080 vs RTX 4090 1440p/4k (oraz 1080p dodatkowo do CP2077 i W3 NG)
 
Następnie RTX 3090 Ti vs RTX 4080 vs RTX 4090
3440x1440p / 5160x2160 / 6880x2880
 
321822403_3561311484096358_5049431928867
 
322069190_1885238961820541_3103069345451
Edytowane przez EH_Gosu
  • Lubię to 2
  • Popieram 1
Link to post
Share on other sites
23 minuty temu, Rebelmind napisał:

Pojawiają się już @EH_Gosujakiekolwiek zamówienia "w ciemno" na 4070 Ti? 

 

Nie, ale jak ktoś się będzie pytał o RTX 4070 Ti to będę odradzał tą kartę generalnie. Chyba, że ktoś DLSS 3 chce mieć koniecznie to rozumiem wtedy. Tak to nie będzie to karta ciekawa dla osób które celują w rozdziałki wyższe niż 2560x1440p. Konfigi jakie budujemy obecnie to machiny na RTX 4090, oraz RTX 3090 Ti i RTX 3090, nawet RTX 3080 Ti.

Link to post
Share on other sites
16 minut temu, EH_Gosu napisał:

Nie, ale jak ktoś się będzie pytał o RTX 4070 Ti to będę odradzał tą kartę generalnie

Generalnie to ludzie nie będą mieć wyjścia. Wchodząc na Ceneo i wpisując RTX 3090(Ti) od razu widać, że zapasy magazynowe tego modelu są na wyczerpaniu. Na Allegro po wpisaniu tego samego i zaznaczeniu, by wyświetlały się wyłącznie nowe oferty z fakturą VAT wyskakują....24 pozycje. 

 

Więc albo bierzesz pan 4070 Ti o wydajności 3090 Ti za 5000 zł albo dopłacasz do RTX 4080. Innej opcji nie ma.  

Link to post
Share on other sites
1 godzinę temu, Artok napisał:

Generalnie to ludzie nie będą mieć wyjścia. Wchodząc na Ceneo i wpisując RTX 3090(Ti) od razu widać, że zapasy magazynowe tego modelu są na wyczerpaniu. Na Allegro po wpisaniu tego samego i zaznaczeniu, by wyświetlały się wyłącznie nowe oferty z fakturą VAT wyskakują....24 pozycje. 

 

Więc albo bierzesz pan 4070 Ti o wydajności 3090 Ti za 5000 zł albo dopłacasz do RTX 4080. Innej opcji nie ma.  

 

RTX 4070 Ti nie będzie mieć wydajności ani RTX 3090 Ti, ani RTX 3090 nie nastawiaj się na to, nie w wyższych rozdzielczościach i całokształcie. Chyba, że będziesz patrzeć na scenariusze w 1080p bez RT gdzie przepustowość pamięci nie będzie tak bardzo istotna i jakieś tam portalowe testy bez regulacji żadnych ale to i tak głównie 1080p. Kto sprzedał RTX 3090 czy RTX 3090 Ti za 3/4 tysie się władował gorzej niż ci co przed premierą Ampere sprzedawali RTX 2080 Ti za 2 kafle. Kto kupił, niech się cieszy :)Już nawet nie chodzi o ilość VRAM na 3090 / 3090 Ti względem 4070 Ti, tu chodzi o czystą moc GPU i przepustowość pamięci. Co szczególnie wyjdzie dobitnie w wyższych rozdziałkach i na Amperach dożywionych odpowiednio z dala od anemii :) Tutaj nadzieje tych którzy myśleli, że w mid endzie dostaną wydajność i możliwości poprzednich topów, prysną. To nie mogło się udać :) Karta przetargowa to DLSS 3 oraz TDP, ale nie wydajność zarówno w FP32 jak i z RT.

 

Generalnie 3090 z wysokimi PT oraz 3090 Ti są tak dowalone, że sam skłaniam się coraz bardziej na skipnięciu genu i od razu przesiadki na RTX 5090, odstępstwo od normy dla mnie bo od czasów Keplera zmieniałem GPU co gen. 2x GTX 780 Ti > 2x GTX 980 > 2x GTX TITAN X Maxwell > 2x GTX 1080 > 2x TITAN X Pascal  > 2x RTX 2080 Ti i tu koniec z mGPU bo Ampere ten rozdział zakończył, wjechała RTX 3090 i nawet na tle tego, że RTX 4090 miażdży topowe Ampere o blisko 80% często, to RTX 3090 i RTX 3090 Ti mają mój szacun na wyższym poziomie niż to jak się jarałem GTX TITAN X Maxwell - do tego modelu mam mega sentyment. Kurde, skoro RTX 3090 podołał mi w W3 NG Uber + | RT + | DLSS Quality w 3440x1440p (najnowsze patche + DLSS 2.5) w +/- 55 do 75 fps średnio 60 jest to już nic tych kart nie rozłoży bardziej na łopatki zanim RTX 5090 nie wleci. Oczywiście granie w tych samych ustawieniach na RTX 4090 zapewnia 90-110 fps więc jest miazga no ale robi wrażenie jak dobrze sobie topy poprzedniego genu radzą. RTX 4070 Ti bliżej będzie do mocno kręconych RTX 3080 12 GB, niż RTX 3090 / 3090 Ti, a tam gdzie przepustowość pamięci się da we znaki, spadki w dół.

Przy czym tam gdzie mi się przyda RTX 4090 to naturalnie tych kart będę używał, jednak w prywatnym kompie raczej dopiero RTX 5090 zagości, najpierw przebudowa platformy, poszukiwania selekta pośród selektów z i9-13900KS inne szlify etc. Chyba, że RTX 4090 Ti pojawi się do połowy roku to będzie do rozważenia, jak nie to 5090 dopiero i tyle :)

Edytowane przez EH_Gosu
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...