Świetny Materiał, bardzo dobrze i z pasją zrobiony. Szacun !!! Jedyne co mnie ( technicznego pedanta ) uderza to trzymanie i dotykanie podzespołów za złącza. Serdecznie Pozdrawiam.
Szkoda, że nie przetestowałeś tych dysków jako pliku stronnicowania. Jestem ciekawy jak wypadłoby to w porównaniu z ramem. Chociaż tutaj to chyba tylko optane by błyszczał.
Polecam używać w takich testach ssd pliki większe niż 1g - wtedy zobaczymy jak jest po zapchaniu cache ssdkow. I mimo wszystko chyba lepszym rozwiązaniem jest użycie soft raid z bios niż miejsca do magazynowania windows lub przynajmniej należy to sprawdzić 😂
@@Gadon357 to co robisz przez płytę główną to jest i tak "soft" raid. Jest oparty o cpu. Ja mówię o dedykowanych kontrolerach raid. Te z płyt głównych faktycznie nie mają takich opcji.
Witam :) Mam płytę główną Huananzhi X79. Mam podobny kontroler na 4 dyski M.2 z kluczem M. Problem bo wykrywa mi tylko jeden dysk. Czy tam też się da w biosie ustawić pracę z adapterem PH 44 z Aliexpress ?
Moim zdaniem w takich materiałach nie powinno się pokazywać dysków które są kompletnie nie opłacalne chyba że to celowa reklama Samsunga. Przecież taki Kingston kc3000 czy wd Black czy lexar to również bardzo wydajne dyski a często połowę tańsze.
Witam. Mogłeś sprawdzić jak karta graficzna działa po włożeniu tego adaptera, w PCI Express czy x16 czy x8?.(Adapter godny zastanowienia się, jeśli karta graficzna będzie działać normalnie x16). Dość ważna informacja, która pominąłeś!. Wiemy, że 1 slot na dysk na płycie głównej musi być pusty, aby karta graficzna działała na x16 a jak działa karta graficzna jak wsadzisz ten adapter na 4 NVMe x16 czy 8?. Czy mógłbyś to sprawdzić?. Pozdrawiam.
Jak masz 24 linie pcie, a 16 z nich zjada ta karta, to zostaje 8 linii. Wszystko tak naprawdę zależy od typu CPU i płyty głównej, a i tak producent w biosie może nie ogarnąć efektywnego wykorzystania linii pcie (stacjonarni della mają np bifurkacji do maksymalnie 2x4+8, tzn 3 dyski będą działać)
Masz dwie opcje - x16 dla GPU i x4 dla czegoś innego lub x8 dla GPU i x8 dla czegoś innego. Przy czym w starszych chipsetach były zwykle obie opcje, a w nowszych tylko x16 + x4.
W firmie używamy czegoś takiego od około 2 lat. W tym roku raczej kupimy kolejne, bo ilość dysków się zwiększa. Ku zaskoczeniu wielu z Was, nie używamy najszybszych dysków, ale Samsungi 970 PRO na PCIe 3.0. To wszystko oczywiście na platformie WRX80, która została stworzona z myślą o przyłączaniu niesamowitej ilości dysków nvme, więc każdy slot ma możliwość rozdzielania X4X4X4X4 lub X8X8. Zastosowanie to oczywiście wirtualizacja pulpitów zdalnych o bardzo dużym ruchu. W komputerach konsumenckich nie ma to urządzenie sensu, bo zabiera cały slot x16 i uniemożliwia korzystanie w normalny sposób z GPU, a do tego niewiele komputerów ma funkcję rozdzielania linii w takiej konfiguracji. Na przykład moja ma tylko opcję X8X8 lub X16, więc i tak to urządzenie nie mogłoby zadziałać w pełni. Ciekawą rzeczą jest wykorzystanie 28 dysków NVME 4.0 (Tyle można podłączyć do płyty głównej AMD WRX80) 2TB Samsung 990 PRO, co daje pojemność partycję 56TB o prędkości ponad 200GB/s, czyli pamięci RAM na platformie AMD WRX80. Ciekawe, czy system mógłby wykorzystać ten magazyn na stronicowanie RAM, bez większych strat wydajności.
Można też zastanowić się jakie konsekwencje ma ta technologia Direct Storage, wygląda na to, że z obciążenia i zapotrzebowanie na ram systemowy przenosi to obciążenie i zapotrzebowanie na pamięć GPU, co jeśli się rozpowszechni, przyspieszy wzrost rozmiaru i wydajności vram w GPU. Choć wydaje się, że jest to tylko moment ładowania danych gry, który jest wykonywany raz na początku rozgrywki, co jednak, zależnie od algorytmów dekompresji, i tak może wymagać większej ilości vramu, której zużycie po dekompresji może znacznie się zmniejszyć. Czyli ta technologia może sztucznie pobijać wymaganie co do wielkości vramu, ale po załadowaniu gry, ta pamięć może być zwalniania i pomimo wyższych wymagań co do pamięci, to w trakcie gry i tak część tej pamięci nie będzie używana, co raczej nie jest fajnym efektem, porównując to do starego rozwiązania, które może i wydłuży ładowanie gry, ale nie będzie sztucznie podbijała wymagań co do wielkości vramu. Może być to też tak rozwiązane, że podczas dekompresji, będą usuwane zbędne dane, lub jeśli tej pamięci zabraknie na raz, to proces zostanie podzielony na kilka interacji, co naturalnie wydłuży proces ładowania gry. Może się też okazać, że przez to gra, będzie działała wolniej na gpu które ma mniej pamięci, z tej przyczyny, że tekstury będą musiały być dogrywane w trakcie rozgrywki, lub bardziej pogorszy jakość tekstur, aby zmieścić dane gry w ograniczonym vramie, ponieważ proces dekompresji w vramie (przez gpu) zawsze wymaga większej ilości vramu niż w starym rozwiązaniu, oraz dodatkowo obciąża gpu, więc słabsze karty mogą to gorzej znosić, w efekcie przy danym gpu i danej ilości vramu, zakładając że jest go za mało, albo na granicy, aby pomieścić wszystkie dane gry, może to przyczynić się do wyraźnego spadku wydajności. Natomiast mocna strona tej technologii, to znacznie zmniejszenie wymiany danych między ramem systemowym a vramem (w starym rozwiązaniu kopiujemy dane zdekompresowane, a w nowym skompresowane), to znaczy zmniejszy się wpływ ramu systemowego na ogólną wydajność. Podsumowując, jeśli karata będzie dość mocna i będzie zawierała odpowiednią ilość pamięci, to rozwiązanie powinno przyspieszyć, w innym wypadku, może znacznie pogorszyć wydajność w stosunku do starego rozwiązania. (ta sama karta bez Direct Storage poradzi sobie znacznie lepiej, choć szybszy procesor gpu może to zniwelować)
Год назад
Ale zapisuj większą paczkę danych, a nie 1Gb :) Jak z IOPS?
Wszystko pięknie, tylko co się dzieje z GPU? Przecież wystarczy zainstalować jeden dysk PCIe 5.0 w dedykowane złącze i już 8 linii dla karty jest blokowane (przydzielone do dysku). I pytanie: wiadomo już, czy w następnej generacji płyt/procesorów ten problem zostanie rozwiązany?
przecież dyski pcie gen5 powinny działać na pcie 4 tyle że z prędkmością pcie4 czyli i tak kosmiczną. miałeś szanse zrobić najszybszy dysk - ale tego nie zrobiłeś ;(
Sztuka dla sztuki - czasy dostępu może lepsze, dzięki czemu wczytywanie danych czy lokacji jest lepsze, ale już kopiowanie tylko między dyskami/partycjami, bo inny dysk, pendrive, serwer z którego pobierane są dane czy strumień, bądź też leciwe DVD ograniczy prędkość kopiowania danych...
Wywołuję Zmaslo do tablicy z pewną prośbą. Możesz zrobić taki test ale dla RAID5? Myślę nad zrobieniem takiego rozwiązania ale bez zewnętrznej karty tylko na płycie i zastanawiam się czy poza redundancja ma to sens. Płyta to Z690 MPSI MPG DDR4 a dyski to Kingston KC3000 1TB
Ja bym użył innych dyskow bo akurat szajsungi są do bani szybko throtlują i bardzo szybko się grzeją nastepnym razem polecam wziąć cztery 2 TB np. Od kingstona kc3000 lub od pny 3140 xlr8 zdecydowanie duzo wydajniejsze dyski.
@@piskoraczek Faktycznie jest przecież 5, szczerze miałem kiedyś przyjemność bawić się w to, aktualnie już nie moja branża ale film mi jakoś tak przypomniał 😀
wiem że późno ale jak to wygląda kiedy mamy płytę główną która ma 4 sloty M2 wiadomo jeden bezpośrednio blisko procka a reszta pod gniazdem grafiki, czy wkładając tam 3 dyski średniej półki lepiej je łączyć w raid czy zostawić jako 3 osobne partycje, patrząc na wydajność dysków, chodzi o test w komputerze który ma kartę graficzną i jest bardziej "powszechny". Zastanawia mnie czy sam fakt istnienia karty i wykorzystania jej spowoduje że dyski nie będą w stanie korzystać z łączenia swoich możliwości i czy będą miały taki sam transfer połączone w raid niż jakby były osobnymi partycjami.
Kolejny odcinek powinien być o kartach sieciowych, czyli jak to zrobić, żeby był możliwy np. w serwerze albo stacji roboczej dostęp z odpowiednią prędkością po sieci do rozwiązania bazującego na układzie dysków o takich prędkościach.
Ale losowe Q1T1 jak jednego dysku ;P Dla tego w serwerach maszyn wirtualkach nie takie rozwiązania się stosuje bo zapis losowy jest dość istotny. Sprzętowy RAID z dużym buforem dram/slc
Jest jeden haczyk - mówisz Łukaszu, ze nikt tego nie wykorzysta, bo przy wpięciu karty graficznej na większości płyt drugi slot staje się 8liniowy... i tuy szach mat - bo cała na biało wchodzi karta RTX 4060, która wykorzystuje fizycznie tylko 8 linii:P Stawiasz zestaw z taką karciochą i wpierdzielasz 4 dyski w tym układzie i masz superszybkie transfery;]
Powiem tylko ze oficialnie producenci dysków na pcie 5 powiedzieli ze beda strasznie sie grzac i trzeba byloby dokupowac dedykowane chlodzenie do dyskow wiec od razu mowie ze prze nigdy nie chce na pcie5 tak samo na pcie 4.0 tez sie grzeja ale nie az tak warto tez wspomniec ze iz wieksza temp na dysku tym mniejsza wydajnosc, szybkosc dysku wiec taki na zwykly m.2 nvme lub 3.0 bylby idealnym dyskiem moim zdaniem i sa na to mase dowodow
Kupiłem ten adapter i jest jeden problem bo wsadziłem do niego dwa dyski (2x2TB) i w biosie widoczny jest tylko jeden. Drugi dysk wpiąłem na płycie głównej i dopiero teraz oba dyski sa widoczne. Wygląda na to, ze w adapterze muszą być cztery dyski ? Albo adapter jest uszkodzony? Ktoś wie co zrobić by dyski ssd i hdd które też mam w PC były widoczne bo aktualnie system ich nie widzi.
Panie ZMargaryna, po pierwsze szkoda że pracuje pan z Morelami (wyciekli mój email jak i innych 2.5mln ludzi) ... ale co Pan pokazuje? Że losowy zapis (istotny dla prędkości działania aplikacji, systemu operacyjnego, kompilatorów) dla 4-rech dysków nie różni się od ... zapisów i odczytów 1-go dysku RND4K Q1T1 - no super! Po prostu super, kto kopiuje sekwencyjnie filmy zrippowane z BlueRay? Bo nie widzę innej opcji aby inny mniejszy - nieciągły - plik kopiował się tak szybko na tej macierzy. Ehhh
@@dontmindaboutthisstupidtroll tak, różnią się, jeśli np. jesteś w stanie znaleźć Samsung 970 Pro 1TB, gdzie jeszcze stosowano kości NAND MLC (a nie TLC jak w serii EVO) to zapis losowy sięgał - CrystalDiskMark 4KiB Q1T1 - 53MB/s Read i 156MB/s Write... 990 Pro osiąga tylko: 106/365MB tylko dzięki pseudo-SLC NAND. Pasma danych losowe i do 4KB wymagają małych opóźnień, karta gdzie gromadzimy kilka-naście dysków w jeden i dodajemy chip zarządzający macierzą dodaje opóźnienia - tym samym dysk taki nigdy nie będzie szybszy w macierzy (dla odczytów losowych) niż pojedynczy bezpośrednio w pierwszym slocie MoBo podpięty do CPU - zwłaszcza poprzez 'Direct Storage'. Wyniki 4KRandom 32/111MB/s osiągał dysk Intel's Pro 2500 SSD z .. 2014 roku. Ale on dysponował lepszą pamięcią NAND - tutaj odwrotnie, większy proces technologiczny umożliwia lepsze utrzymywanie stanów napięć komórek NAND - 20Nm. intel optane ssd 905p - 960GB (legitreviews dot com) -212MB/193MB/s (R/W). To był rok 2018. Śmiało wyszukaj frazę: intel optane ssd 905p crystalDiskMark - i wybierz "Grafika".
No i byłoby super, gdyby istniał choć jeden współczesny procesor Intela zdolny zrobić użytek z takiej karty rozszerzeń - niestety, wszystkie konsumenckie pozwalają na max jedną kartę x16, a platforma HEDT umarła... Chętnie zamieniłbym bezużyteczne PCIE 5.0 na 2x więcej linii 4.0. Sumarycznie to przecież taka sama przepustowość, a o ile lepiej można to wykorzystać.
Pytanie tylko po co, w domowych warunkach taki dysk to tylko strata pieniędzy. Jak coś działa w sekundę, to po co wydawać kasę na coś innego co działa o 10% szybciej. Rozwiązanie takie ma sens tylko w przypadku dużych przesyłów danych, czego w domowych warunkach żaden użytkownik nie uświadczy. I oczywiście jak zastosuje się dobre dyski M2 a nie marketingowe buble szajsunga - pewnie wielu się z tym nie zgodzi, każdy ma takie prawo. Są jednak operacje, które kładą kontrolery wielu kiepskich jakościowo dysków M2, mniej więcej w 40 parę minut i dysk jest do śmieci.
Mam taki RAIDzik na swoje płycie z z dwóch KC3000 i jest 14gb/sek zapis odczyt :) i też zrobiłem programowy raid , kiedyś miałem RAIDzik z 4 dysków sata ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-g_5zCMSuiLw.html też dawało rade ale ten z NVME działa mega lepiej , równo transferki żadnych dziwnych czkaweczek. Pozdrawiam ;)