servery adaptec. Testování pole RAID6 pevných disků na třech generacích řadičů Adaptec. Adaptec Snap Server NAS servery

Správa polí RAID Adaptec 6405 zahrnuje nejen vytváření a mazání polí, ale také úlohy spojené se servisem vadných disků nebo jejich plánovanou výměnou. V tomto článku se podívám na každodenní úkoly správce serveru.

Pokud vás zajímají raidové technologie a úkoly administrace raid kontrolerů, doporučuji mrknout do sekce na mém blogu.

Vytvoření pole RAID Adaptec 6405

Při načítání serveru stiskněte CTRL+A a přejděte do nabídky ovladače. Musíme si vybrat Nástroj pro konfiguraci pole:

Nejprve musíte přejít na položku nabídky Inicializujte disky sdělit řídicímu systému, které jednotky budou použity.

Každý disk musí být označen mezerou:

Po výběru jednotek stiskněte klávesu Enter a zobrazí se upozornění:

V důsledku toho jsem se naučil následující nastavení:

Poznámka: pár slov o oddílech větších než 2TB - pokud je výsledná velikost pole menší než tato hodnota, není třeba se obávat. Pokud je objem větší, váš systém odmítne vidět něco většího než přibližně 2 TB. To je způsobeno rozdělením MBR, které neumožňuje více než 2 TB rozdělení. Řešením je použití GPT partitioning, ale v tomto případě musí vaše základní deska podporovat UEFI, což starší základní desky nemají. Chcete-li to obejít, můžete poli přiřadit menší kapacitu a poté použít zbývající kapacitu pro jiné pole RAID stejného typu..

Opět dostáváme upozornění na použití funkce odloženého nahrávání.

Výměna vadného disku

V této fázi se pokusím simulovat selhání jednoho z pevných disků pole. Protože jsem dříve vytvořil pole typu Raid1, umožňuje nám zachovat funkčnost, pokud polovina disků selže. V mém případě je polovina 1 disk (celkem jsou dva).

Postup:

  • Úplně jsem vypnul server;
  • Vyndám jeden z disků a druhý namontuji do sousedního koše.

V ideálním případě by poté mělo být pole v degradovaném stavu, ale pokračovat v práci. Po připojení třetí jednotky by se neměla automaticky připojit k poli. Za prvé, protože není inicializován; za druhé, protože to nebylo specifikováno jako hotspare(horký náhradní disk) při vytváření pole.

Pojďme tedy začít.

Po zapnutí serveru se v biosu zobrazí následující varování:

V principu to tak má být, protože jeden disk v poli je pryč. Mimochodem, poté, co disk „zmizí“ z pole, Ovladač začal velmi hlasitě a nechutně skřípat a moji kolegové za mnou dokonce začali chodit a varovat mě před podivným hlukem ze serverovny.

Jdeme do obslužného programu pro správu pole, podíváme se na stav pole v Správa polí:

Jak vidíte, v poli chybí jeden disk, samotné pole je v degradovaném stavu. Všechno bylo podle očekávání.

Poté musíme inicializovat nový disk. Na snímku výše bylo jasné, že aktuální pole používá jeden disk ve slotu 31, což znamená, že nový disk bude v nějakém jiném. Přejděte na položku nabídky Inicializujte disky, inicializujte disk ve slotu 29:

Obdržíme varování (v dobrém slova smyslu, v tuto chvíli byste již měli mít zálohy všech aktuální informace a server je odstaven pro plánovanou údržbu, pokud je to samozřejmě možné):

Nyní musíme říci řadiči, že by měl použít nový disk, aby jej zařadil do pole místo toho, který selhal. To je nutné provést prostřednictvím položky nabídky Správa polí— stiskněte Enter, pomocí šipek nahoru/dolů vyberte požadované pole (pokud jich je více), stiskněte CTRL+S a přejděte na ovládací stránku Globální hotspare:

Můžete vybrat pouze disky, které se aktuálně nenacházejí v žádném poli. Pomocí mezery vyberte požadovaný disk:

Stiskněte Enter. Zobrazí se dialogové okno pro potvrzení změny, zadejte Y. Protože jsme z disku udělali disk vyměnitelný za provozu, řadič by jej měl automaticky zařadit do pole a okamžitě zahájit proces přestavby ( znovu sestavit pole), můžete to také zkontrolovat z položky nabídky Správa polí:

Od této chvíle můžete zavést server v normálním režimu a pokračovat v práci. Kompletní přestavba je poměrně zdlouhavý proces a závisí na mnoha parametrech – výkonu řadiče/disků, aktuální zátěži řadiče/disků atd. Můžeme dojít k závěru, že rychlost přestavby se výrazně změní, pokud začnete používat pole ihned po přidání disku . Je-li to možné, je lepší dát řadiči čas, aby v klidu dokončil rekonstrukci pole a teprve poté jej pořádně zatížit (to platí zejména pro pole RAID5).

Proces fyzické přestavby bude doprovázeno blikající červenou LED na vozíku disku, který byl právě přidán do pole.

V obslužném programu Správce úložiště Adaptec přestavba pole vypadá takto:

Mimochodem, nástroj byl spuštěn ze stejného serveru. Tím je přehled úloh správy pole RAID Adaptec 6405 dokončen.

Pokud vám článek pomohl, zanechte komentáře a podělte se o své zkušenosti.

Adaptec Snap Server- rodina diskové úložiště, které mohou vykonávat funkce síťových souborových serverů (NAS serverů) v prostředí Windows, Linux nebo Apple nebo mohou být použity jako disková pole RAID s rozhraním iSCSI jako součást sítí IP úložiště pro obsluhu serverů Windows aplikace a Linux.

Adaptec Snap Server NAS servery

Adaptec Snap Server NAS servery připojit přímo z datové sítě (LAN) přes vestavěné ethernetové porty a chovat se jako souborový server pro síťové klienty. Adaptec Snap Server - jednoduchý a efektivní způsob vytváření sdílených diskových úložišť pro malé pracovní skupiny i datová centra.

Použití Adaptec Snap Server poskytuje:

Snadné nasazení- Jednoduše se připojíte k místní síti, provedete minimální nastavení a server je připraven k práci.

Flexibilita- Adaptec Snap Server můžete používat v heterogenní síti poskytující úložný prostor pro klienty Windows, Linux, Unix a Apple. Kromě toho můžete současně používat Adaptec Snap Server jako úložiště pro aplikační servery využívající protokol iSCSI. Adaptec Snap Server tak může poskytovat přístup k datům nejen na úrovni souborů, ale také na úrovni bloků.

Vysoká dostupnost- Spolehlivost Adaptec Snap Server je zajištěna duplikováním ethernetových připojení, organizováním dat v RAID, discích vyměnitelných za běhu, redundantním napájením a chladicími systémy.

Výkon- možnost používat disky s rozhraní SAS a rychlost vřetena 15000 ot./min, „široké“ porty SAS (12Gbit/s) pro připojení přídavné moduly rozšíření JBOD.

Škálovatelnost- kapacitu úložiště lze navýšit přidáním rozšiřujícího modulu pro celkem 12 disků, lze připojit až 7 modulů s maximální kapacitou úložiště 66TB;

ovladatelnost- server běží operační systém GuardianOS, nastavení serveru se provádí přes WEB rozhraní.

Ochrana dat- vestavěné zabezpečení a řízení přístupu, antivirová ochrana, replikace dat, "okamžitá" kopie dat - technologie snapshot, pokročilé nástroje zálohování data (včetně dat na klientských počítačích) na disk, pásku nebo síťové zařízení.

Hospodárný- snížení celkových nákladů na vlastnictví díky absenci nutnosti nákupu klientských licencí.

Rodina Adaptec Snap Server zahrnuje následující modely serverů NAS:

Snap Server 110- kompaktní síťové úložiště (NAS server) s kapacitou až 750 GB. Volitelné: podpora iSCSI, funkce zálohovacího serveru nebo virtuální páskové knihovny, antivirový software, technologie Snapshot, replikace dat.

Snap Server 210- kompaktní síťové úložiště (NAS server) s kapacitou až 1,5 TB. Dva pevné disky poskytují dvojnásobný výkon disku (RAID 0) nebo ochranu dat (RAID 1). Volitelné: podpora iSCSI pro blokový přístup k datům, funkce zálohovacího serveru nebo virtuální páskové knihovny, antivirový software, technologie Snapshot, replikace dat.

Snap Server 410- síťové úložiště (NAS server) s kapacitou až 3TB. Formát 1U pro montáž do racku. Zahrnuje zálohovací software pro emulaci páskové knihovny. Volitelné: podpora iSCSI pro blokový přístup k datům, antivirový software, technologie Snapshot, replikace dat, rozhraní SCSI pro připojení externí páskové jednotky.

Snap Server 520- síťové úložiště (NAS server) s kapacitou až 3TB. Lze připojit až sedm rozšiřujících modulů JBOD pro maximální kapacitu 66 TB (vyžaduje se volitelný SAS HBA). Formát 1U pro montáž do racku. Software pro emulaci zálohovací páskové knihovny, podpora iSCSI pro blokový přístup k datům, antivirový software, Snapshot. Volitelné: Software pro replikaci dat.

Snap Server 650- síťové úložiště (NAS server) s kapacitou až 1,2 TB, rozšiřitelné až na 64,2 TB připojením rozšiřujících modulů JBOD. Formát 1U pro montáž do racku. Software pro emulaci zálohovací páskové knihovny, podpora iSCSI pro blokový přístup k datům, antivirový software, Snapshot. Volitelné: Software pro replikaci dat.

SANbloc S50 JBOD- rozšiřující modul pro Snap Server 650 a Snap Server 520. Má tvar 2U a obsahuje až 12 SAS disky nebo SATA. „Přímé“ připojení k serveru je možné přes řadiče Adaptec 4800SAS nebo 4805SAS (až 8 modulů).

Pole RAID Adaptec Snap Server s rozhraním iSCSI

Pole RAID Adaptec Snap Server s rozhraním iSCSI jsou navržena k vytvoření diskového úložiště, které slouží aplikačním serverům Windows a Linux v sítích IP storage (IP SAN). Jedno pole RAID může současně podporovat až 512 serverů, pojmout až 512 logických svazků s maximální kapacitou až 18 TB a poskytovat propustnost 386 MB/s.

Pole Adaptec Snap Server podporují technologii snímků pro plánované snímky nebo snímky na vyžádání, zrcadlení svazků napříč poli RAID, agregaci a redundanci propojení, shlukování Windows a centralizovanou správu.

Řada Adaptec Snap Server zahrnuje následující modely iSCSI RAID:

Snap Server 720i- diskové RAID pole s kapacitou 1 nebo 2 TB, které lze navýšit o 33 TB pomocí rozšiřujících modulů SANbloc S50 JBOD. Formát 1U pro montáž do racku.

Snap Server 730i- diskové RAID pole o kapacitě 3TB, kterou lze rozšířit až na 36TB pomocí rozšiřujících modulů SANbloc S50 JBOD. Formát 1U pro montáž do racku.

Snap Server 750i- diskové RAID pole s kapacitou 1,2TB, kterou lze navýšit o 33TB pomocí rozšiřujících modulů SANbloc S50 JBOD. Formát 1U pro montáž do racku.

Na disková pole Adaptec je poskytována záruka 3 roky.

Přístup společnosti Adaptec k vydávání řadičů RAID s podporou disků SAS je systematický a velmi logický. Po vydání „zkušebních“ modelů společnost přešla na výrobu ovladačů založených na jediné architektuře (Unified Serial Architecture). Tyto jsou označovány jako levné čtyřportové řadiče vstupní úroveň první a druhé série (sériové číslo je určeno první číslicí v označení modelu), dále regulátory hlavní a třetí série. Logickým pokračováním se samozřejmě stala vysoce výkonná pátá řada, která je v současnosti vrcholem vývoje regulátorů Adaptec předchozí modely.

Mimochodem, je zajímavé porovnávat ovladače mezi sebou: první řada je zcela bez vestavěných procesorů a vyrovnávací paměti a je spokojen s rozhraním PCI-Express x4; třetí řada používá 500- a 800-MHz procesory Intel 80333, množství vnitřní paměti v ní kolísá mezi 128 a 256 MB, čtyřportové modely mají Rozhraní PCI-Express x4, a ten osmiportový je PCI-E x8 (mimochodem zástupce třetí řady, ASR-3405, byl již před časem testován v našich testech). Pátá řada kompletně přešla na PCI-E x8, všechny modely kromě čtyřportového jsou vybaveny 512 MB paměti (pouze mladší ASR-5405 je ořezán na 256 MB), plus všechny řadiče v řadě využívají nejvýkonnější procesor mezi řadiči RAID, který se dnes nachází - dvoujádrový, 1,2 GHz. Záměrně jsme vynechali druhou epizodu: zdá se, že byla získána „zjednodušením“ páté epizody a vůbec ne třetí. Posuďte sami: oba modely řady jsou čtyřportové, tedy s jedním interním konektorem SFF-8087 nebo externím SFF-8088, ale zároveň mají rozhraní PCI-E x8 a jsou vybaveny dvoujádrový procesor. Je pravda, že frekvence procesoru je nižší než frekvence páté řady - „pouze“ 800 MHz. A druhá řada má menší vyrovnávací paměť - 128 MB, zřejmě proto, aby se zachovalo umístění řady jako nejmladší vůči třetí. Dalším vodítkem poukazujícím na původ druhé řady je, že modely z ní podporují „inteligentní správu napájení“ (Adaptec Intelligent Power Management) představenou v páté řadě, která spočívá ve vypínání nepoužívaných disků nebo snižování jejich spotřeby vložením do stav spánku. Hlavní rozdíl od druhé řady je v tom, že podporuje pouze pole RAID0, 1 a 10 - to znamená, že zcela postrádá možnost práce s poli s paritním řízením (RAID5, RAID6 a jejich dvouúrovňové deriváty).

Takže pátá série a její zástupce v osobě Adaptec ASR-5805.

Adaptec RAID ASR-5805

Okamžitě poznamenejme, že pátá řada se stala jednou z největších: v současnosti zahrnuje hned sedm modelů, od nejjednoduššího ASR-5405 po 28portový ASR-52445. Není těžké jim porozumět, stačí dešifrovat název: první číslice je sériové číslo, další jedna nebo dvě jsou počet interních portů, pak jsou dvě číslice označující počet externích portů a typ rozhraní. Vzhledem k tomu, že všechny modely v řadě mají rozhraní PCI-E x8, všechny končí „5“, ale na starších modelech můžete najít také „0“ - označení rozhraní PCI-X.




Jednotný design řady znamená také jednotu vlastností – pouze čtyřportový model má poloviční množství paměti, vše ostatní je u všech modelů stejné: dvoujádrový 1,2 GHz procesor, 512 MB paměti, PCI-E x8 jako použité rozhraní, podpora zakoupených samostatných baterií, až 256 SATA/SAS zařízení (samozřejmě při použití příslušných košů a expandérů). Mimochodem, předchozí řada podporovala pouze až 128 zařízení – Adaptec nejenže instaluje výkonnější procesory do nová série, ale nezapomeňte upravit firmware.

Mimochodem, o firmware. Při konstrukci polí existují určitá technická omezení související s provozními funkcemi samotných ovladačů. Snad jen málo uživatelů se s nimi setká, snad kromě těch, kteří kvůli svým povinnostem potřebují pracovat s velmi velkými úložnými systémy, ale přesto... Pátá řada (a s ní i druhá) podporuje až 64 polí na jednom řadič (třetí - pouze 24), až 128 disků v jednom poli RAID0, až 32 disků v poli RAD5 a RAID6 s rotací parity.

Ovladače řady 5 podporují téměř všechny populární typy polí, jmenovitě:

jeden disk,
RAID0,
RAID1,
RAID1E
RAID5,
RAID5EE,
RAID6,
RAID10
RAID50
RAID60.

Zde bych se rád krátce zastavil. Zatímco obvyklé RAID0, 1, 5, 6 a jejich kombinace jsou většině uživatelů dobře známé, pole RAID1E a RAID5EE jsou málo známá a stále vyvolávají otázky, jak fungují.

Začněme s RAID1E. Pole tohoto typu jsou skutečně velmi blízká RAID1, protože používají zrcadlení dat. Nezrcadlí ale celé disky, ale pouze jednotlivé bloky. Tento přístup umožňuje použít tři nebo více disků k sestavení polí (v případě dvou disků se RAID1E zvrhne na běžný RAID1). Nejjednodušší způsob, jak pochopit logiku za uspořádáním pruhů v poli, je z diagramu:


Písmena „M“ označují „zrcadlové“ bloky. Takže, co máme jako výsledek? Pole RAID1E mají redundanci dat, to znamená, že odpouštějí ztrátu jednoho disku, přičemž na rozdíl od RAID1 a RAID10 mohou být postavena na lichém počtu disků, mají dobrou rychlost zápisu a čtení – díky „rozšíření“ pruhy přes různé disky Pole RAID1E budou rychlejší než RAID1 a minimálně srovnatelné s RAID10 (pokud ovšem v polích RAID1 nebude řadič schopen číst data z obou disků v zrcadlených párech najednou). Tato pole by však neměla být považována za ideální: jejich objemová ztráta je stejná jako u všech polí založených na zrcadlení, tedy 50 %. Pokud jde o zabezpečení dat, RAID10 se ukazuje jako výnosnější: při stejném počtu disků v některých případech odolá výpadku dvou pevných disků najednou. Hodnota RAID1E tedy spočívá především ve schopnosti postavit pole se zrcadlením na lichém počtu disků a zároveň získat mírné zvýšení rychlosti, což je docela důležité pro ty případy, kdy řadič nemůže číst ze dvou disků najednou v konvenčních zrcadlených párech .

Pole RAID5EE je zábavnější. Stejně jako jeho původní RAID5 je postaven na principu zabezpečení dat ukládáním pruhů s kontrolními součty XOR a tyto pruhy jsou „rotovány“, tedy rovnoměrně rozmístěny po všech discích pole. Rozdíl je v tom, že sestavení RAID5EE striktně vyžaduje hot-swap disk připojený k poli, který nelze použít pro výměnu v jiných polích. Tento náhradní disk totiž nečeká na nehodu, jak tomu bývá zvykem, ale podílí se na provozu zcela provozuschopného pole. Informace v poli ve formě pruhů se nachází na všech discích najednou včetně náhradního disku a kapacita, která náhradnímu disku náleží, je rovnoměrně rozložena na všechny disky pole. To znamená, že náhradní disk se ve skutečnosti stane virtuálním - disk samotný se používá v provozu, ale jeho kapacita nemůže být obsazena, protože je rezervována řadičem a není uživateli k dispozici. Navíc v raných implementacích, nazývaných RAID5E, byla tato virtuální kapacita umístěna na konci všech disků, zatímco v RAID5EE je umístěna v celém poli ve formě rovnoměrně rozložených bloků. Abyste pochopili, jak to vypadá, doporučujeme se znovu vrátit ke schématu, kde P1, P2, P3, P4 jsou kontrolní součty odpovídajících úplných pruhů a HS je kapacita záložního disku rovnoměrně rozložená v celém poli:


Pokud tedy jeden z disků selže, ztracené informace se obnoví do „prázdných“ pruhů zbývajících v poli (v diagramu označených „HS“) a pole se změní na nejběžnější RAID5.

Jaká je výhoda tohoto přístupu? Faktem je, že zálohovací disk nestojí nečinně, ale podílí se na práci a zvyšuje rychlost čtení z pole díky většímu počtu disků, na kterých je distribuován každý plný pruh. Nevýhoda takovýchto polí je také snadno rozpoznatelná: zálohovací disk je pevně svázán s polem, takže pokud na jednom řadiči postavíte několik polí najednou, musí každé z nich alokovat vlastní náhradní disky, což zvyšuje náklady a vyžaduje více prostoru na serveru.

Vraťme se však k našemu ovladači. Díky vysoké hustotě balení dokázal Adaptec udělat všechny ovladače docela krátké a čtyř- a osmiportové modely jsou navíc poloviční. Napájecí baterie v tomto případě nezabírá samostatný konektor v pouzdře, ale je instalována na zadní straně ovladače.




Samotná baterie je umístěna na malé dceřiné desce a k samotnému ovladači je připevněna pomocí malých distančních vložek plastovými šrouby. Důrazně doporučujeme používat baterie – informace jsou příliš cenné na to, aby se ztrácely za cent a zpožděný zápis, jak ukazuje příklad Promise, který fungoval bez baterie, je příliš důležitý pro rychlostní charakteristiky polí. Použití zpožděného nahrávání v nebezpečném režimu, tedy bez vyrovnávací paměti, je podle nás příliš riskantní: v testech si to někdy můžeme dovolit, ale v reálných pracovních podmínkách bychom si to nikdy nedovolili.

Seznam podporovaných operačních systémů velmi široký a možná pokrývá téměř všechny existující operační systémy, kromě těch nejexotičtějších. Kromě všech verzí Windows, počínaje Windows 2000 (na 64bitové verze se nezapomíná), zahrnuje několik populární distribuce Linux, stejně jako FreeBSD, SCO Unix a Solaris. Navíc existují i ​​ovladače pro provoz VMWare. Většina těchto operačních systémů má také vlastní sestavení Adaptec Storage Manager – proprietárního softwaru pro práci s řadičem. Funkčnost druhého je velmi široká s jeho pomocí můžete provádět jakékoli operace s řadičem a poli na něm, aniž byste museli jít do systému BIOS. Je velmi pohodlné pracovat v něm: všechny funkce jsou umístěny logicky a nevyžadují velké množstvíčas hledat. Pohodlí ovládání usnadňuje také velké množství vizuálních informací a provozních režimů regulátoru.

Metodika testování

Při testování byly použity následující programy:

IOMeter verze 2003.02.15;
WinBench verze 99 2.0;
FC-Test verze 1.0;

Testovací systém byl následující:

pouzdro Intel SC5200;
základní deska Intel SE7520BD2;
dva procesor Intel Xeon 2,8 GHz na 800 MHz systémové sběrnici;
2 x 512 MB registrovat paměť DDR PC3200 ECC
IBM DTLA-307015 15 GB pevný disk jako systémový disk;
grafická karta - integrované video ATI Rage XL
operační systém Microsoft Windows 2000 Professional SP4

Během testů byl ovladač nainstalován v PCI-Express slot x8 na základní desce. Používá se pro testování pevné disky Fujitsu MBA3073RC, nainstalovaný ve standardním šasi SC5200 se zasouvá a je v nich zajištěn čtyřmi šrouby na spodní hraně. Ovladač byl testován pomocí čtyř a osmi pevných disků v následujících režimech:

RAID0;
RAID10;
degradovaný 8diskový RAID10 chybí jeden disk;
RAID5;
RAID5;
degradovaný 8diskový RAID5 chybí jeden disk;
RAID6;
degradovaný 8diskový RAID6 chybí jeden disk;
degradovaný 8diskový RAID6 bez dvou disků.

Protože se snažíme vše pokrýt co nejúplněji možné typy pole, pak je zahrneme do testování a zvažování degradovaných polí. Připomeňme, že tímto pojmem se označují pole s redundancí dat, u kterých selhal jeden nebo více disků (v závislosti na typu pole), ale pole stále uchovává všechna data a je funkční.

Pro srovnání budeme všude prezentovat výsledky jediného disku Fujitsu MBA3073RC získaného dne LSI ovladač SAS3041E-R, které je považují za jakousi základní úroveň výkonu. Řekněme hned, že tato kombinace má jeden problém, který je nám dobře znám: rychlost zápisu v „FileCopy Test“ je vždy velmi nízká.

Řadič standardně nabízí pro pole velikost pruhu 256 kB, ale všude jsme ji nastavili na 64 kB. Jednak se tím ovladač vyrovná ostatním modelům (většina konkurentů používá přesně tuto velikost) a jednak... právě v blocích o velikosti 64 kB se zpracovávají soubory ve všech verzích Windows, až na Windows Vista SP1, respektive Pokud se velikost bloku a velikost pruhu shodují, můžeme očekávat určité zvýšení rychlosti v důsledku snížení nákladů.

Mimochodem, v obecném případě není výběr velikosti pruhu pro pole nejtriviálnější úkol. Na jedné straně nadměrné snížení povede k zbytečné navýšení počet operací, které mohou negativně ovlivnit výkon. Na druhou stranu, pokud pole bude většinu času pracovat s aplikací (stejnou databází), která používá adresování výhradně v blocích nějakého druhu určité velikosti, pak je lepší vybrat vhodnou velikost pruhu. Najednou bylo na toto téma rozbito mnoho kopií. Jistě, software nestojí na místě a většina se již naučila pracovat v blocích různé velikosti a rychlosti polí se znatelně zvýšily, ale přesto by se tento faktor neměl při vytváření pole zanedbat.

Ovladač byl aktualizován na nejnovější k dispozici na stránkách výrobce v době testování byla používána verze BIOSu a nejvíce čerstvé řidiče. Podle toho jsme použili firmware 5.2.0 sestavení 16116 a ovladač 5.2.0.15728.

IOMeter: Databáze

Jako vždy začneme asi nejzajímavějším testem z pohledu zátěže řadiče – „Databází“, pomocí které zjišťujeme schopnost řadičů pracovat s proudy požadavků na čtení a zápis 8 -KB datové bloky s náhodným adresováním. Během testování dochází sekvenční změna procento zapisovat požadavky od nuly do sta procent (v krocích po 10 %) z celkového počtu požadavků a zvyšovat hloubku fronty příkazů z 1 na 256.

Pokud si přejete, můžete zde a níže vidět číselné výsledky měření v příslušných tabulkách, ale budeme pracovat s grafy a diagramy.

Tabulky s výsledky testů si můžete prohlédnout na následujícím odkazu:



Při minimální zátěži vše vypadá velmi slušně: škálovatelnost je na místě, degradovaný RAID10 nemyslí na snížení výkonu a spolu s „normálním“ RAID10 na osmi discích se shoduje s RAID0 na čtyřech discích, jak by teoreticky mělo být.



V polích používajících kontrolní součty jsou věci také docela dobré při minimální zátěži. Pokud jsme dříve na čtyřech discích WD Raptor SATA pozorovali prudký pokles výkonu při operacích zápisu, nová generace řadičů ukazuje, že díky většímu množství vyrovnávací paměti, kratší době odezvy disku a rychlé architektuře jsou schopny prokázat i na čtyřech discích v RAID6 je výkon stejný jako na jednom disku. Pole RAID5 na čtyřech discích je již pro záznam znatelně rychlejší než jeden disk a 8disková pole jsou ještě pokročilejší.

Při ztrátě jednoho disku RAID6 poněkud snižuje rychlost, ale ne příliš. Opravdovou ranou pro jeho výkon je ztráta dvou disků najednou – nucený neustále obnovovat data ze dvou kontrolních součtů (a zápis do polí s rotující paritou také vyžaduje operace čtení), řadič prudce snižuje výkon, v důsledku čehož rychlost degradovaného pole bude méně než na jednom disku. RAID5 prožívá ztrátu i jednoho disku velmi bolestivě – jeho výsledky jsou horší než RAID6, který degradoval na jeden disk, ale přesto neklesne tak nízko jako RAID6 bez dvou disků.



Zvýšení zátěže na 16 požadavků ve frontě vede k přirozenému nárůstu výkonu. Při zápisu se pole RAID10 podle očekávání drží blízko RAID0 s polovičním počtem disků a při čtení se také přibližují polím RAID0 se stejným počtem disků. Ty ale nemohou výrazněji předběhnout - číst z obou disků zřejmě umíme, ale chybí optimalizace čtení zaměřená na nalezení disku v zrcadlovém páru s lepší polohou hlavy nad plotnou, schopného rychleji doručovat data.

Degradovaný RAID10 s převahou požadavků na zápis se chová očekávaně, to znamená, že nijak nedává najevo své „poškození“, ale při velkém počtu požadavků na čtení citelně ztrácí na výkonu. Ten sice stále neklesá na úroveň polí čtyř disků, což znamená, že na zbývajících neporušených zrcadlených párech řadič čte z obou disků v páru.



Pole RAID5 a RAID6 také zvyšují výkon, ale zatímco RAID6 je téměř v pořádku, chování RAID5 již nelze označit za ideální - na jejich grafech se objevily prudké skoky ve výkonu, což naznačuje určité chyby ve firmwaru. Zvláště špatná je situace v případě degradovaného RAID5.

Ve vztahu k RAID6 jsme použili „téměř“ kvůli výsledkům pole na čtyřech discích – s převahou požadavků na zápis se toto pole nečekaně ztratilo na jediném disku. Osmidiskové pole s víceméně rozumnými ztrátami přežije smrt jednoho disku, ale selhání druhého má silný dopad - pokud je takové pole stále schopno překonat jediný disk ve čtení, pak již není schopno soutěžit v psaní.



Další zvýšení zátěže vede k tomu, že musíme uznat, že výše uvedený předpoklad je nespravedlivý – pole je ve skutečnosti docela schopné najít rychlé disky v zrcadlených párech. To je patrné zejména při srovnání čtyř disková pole- RAID10 se ukazuje jako velmi znatelně rychlejší při čistém čtení než RAID0. Degradovaný RAID10 je ale zklamáním – zatímco se zápisem zvládá dobře, čtení úplně selhává. Výsledkem je, že pouze okrajově překonává čtyřdiskový RAID0 u většiny úloh.

Zajímavé je srovnání výsledků s tím, co nám nedávno předvedl 3ware 9690SA, který má procesor zcela jiné architektury. Celkově můžeme deklarovat paritu: Adaptec je o něco efektivnější při zápisech, zatímco 3ware je o něco rychlejší při dominantních operacích čtení. Pravda, na straně 3ware je toho hodně menší ztráta výkon zhoršeného pole RAID10.



V této skupině nedošlo k žádným významným změnám, kromě toho, že RAID5 situaci mírně napravil – nyní si prostě příliš dobře neporadí s operacemi čtení (zejména degradované pole). Výsledkem je, že na 8diskových polích vidíme něco bezprecedentního: RAID6 překonává RAID5 v čistém čtení. S degradovaným RAID6 je vše při starém: bez jednoho disku pole prostě ztrácí slušnou rychlost a bez dvou už jsou ztráty katastrofální, rychlost klesá pod úroveň jediného disku.

Pokud opět porovnáme tento řadič s 3ware 9690SA, vidíme, že ten si lépe poradí s RAID6 poli při všech zátěžích a je znatelně rychlejší v RAID5 na čtení, zatímco Adaptec vítězí v RAID5 s převahou zápisů.

IOMeter: Doba odezvy disku

Pro měření doby odezvy používáme IOMeter k odesílání proudu požadavků na disk pro čtení nebo zápis datových bloků o velikosti 512 bajtů do deseti minut v hloubce fronty odchozích požadavků, rovný jedné. Počet požadavků zpracovaných diskem přesahuje šedesát tisíc, takže získáme stabilní dobu odezvy disku, která nezávisí na velikosti vyrovnávací paměti.



Z hlediska doby odezvy čtení jsou všechna pole horší než jeden disk. Navíc u 8diskových polí není ztráta příliš velká, ale 4disková (kromě RAID10) zaostávají zhruba o milisekundu - s dobou odezvy pod 6 ms je to velmi znatelný rozdíl. Podle očekávání si pole RAID10 vedou nejlépe díky výběru „vhodnějšího“ disku v zrcadlených párech.

Degradovaný RAID10 si vede docela dobře, ale pole s rotující paritou měla mnohem méně štěstí - kvůli výskytu režijních nákladů na operace obnovy dat z kontrolních součtů se umístila na posledním místě. Nejhorší situace je přirozeně u RAID6 bez dvou disků – ta musí obnovovat data na základě dvou kontrolních součtů najednou.



Situace pozorovaná v záznamu je celkem logická: doba odezvy je určena celkovou mezipamětí řadiče a disků, což znamená, že osmidisková pole překonávají čtyřdisková pole a RAID0 je před RAID10, protože v druhém dvojici lze z hlediska ukládání do mezipaměti považovat pouze za jeden disk. Mezi poli s kontrolními součty se také prosazují osmidisková pole a RAID5 překonává RAID6 – musí vypočítat pouze jeden kontrolní součet, nikoli dva. Výsledky znehodnocených RAID5 a RAID6 jsou příjemně působivé, zvláště ten druhý přišel o dva disky – náklady plynoucí z nutnosti nejen číst data pro výpočet kontrolních součtů, ale také je vypočítat, jsou velmi malé. Vděčit za to můžeme použitému výkonnému procesoru: i když se při nahrávání ztratí dva disky, RAID6 má odezvu srovnatelnou s výsledkem jediného disku, což je velmi dobrý výsledek.

IOMeter: Náhodné čtení a zápis

Vyhodnoťme nyní závislost výkonu řadiče v režimech čtení a zápisu s náhodným adresováním na velikosti použitého datového bloku.

Výsledky získané při práci s náhodným adresováním dat budeme uvažovat ve dvou verzích, v souladu s aktualizovanou metodikou. Pomocí malých bloků vykreslíme závislost počtu operací za sekundu na velikosti použitého bloku. A na velkých blocích místo počtu operací vezměme jako výkonové kritérium rychlost v megabajtech za sekundu. Tento přístup umožňuje vyhodnotit výkon polí ve dvou typických zatěžovacích stavech najednou: práce v malých blocích je typická pro databáze a počet operací za sekundu je pro ni důležitější než obvyklá rychlost; ale práce ve velkých a velmi velkých blocích je blízko skutečnou práci s malými soubory a zde vystupuje do popředí rychlost v obvyklých megabajtech za vteřinu.

Začněme čtením.



Při jednoduchém náhodném čtení v malých blocích pole jednoduše nemá dostatečnou zátěž, aby demonstrovalo svůj výkon – všechna pole jsou horší než jeden disk. Degradovaný RAID10 drží překvapivě dobře, zvláště vezmeme-li v úvahu, že ostatní pole RAID10 se nějak příliš málo liší od RAID0, i když by měla vykazovat výhodu díky čtení ze zrcadlených párů.



U polí se záznamem kontrolního součtu je situace podobná – všechna jsou o něco pomalejší než jeden disk a čtyřdisková pole jsou horší než osmidisková. Opět nejhůře dopadá RAID6, degradovaný na dva disky, ale jeho výsledky nejsou nijak katastrofální.



Při práci ve velkých blocích vstupuje do hry rychlost lineárních operací a pole RAID0 se přirozeně prosazuje. Osmidiskový RAID10 je ale lepší než RAID0 se čtyřmi disky, který se při stejném počtu disků téměř vyrovná RAID10 – zdá se, že řadič umí číst data z obou disků v zrcadlených párech. I degradovaný RAID10 je rychlejší než čtyřdiskový RAID0 - ztráta disku v jednom páru mu nezabrání ve čtení z obou disků ve zbývajících párech.



Stejná lineární rychlost určuje převahu polí RAID5 nad RAID6, i když výsledky RAID6 jsou nějak příliš nízké. Pokles rychlosti čtyřdiskového RAID5 na velmi velkých blocích také nevypadá moc hezky – 200 MB/s by pro toto pole nemělo být limitem.

Degradovaná pole se chovají překvapivě předvídatelně: bez jednoho disku RAID5 a RAID6 citelně ztrácejí rychlost a bez dvou disků se RAID6 stává srovnatelným s jedním diskem.

Přejděme k zápisu operací s náhodným adresováním.



Při nahrávání po malých blocích o všem rozhoduje cache paměti Jejího Veličenstva. Ovladač jen demonstruje perfektní práce- škálovatelnost je na místě, tvar grafů je v pořádku, hodnoty také (mimochodem, jsou o něco vyšší než u 3ware).



Při zápisu malých bloků do polí s kontrolními součty stále záleží na počtu disků, ale podstatnou roli hraje i čas na výpočet kontrolních součtů, což je zpomalující faktor. Právě proto, že RAID6 musí počítat dva součty najednou, se i degradovaný RAID5 ukazuje jako rychlejší než RAID6 na stejných osmi discích. RAID6 je překvapivě dobrý, protože přišel o dva disky - samozřejmě skončil na poslední místo a přeskočeno před jediným diskem, ale přesto jsou jeho výsledky docela dobré pro pole, které při každém zápisu musí data nejen načíst, ale také je obnovit ze dvou kontrolních součtů najednou.



Při nahrávání ve velkých blocích ale vidíme něco zcela nepochopitelného: pole RAID0 se při práci s takovými bloky nečekaně ukáží jako pomalejší než RAID10. Tato podivnost je patrná zejména na osmidiskovém RAID0 – toto pole v zásadě nemá předpoklady pro dosažení 120 MB/s. Není důvod, aby čtyřdiskový RAID0 na velkých blocích přišel o vše, včetně jediného disku. Ale chování degradovaného RAID10 je velmi jasné – chová se přesně jako pole RAID0, to znamená, že každý zrcadlový pár se chová jako běžný disk. Proč se to ale nestalo u běžných polí RAID10 a co se vlastně děje na velkých blocích? V případě RAID0 by se zdálo, rozházejte bloky přes pruhy a nebudou žádné problémy. Tajemství.



Ano, vypadá to, že se při nahrávání Adaptec ve velkých blocích něco pokazilo. Pole se záznamem kontrolního součtu jsou téměř na úrovni jednoho disku a čtyřdisková pole vykazují vyšší rychlosti než osmidisková. Všechny tři degradované masivy ale nečekaně nabraly rychlost a předběhly své plnohodnotné konkurenty. Nějaký nárůst rychlosti by se dal nějak vysvětlit tím, že tato pole prostě nepočítají kontrolní součty, když padnou na disk, který nemají, ale pak by byl ve vedení RAID6 bez dvou disků, a to nedá tak velký zvýšení rychlosti. Podivné, velmi podivné výsledky předvádí Adaptec při nahrávání ve velkých blocích.

IOMeter: Sekvenční čtení a zápis

No, je čas zhodnotit schopnosti ovladačů v sekvenčním provozu. V tomto testu disky obdrží proud požadavků s hloubkou fronty příkazů čtyři. Jednou za minutu se velikost datového bloku zvětší. Díky tomu získáme možnost závislost vysledovat lineární rychlostičíst a zapisovat pole na základě velikosti použitých datových bloků a odhadovat maximální dosažitelné rychlosti.



Ach, jaké skvělé výsledky z osmidiskového RAID0! Ano, výkonný procesor stačí ke snadnému přečtení více než sto megabajtů za vteřinu z každého z osmi disků. Čtení z obou disků v zrcadlených párech je jednoznačně možné, i když ne ideální: zatímco čtyřdiskové pole RAID10 vykazovalo téměř stejné výsledky jako RAID0, osmidiskové pole bez zrcadlení znatelně zaostávalo za svým bratrem. Příjemnou zprávou ale je, že čtení z obou disků v zrcadlených párech již funguje na velmi malých blocích.



Pole se záznamem kontrolního součtu vykazují nižší rychlosti než RAID0, ale toto zpoždění je celkem logické - kvůli záznamu kontrolního součtu ztrácíme jeden blok na každém pruhu v RAID5 a dva bloky v RAID6 - podle toho také klesá rychlost čtení při současném přístupu na všechny disky . Je jasně vidět, jak je ztráta disků výkonově u degradovaných polí drahá. Kromě přirozeného poklesu rychlosti zmenšením pole o jeden disk ztrácejí degradovaná pole na rychlosti o něco více než 200 MB/s, to znamená, že náklady na „obnovu“ dat z hlediska výkonu čtení pole jsou srovnatelné s ztráta dalších dvou disků. Z tohoto pohledu je kuriózní, že ztráta druhého disku RAID6 je téměř bezbolestná – ztráty jsou pouze 100 MB/s, tedy přesně odpovídají zmenšení pole o jeden disk navíc.



Hmm, lineární záznam se ovladači nějak moc nedaří, mírně řečeno. Výsledky polí RAID0 vypadají obzvlášť špatně – jejich rychlosti jsou nižší než u jednoho disku! Přidal se k nim i degradovaný RAID10 - jeho graf se téměř zcela shodoval s grafem čtyřdiskového RAID0 (ano, tady je, vysvětlení pro nízké výsledky zápisu ve velkých blocích s náhodným adresováním). Někdo by mohl podezřívat řadič, že deaktivuje líný zápis, ale plnohodnotná pole RAID10 vykazují rychlosti, které jsou pro ně zcela přiměřené. Je pravda, že jejich grafy jsou také daleko od ideálu: zlomy v nich naznačují, že stojí za to pracovat na firmwaru ovladače nebo jeho ovladačích při hledání chyb.



Pole RAID5 a RAID6 si také zdaleka nevedou se záznamem dobře. Pole s osmi disky jsou horší než jeden disk, zatímco jejich čtyřdiskové protějšky se ukazují být znatelně rychlejší, i když také nedosahují hodnot, které by se daly očekávat, když znají rychlost jednoho disku. Degradovaná pole jsou ale vynikající ve všech směrech – jejich rychlosti jsou prostě vynikající a RAID6 bez dvou disků vede. A opět je v grafech velké množství zlomů...

Opravdu chci doufat, že se jedná o problémy mezi ovladačem a naším syntetickým testem a že v „FileCopy Test“ uvidíme normální výsledky.

IOMeter: Vícevláknové čtení a zápis

Tento test umožňuje vyhodnotit chování regulátorů při vícevláknové zátěži. Emuluje situaci, kdy s diskem pracuje jedna až čtyři aplikace a počet požadavků od nich se pohybuje od jedné do osmi a nekříží se adresní prostory jednotlivých aplikací, jejichž role zastávají pracovníci v IOMeteru.

Pokud si přejete, můžete na odpovídajících odkazech vidět tabulky s výsledky testování a my, jako ty nejindikativnější, zvážíme diagramy zápisu a čtení pro situace s hloubkou fronty jednoho požadavku, od kdy počet požadavků v fronta je dvě nebo více, hodnoty rychlosti jsou prakticky nezávislé na počtu aplikací.


Okamžitě zdůvodněme výsledky polí na osmi discích - maximální rychlosti taková pole jsou zobrazena pouze v hloubkách fronty větší než jedna. S tím jsme se již dříve setkali při testování výkonných řadičů na discích SAS, takže víme, že se vyplatí podívat se do tabulky dat. Abychom byli spravedliví, je třeba také poznamenat, že Adaptec prokazuje velmi dobré rychlosti na polích i s minimální hloubkou fronty, jeho výsledek je v tomto ohledu zatím nejlepší z těch, které jsme viděli;

S jedním čtecím vláknem jsou disky rozmístěny celkem logicky: v čele jsou osmidisková pole, vpředu je RAID0, následovaný RAID5 a RAID6. Zajímavé je, že čtyřdiskový RAID10 se ukázal být rychlejší než všechna ostatní čtyřdisková pole.

Přidání druhého proudu radikálně mění rovnováhu sil. Pole RAID10 fungují lépe než ostatní – i když nevykazují žádnou snahu paralelizovat zátěž čtením streamů z různých disků v zrcadlených párech, stále vykazují minimální snížení výkonu. Všechna osmidisková pole přežila přidání streamu víceméně dobře, ale čtyřdisková pole to měla poměrně těžké. Kupodivu i tímto testem obstála zdegradovaná pole docela dobře (i RAID6 bez dvou disků), s výjimkou RAID10 - bez jednoho disku se stal identickým se čtyřdiskovým RAID0 pro čtení dvou streamů.


Další zvýšení počtu vláken na tři a čtyři vedlo k tomu, že pole RAID10 ztratila svou výhodu zejména znatelně osmidisková. Zbývající pole jednoduše postupně snižují rychlost.


S jedním vláknem na zápis opět vidíme to samé podivné problémy, v důsledku čehož si se záznamem nejlépe poradí degradovaná pole, následovaná RAID10, zatímco osmidiskové RAID5 a RAID6, stejně jako oba RAID0, zaostávají i za jediným diskem.

Druhý záznamový proud nečekaně vede k výrazným změnám ve výsledcích a nelze je vysvětlit, lze pouze konstatovat. Degradovaná pole se záznamem kontrolních součtů a všechna čtyřdisková pole kromě RAID0 tak ztrácejí rychlost (a RAID6 a RAID10 na čtyřech discích poměrně výrazně), všechna ostatní pole naopak své výsledky zlepšují. Obzvláště působivý je „skok“ v rychlosti dosažený osmidiskovými poli RAID5 a RAID6 – jejich výsledky se zdvojnásobily. Ale zdálo by se, proč se starají o druhý proud, stále potřebují počítat stejné kontrolní součty.


Další navyšování počtu vláken opět výrazně snižuje rychlost osmidiskových RAID5 a RAID6 natolik, že opět ztrácí na své čtyřdiskové protějšky. Jako pro vyvážení se opět zvyšují rychlosti RAID10 na čtyřech a osmi discích. A pouze degradovaný RAID10 se liší od degradovaných polí i RAID10 a svou nízkou rychlostí je podobný čtyřdiskovému RAID0.

IOMeter: Webový server, souborový server a pracovní stanice

V této skupině testů jsou disky zkoumány při zatížení typickém pro servery a pracovní stanice.

Dovolte mi připomenout, že v „Webserver“ a „Fileserver“ je emulován provoz disku na odpovídajících serverech, zatímco v „Workstation“ simulujeme provoz disku v typickém režimu zatížení pro pracovní stanice, s maximálním limitem hloubky fronty 32 požadavků. Přirozeně „Webový server“ a „Fileserver“ nejsou nic jiného než souhrnné názvy; první bude velmi podobně emulovat zátěž jakéhokoli serveru, který pracuje pouze s požadavky na čtení, a druhý bude emulovat server s převahou požadavků na čtení, ale zároveň s určitým, nápadně odlišným než nulovým podílem požadavků na zápis .



Ve „Webserveru“, který načítá disky výhradně s požadavky na čtení, je RAID10 mírně, ale stále před RAID0 – čtení z „úspěšného“ disku v zrcadleném páru má efekt, i když ne nejúčinnější (zaznamenali jsme lepší výsledky) . Degradovaný RAID10 velmi prudce ztrácí výkon při velké zátěži – čtyřdisková pole předčí jen nepatrně. Přitom při malé zátěži (až osm požadavků ve frontě) zůstává téměř na stejné úrovni jako plnohodnotné pole.



Pole RAID5 a RAID6 jsou téměř na stejné úrovni jako stejný počet disků. Ale degradované masivy to mají velmi těžké. U osmidiskového RAID5 tedy ztráta jednoho disku způsobí pokles jeho výkonu na úroveň pole čtyř disků. U RAID6 ve stejné situaci výkon ještě klesá a ztráta dvou disků vede k tomu, že pole je jen o málo rychlejší než jeden disk.



Výsledné hodnocení ukazuje, že při takové zátěži téměř nezáleží na typu pole, ale naopak velmi silně působí počet disků.



Ale při zatížení, které zahrnuje požadavky na zápis, RAID10 znatelně zaostává za RAID0 ve velkých hloubkách fronty, ačkoli při nízkém zatížení jsou pole velmi blízko. Ano, výkon pole RAID0 se zvyšuje se zvyšujícím se zatížením rychleji než u pole RAID10.



Výskyt požadavků na zápis také způsobuje, že RAID6 zaostává za RAID5. Zajímavé je věnovat pozornost chování degradovaných osmidiskových polí: v RAID5 je výkon takového pole stále vyšší než u čtyřdiskového pole, ale v RAID6 je nižší. Stejný RAID6, který ztratil dva disky najednou, je mírně před jedním diskem pouze při nízké zátěži, ale při velkém zatížení již prohrává bitvu a jde na poslední místo.



Počet disků je stále kritický, ale typ pole se stává důležitějším, pokud má server významný počet požadavků na zápis. Zvýšená spolehlivost RAID6 a větší objem polí s kontrolními součty ve srovnání s RAID10 jdou na úkor výkonu.



Při zátěži typické pro pracovní stanice se očekává, že vede RAID0. Degradovaný RAID10 působí překvapivě dobře – opět se drží blízko plnohodnotného pole při nízké zátěži.



Jak můžete očekávat, výpočet druhého kontrolního součtu výrazně snižuje výkon RAID6 ve srovnání s RAID5. Degradovaná pole se drží poměrně dobře, s výjimkou RAID6 bez dvou disků – jeho výkon je již při všech hloubkách fronty nižší než u jednoho disku. Je zvláštní, že s počtem požadavků ve frontě od osmi do šestnácti se blíží svému konkurentovi - zdá se, že takové zatížení je pro něj nejvýhodnější.



Nemá cenu montovat vysoce výkonné pracovní stanice na pole se záznamem kontrolního součtu, pokud není vyžadována odpovídající úroveň ochrany dat. Čtyřdiskový RAID0 překonává osmidiskový RAID6 a blíží se RAID5. A RAID10 na čtyřech discích vypadá docela dobře.



Snížení pracovního svazku vede pouze ke zvýšení převahy RAID0 nad RAID10.



Roste také převaha RAID5 nad RAID6. Ještě jeden bod je pozoruhodný: při práci s redukovanou zónou se degradovaná pole cítí mnohem pohodlněji, stejný RAID6 bez dvou disků je již rychlejší než jeden disk.



Zmenšení pracovní plochy dále posiluje pozici RAID0 vůči ostatním.

FC-Test

Další v našem programu je FileCopy Test. Na disku jsou přiděleny dva oddíly o velikosti 32 GB, rozdělené na oddíly ve dvou fázích testování, nejprve v NTFS a poté ve FAT32, po kterých je na oddílu vytvořena určitá sada souborů, čtena, zkopírována v rámci oddílu a zkopírována z oddílu do oddílu. . Zaznamenává se čas všech těchto operací. Připomeňme, že sady „Windows“ a „Programy“ obsahují velké množství malých souborů a další tři šablony („MP3“, „ISO“ a „Instalovat“) se vyznačují menším počtem větších souborů, a v „ISO“ Jsou použity největší soubory.

Nezapomeňte, že test kopírování vám sdělí nejen rychlost kopírování v rámci jedné jednotky, ale také vám umožní posoudit jeho chování při velkém zatížení. Ve skutečnosti během kopírování jednotka současně pracuje se dvěma vlákny, z nichž jedno pro čtení a druhé pro zápis.

Protože existuje mnoho výsledků, budeme podrobně zvažovat pouze hodnoty dosažené v sadách souborů „Instalovat“, „ISO“ a „Programy“ v NTFS, které jsou typičtější pro běžné použití pole. Pokud chcete, můžete zjistit zbytek výsledků z níže uvedených tabulek:



Uf, výsledky polí RAID0 nejsou tak špatné, jak by se dalo očekávat od testu sekvenčního zápisu. Pravda, stále nedosahují úrovně, kterou by se dalo očekávat: rychlost zápisu souborů je přibližně dvaapůlkrát nižší. Je také překvapivé, že maximální rychlosti jsou dosaženy na sadě „Instalovat“, nikoli na sadě „ISO“, která obsahuje největší soubory. Ve výsledcích ISO je obecně kromě obecně nízkých rychlostí spousta podivných a nevysvětlitelných věcí. Osmidiskový RAID10 se tedy ukazuje být dvakrát pomalejší než RAID0 na čtyřech discích, i když by měly být na stejné úrovni. A degradované pole se tak nějak ukazuje rychlejší než to plnohodnotné. Přesto má ovladač určité problémy s nahráváním.


Ne vše je v pořádku s nahráváním pro pole RAID5 a RAID6. Stejně jako v testu sekvenčního psaní jsou první místa obsazena degradovanými poli, což je nesmysl. Navíc s velkými soubory v ISO fungují osmidisková pole obecně velmi pomalu (obzvláště vtipná je situace s RAID5: pole čtyř disků je jedenapůlkrát rychlejší než pole osmi). Pouze na malé soubory„Programy“ je poměr sil víceméně v pořádku, ale hodnoty rychlosti tam nejsou nijak povzbudivé.



Při čtení řadič zřetelně naráží na jakýsi rychlostní limit: všechna pole RAID0 a RAID10 vykazují přibližně stejnou rychlost. Navíc s nastavením „Install“ to vede k legrační skutečnosti: rychlost čtení z polí se ukazuje být nižší než rychlost zápisu. Je pravda, že výsledky získané na velkých souborech jsou příjemně potěšující - limit rychlosti čtení tohoto ovladače je výrazně vyšší než u těch, které jsme zkoumali dříve. Stejný 3ware 9690SA odmítl předvést více než 160 MB/s a Adaptec překročil 400 MB/s.

Mimochodem, soudě podle rychlosti RAID10 čtyř disků, čtení zrcadlených párů z obou disků opravdu funguje, jinak bychom se nedočkali více než 250 MB/s.


A opět stejný rychlostní limit dodržovaný na polích o osmi discích při práci s velkými soubory. Ale obecně platí, že poměr sil je takový, jak by se dalo očekávat. I degradovaná pole ztrácejí rychlost přibližně v souladu s poklesem počtu disků v poli.



Výsledky kopírování jsou jasně ovlivněny „zvláštnostmi“, které jsme viděli během nahrávání: všechna pole se ukázala být rychlejší na sadě „Instalovat“ a ne na sadě „ISO“. Pokud porovnáme pole mezi sebou, tak nečekaně nízké výsledky vykazuje RAID0 s osmi disky, ale osmidiskový RAID10 dle očekávání vykazuje rychlosti podobné RAID0 se čtyřmi disky. Skvěle se drží i degradovaný RAID10, který téměř drží krok s plnohodnotným polem.


Stejné problémy s rychlostí práce s velkými soubory v ISO a poli se zaznamenáváním kontrolních součtů však nejsou tak patrné. Opět zde není ono úžasné vedení degradovaných masivů – poměr sil při kopírování je vcelku logický.





Zvětšení vzdálenosti kopírování změní výsledky jen málo. Jediným vážným rozdílem jsou velmi nízké rychlosti RAID5 a RAID6 čtyř disků všech ve stejné sadě ISO (ano, i na obecně „sníženém“ pozadí). Tento ovladač má zvláštní, velmi zvláštní nechuť k velkým souborům, něco je v Dánském království špatně, tedy ve firmwaru.

WinBench 99

A konečně zde jsou obvyklé grafy čtení ve WinBench 99.
Grafy pro čtení polí RAID na řadiči Adaptec ASR-5805:
Zvláště pozorní čtenáři, kteří ještě nejsou unaveni čtením článku, si mohou všimnout, že neposkytujeme grafy pro pole RAID0. Tady vůbec nejde o to, že jsme škodolibí, ale o to, že Winbench 99 odmítl dokončit testování na těchto polích, čímž došlo k chybě. Navíc žádné akce, včetně snížení testovaného objemu, neměly pozitivní efekt. Vzhledem k tomu, že o spolehlivosti řadiče při práci s poli RAID0 nepochybujeme (mnohohodinové trápení polí při testech pomocí IOMeteru nám říká, že nejsou žádné problémy), budeme tuto nevýhodu připisovat více než vážnému stáří našeho testovací balíček(koneckonců je to letos jeho 10. výročí).

Porovnejme pole na základě demonstrovaných rychlostí čtení na začátku a na konci výsledných sekcí:



Výsledné výsledky příjemně potěší svou harmonií - vše stojí na svém místě. Pokud se podíváte na samotné grafy, tak i ty příjemně potěší malým počtem prudkých skoků v rychlosti i degradovaná pole fungují celkem hladce. Snad jen RAID5 na discích je poněkud matoucí kvůli své dlouhé horizontální polici na grafu - zdá se, že 700 MB/s je pro něj vnucené omezení. Škoda, že nevyšla grafika RAID0.

Shrnutí

Při vzpomínce na dojmy, které jsme měli z ASR-3405, bych rád řekl, že pátá řada Adaptecu dopadla znatelně lépe. Kombinace procesoru, který je podle standardů řadičů RAID velmi výkonný, a důkladně přepracovaný firmware má za následek, že se ASR-5805 výrazně liší od svého předchůdce. Řadič na všech typech polí předvádí výborné výsledky při práci pod zátěží serveru, dokáže vybrat disk s kratší dobou odezvy v zrcadleném páru a je také docela schopný číst z obou disků páru současně . Řadič docela dobře funguje i se složitými (z pohledu tvorby dobrého firmwaru) RAID5 a RAID6 degradovanými poli při optimalizaci mikrokódu také nebylo zapomenuto. Rychlost lineární čtení z polí, i když to má daleko k teorii, je stále výrazně lepší než u jeho konkurentů, které jsme viděli dříve. A přesto tu byla moucha: byl to neobvykle nízký výkon některých polí během operací sekvenčního zápisu. Ovladač je obzvláště špatný při nahrávání velké soubory, takže je příliš brzy na to, aby Adaptec usnul na vavřínech.

Další materiály na toto téma


Testování řadiče 3ware 9690SA-8I SAS RAID
Testování řadiče Promise SuperTrak EX8650 SAS RAID
Srovnávací testování řadičů Adaptec RAID

Kupodivu jsou dnes zásobníky RAID proprietární řešení, která neodpovídají standardům. Všechny fyzické disky s vytvořenými svazky RAID můžete odebrat například z řadiče Adaptec 6805 a přenést je do řadiče 8885 a svazky budou viditelné. Pokud se ale tímto způsobem pokusíte přenést svazky do řadiče od jiného výrobce, pak se zázrak nestane a data a tyto svazky RAID nebude možné nijak vidět. Proč se to děje? Protože řadič jiného výrobce podporuje svůj vlastní zásobník, který není kompatibilní se zásobníkem Adaptec.

Každý svazek RAID je operačnímu systému počítače prezentován jako „SCSI disk“, který bude viditelný jako samostatný objekt v diskové nástroje jako správce disků.

Ve správci disků tedy můžete vidět 4 virtuální disky: RAID0, RAID1 a dva disky RAID5.

Při vytváření svazků funguje každá úroveň.

Úloha na úrovni fyzického disku– vytvořit na discích speciální oblast, kam se budou ukládat informace o vytvářených svazcích. Tato oblast se nazývá oblast metadat a je to komplexní úložný kontejner, kde jsou uloženy informace o službách. Do této oblasti má přístup pouze operační systém ovladače a nikdo jiný. V zásobníku Adaptec se tento proces vytváření oblasti služeb nazývá − inicializace a provádí se pomocí příkazu - inicializovat.

Řadiče RAID, které podporují režim HBA, mají také opačný příkaz - deinicializovat(jedná se o ovladače řady 7 a 8). Tento příkaz zcela odstraní takovou datovou strukturu z fyzického disku a uvede disk do režimu HBA. Čili, aby na něm řadič řady 7 nebo 8 začal fungovat jako běžný HBA, stačí deinicializovat všechny disky. Poté budou všechny viditelné v nástroji centrálního operačního systému, jako je DISK MANAGER, a nejsou nutné žádné další operace.

Další známá funkce, tzv. donucování. V zásobníku Adaptec se provádí současně s inicializací. Tato funkce je trochu oříšek těžká kapacita disk. Faktem je, že disky stejné kategorie v kapacitě se pohybují od různých výrobců stále mají různé kapacity. Aby bylo možné disk od jednoho výrobce v budoucnu v případě potřeby vyměnit za disk od jiného výrobce, je provedena donucovací funkce. Nařezaná nádoba se prostě navždy „ztratí“ a nijak se nepoužívá.

Na fyzické úrovni je možné pojmout různé servisní funkce - kontrola disku destruktivní či nedestruktivní metodou, formátování, úplné vymazání data, zaplnění disku nulami atp.

Logická úroveň nutné ze dvou důvodů:

Za prvé, výrazně snižuje diskrétnost kapacit, které zvolíte pro vytváření svazků. To se děje prostřednictvím schopnosti vytvářet více logické disky(prostě odříznout část kapacity) na jednom fyzickém nebo vytvořit jeden logický disk pomocí dvou či více fyzických. V tomto případě se kapacity různých fyzických jednoduše sečtou. Nejprve bude jedna oblast jednoho fyzického disku vyplněna daty, poté další oblast jiného fyzického disku atd. Tento způsob spojování disků se nazývá Řetěz(některé jiné zásobníky používají slovo Rozpětí).

Za druhé, když jsou takové objekty vytvořeny, informace o nich se dostanou do metadat a již nejsou vázány na fyzické souřadnice. Poté můžete přenášet disky z jednoho portu řadiče do druhého, přenášet svazky z jednoho řadiče do druhého a stále to bude fungovat skvěle.

Následuje úroveň RAID. Moderní zásobníky mají na této úrovni obvykle dvě podvrstvy. Na každé podúrovni jsou elementární RAID, jako jsou: chain nebo span (toto ve skutečnosti není RAID, je to jen „sčítání“ kapacit z různých disků), RAID0, RAID1, RAID1E, RAID5, RAID6 atd.

Nejnižší podúroveň přijímá logické jednotky, například LD1, LD2, LD3, jako na obrázku, a „upeče“ z nich svazek RAID5. Totéž se děje s LD4, LD5, LD6. Z nich získáme druhý RAID5. Dva svazky RAID5 jsou posunuty na ještě vyšší úroveň, kde je na ně aplikována funkce RAID0. Výstupem je komplexní svazek nazvaný RAID50 (kde 5 je typ RAID použitý na spodní podúrovni a 0 je typ funkce RAID použitý na nejvyšší úrovni). Jediné, co v definici chybí, je kolik RAID5 (in v tomto případě 2) byl použit k vytvoření RAID50. V zásobníku Adaptec se tomu říká zařízení druhé úrovně. Tento parametr bude potřeba, pokud vytvoříte složité svazky typu 50 nebo 60.

Většina nejvyšší úroveň Je potřeba, aby byl takový virtuální objekt poskytnut pro přístup operačního systému. Po převedení na tuto úroveň se nabízí řada servisních funkcí. Dvě nejdůležitější v zásobníku Adaptec jsou sestavení a vymazání.

  • Clear zapíše nuly do celého nového svazku, který je přenesen do operačního systému.
  • Build „sestaví“ nový svazek. Pokud se například jedná o RAID1, bude celý obsah prvního kontejneru zkopírován do obsahu druhého. A tak dále pro všechny nádoby.


Na obrázku je virtuální kontejner typu RAID1. Sestavení operace.

Pokud máte nové disky z výroby, tak se v jejich sektorech píšou nuly. Proto bude výsledek obou funkcí stejný.

Rozdíl mezi režimem SimpleVolume a HBA.

Tyto dva režimy jsou si velmi podobné. Oba lze použít k vytvoření softwarových řešení RAID.

Když disk pracuje v režimu HBA, nevytvářejí se na něm žádná metadata. A nedochází k žádnému „ořezávání“ kapacity donucovací funkcí. To může způsobit problém, pokud potřebujete vyměnit jednotku za jednotku od jiného výrobce. Disk je přímo přenesen do operačního systému. V tomto případě s ním mezipaměť řadiče nebude fungovat!

V případě vytvoření jednoduchého svazku prostřednictvím konfigurace svazku se na disku vytvoří oblast metadat a kapacita se „ořízne“ funkcí vynucování. Dále se pomocí konfiguračního nástroje vytvoří svazek Simple Volume s využitím veškeré volné kapacity disku. A po tom tento objekt přeneseny do centrálního operačního systému.

V dnešní době se zásobníky řadičů RAID neustále vylepšují. Adaptec ve své funkci MaxCache plus nainstaloval do zásobníku další úroveň, tzv. tier level, s podúrovněmi. To umožnilo převzít jeden vytvořený svazek RAID5 SSD disk no a další svazek, například RAID60, vytvořený na discích SATA se 7200 otáčkami za minutu a sestaven z nich komplexní virtuální svazek, kde byla nejvíce potřebná data uložena na RAID5 a nejméně potřebná na RAID60. Zároveň bylo možné odebírat objemy různé ovladače. Dnes tato funkce není podporována kvůli přechodu takových schopností na serverové operační systémy. Řadič stack jako virtualizační mechanismus přirozeně nestojí a je neustále vylepšován jak na úrovni virtualizace, tak na úrovni základních a servisních funkcí.

Návrh moderního RAID řadiče.

Moderní řadič RAID je informačního systému(zjednodušeně - počítač), který si díky plnění svých hlavních funkcí: vytvoření virtuálního kontejneru, umístění a zpracování informací v kontejnerech (v podstatě ČTENÍ - ZÁPIS informací) vyměňuje data s dalšími dvěma typy informačních systémů:
1. S operačním systémem;
2. S jednotkami HDD nebo SSD.

Z hlediska vnitřní architektury se moderní RAID řadič skládá z následující sady hlavních subsystémů:

  • RoC čip (RAIDonChip);
  • BERAN;
  • Správa „ochrany“ vyrovnávací paměti (zpravidla se jedná o samostatnou dceřinou desku, ale v nejnovějších implementacích pro 8. řadu řadičů Adaptec je tento modul zabudován do čipu RoC);
  • Superkondenzátor jako zdroj energie pro modul ochrany mezipaměti se používá v případě výpadku hlavního napájení;
  • Flash paměť a nvSRAM (paměť, která neztrácí informace po vypnutí napájení);
  • SAS konektory, kde každý jednotlivý fyzický konektor je sestaven podle principu čtyř SAS portů v jednom fyzickém konektoru;
  • PCI-E konektor.

Tabulka - Hlavní subsystémy řadiče RAID.

Hlavní funkce moderních řadičů RAID Adaptec.

Podpora režimu HBA.

Již jsme diskutovali výše, které modely řadičů RAID podporují režim HBA. Je důležité poznamenat, že se to provádí nezávisle pro každý disk. To znamená, že pokud na řadiči neinicializujete některé disky na fyzické úrovni, automaticky skončí v programu jako „správce disků“ a budou tam viditelné a dostupné pro práci s nimi. Jednu část takových disků můžete použít v režimu HBA jako samostatné disky a druhou část použít k vytvoření softwarového pole RAID pomocí operačního systému. Inicializované disky budou použity k vytvoření svazků RAID pomocí řadiče RAID.

Hybridní objemy.

Na nejnovější verze firmware, řadič Adaptec automaticky vytvoří pole Hybrid RAID, když vytvoříte RAID 1/10 ze stejného počtu SSD a HDD (ve starším firmwaru bylo důležité, že v párech RAID1 byl SSD disk „master“ a HDD řídit „otroka“). Pokud nevíte, jak to zkontrolovat, kontaktujte technickou službu. Podpora Adaptec. Ovladač Adaptec zaznamenává současně na HDD a SSD. V režimu hybridního svazku probíhá čtení pouze z SSD! (pro objem dva HDD disky Při překročení určitého prahu I/O operací dojde ke čtení ze dvou disků. To je hlavní rozdíl hybridní režim RAID 1/10). Výsledkem je spolehlivé pole s vynikajícím výkonem při čtení. Čtete jako jeden SSD disk. To je o několik řádů vyšší než u HDD. Tato funkce je standardně dodávána se všemi ovladači Adaptec Series 2, 5,6, 7, 8.

Podpora typů svazků, které nahrazují RAID5.

Doufám, že máte dobrou představu o kontejneru RAID5 - toto je poměrně klasické řešení.

Kontejner úložiště informací vytvořený řadičem RAID je zobrazen červeně. Jedná se o kontejner typu RAID5. Samotný svazek RAID5 se skládá z velkého počtu takových virtuálních kontejnerů naskládaných do „balíčku“. Kontejner RAID5 se skládá z kolekce sektorů jednotlivých fyzických disků. Zvláštností kontejneru RAID5 je, že dokáže „přežít“ problémy v řadě kontejnerů pevných disků, ze kterých se skládá, tj. sektory pevného disku, které jsou součástí kontejneru RAID5, ztratí své informace, ale samotný kontejner RAID5 ztratí úložiště. To se do určité míry děje. S určitým počtem „špatných“ sektorů již samotný kontejner RAID5 nebude schopen zaručit 100% uložení informací. Vzhledem k přechodu z technologie SCSI na technologii SAS byla navržena základní kvalita Ukládání informací v kontejneru RAID5 se značně zhoršilo, doslova o několik řádů.

Stalo se tak z několika objektivních důvodů:
1. Kvůli podpoře SATA disky zejména ve třídě stolních počítačů znatelně klesla kvalita ukládání informací v kontejneru typu „diskový sektor“ (řadiče SCSI podporovaly pouze vysoce kvalitní disky SCSI);
2. Počet disků na řadiči se mnohonásobně zvýšil (2kanálový řadič SCSI - maximálně 26 disků, s ohledem na výkon 8-10 (4-5 na kanál));
3. Kapacita disku se výrazně zvýšila. To znamená, že svazek RAID 5 pojme mnohem více kontejnerů RAID5 (max. kapacita Jednotky SCSI 400 GB, maximální kapacita moderní SATA pevný disk – 8 TB).

To vše zvyšuje pravděpodobnost výskytu problémů v jediném kontejneru RAID5, což výrazně snižuje pravděpodobnost ukládání informací do svazku RAID5. Z tohoto důvodu byla k moderním řadičům RAID přidána řešení, která eliminují použití RAID5. Jedná se o RAID1E, RAID5EE a RAID6.

Dříve byla jedinou alternativou k RAID5 RAID10. Podpora RAID 10 samozřejmě zůstává.

Možnosti výměny RAID5:

Bad Stripe

Dříve, pokud i jeden kontejner ovladače (pás) ztratil informace nebo nemohl zaručit jejich bezpečnost, vedlo to k situaci, kdy byl celý svazek přenesen do offline režimu na straně řadiče RAID (zastavení přístupu doslova znamenalo, že řadič nemůže zaručit 100% integritu uživatelských dat na svazku).

Moderní ovladač „řeší“ tuto situaci jinak:
1. Přístup k tomu se nezastaví;
2. Na svazku je umístěna speciální značka „bad stripe“, což znamená, že ve svazku RAID jsou speciální kontejnery, které ztratily informace;
3. Takovéto „poškozené kontejnery“ jsou hlášeny operačnímu systému, aby mohl vyhodnotit možná opatření k zabránění ztrátě informací nebo k jejich obnovení.

Marker špatný pruh nelze ze svazku odstranit. Takový svazek můžete pouze smazat a vytvořit znovu. Vzhled svazku s příznakem „bad stripe“ označuje VÁŽNÉ chyby nebo problémy ve fázi návrhu úložného systému nebo ve fázi jeho provozu. Za touto situací je zpravidla vážná nekompetentnost projektanta nebo správce systému.

Hlavním zdrojem tohoto typu problému je nesprávně navržený RAID5.

Některé implementace RAID 5 (například RAID5 na jednotkách stolních počítačů) jsou pro svazky obsahující uživatelská data zakázány. Vyžaduje alespoň RAID5 + Hot Spare, což u RAID6 nedává smysl. Ukazuje se, že tam, kde bylo potřeba vytvořit RAID6, vznikl RAID5, což po několika letech provozu vedlo ke vzniku BAD STRIPE markeru.

SSD mezipaměť

Funkce SSD caching je jednou z nejoblíbenějších funkcí pro optimalizaci výkonu RAID svazků výkonných úložných systémů s velkým počtem uživatelů bez výrazného navýšení nákladů, počtu jednotek řešení, bez ztráty kapacity úložného systému a zajištění optimální spotřeby energie.

Chcete-li používat ukládání do mezipaměti SSD, musíte zajistit, aby byly splněny dvě podmínky:
1. Aplikace pracuje v režimu „náhodného čtení“;
2. Požadavky na data jsou svou povahou nerovnoměrné – existují kontejnery na úrovni RAID, ke kterým se přistupuje častěji, aby se z nich data četla, a jsou ty, ke kterým se přistupuje méně často.

Nutno podotknout, že co více uživatelů tím je pravděpodobnější, že požadavky na jednotlivé kontejnery budou mít formu standardního statistického rozdělení. Na základě parametru „počet požadavků za jednotku času“ můžeme rozlišit „horká data“ (počet přístupů k nim bude větší než zadaný parametr) a „studená data“ (počet přístupů k nim bude být menší než zadaný parametr).

Provoz SSDČtecí mezipaměť se skládá z kopírování „horkých dat“ na disky SSD a dalšího čtení z SSD, což výrazně urychluje proces. Protože se jedná o kopii, má mezipaměť pro čtení přirozenou ochranu, pokud se vytvoří jednotka SSD Oblast SSD cache selže, vede to pouze ke ztrátě výkonu, ale ne ke ztrátě dat.

Základní nastavení funkce SSD cache pro řadiče 7Q, 8Q:
1. Nejprve se ujistěte, zda máte „horká data“ a jakou mají velikost. Nejlepší způsob, jak to udělat, je experimentálně umístit dostatečně velký SSD disk do oblasti mezipaměti a nakonfigurovat jej v režimu Simple Volume. Integrační společnosti mohou tuto práci udělat za vás. Přibližně po týdnu můžete zkontrolovat statistiku mezipaměti SSD prostřednictvím funkce správy. Ukáže, zda máte „horká data“ a kolik místa zabírají.
2. K tomuto objemu je vhodné přidat 10-50 % kapacity a na základě těchto údajů nakonfigurovat schéma ukládání do mezipaměti pro případ, že by se objem „horkých dat“ v budoucnu zvýšil, pokud by takový trend nastal.

Nastavení vám umožní „odříznout“ požadovanou kapacitu od kapacity vašich SSD disků, vzít ji do svazku RAID požadovaného typu a zbývající kapacitu lze převést na běžný svazek RAID.

Dále byste měli vyhodnotit, zda má smysl používat mezipaměť pro zápis SSD. Internetové aplikace zpravidla fungují pro čtení. Zápisová mezipaměť se používá hlavně jako doplněk ke čtení mezipaměti, pokud aplikace kromě čtení používá i zápis. A pokud používáte mezipaměť pro zápis, musíte zajistit ochranu mezipaměti. Pokud se s oblastí mezipaměti něco stane, data v ní umístěná při ukládání položky do mezipaměti budou ztracena. K ochraně stačí použít svazek RAID, který poskytuje redundanci disku, například RAID1.

Možné režimy Konfigurace SSD oblast mezipaměti.

Pro jednotlivé svazky na ovladači můžete nezávisle povolit nebo zakázat mezipaměť SSD pro čtení a zápis v závislosti na potřebách a typech aplikací pracujících s každým svazkem.

podpora uEFI.

Všechny řadiče a HBA v aktuální produktové řadě Adaptec podporují režim BIOS základní desky uEFI. Přechod z MBR na uEFI umožnil například vytvořit systémové a spouštěcí svazky větší než 2 TB, což na deskách s MBR BIOSem nebylo možné (všimněte si, že všechny produkty Adaptec plně podporují svazky > 2 TB; tento problém na součástí ovladačů a HBA). Používání režimu uEFI má mnoho dalších výhod. Například při podpoře disků s velikostí sektoru 4K. Všechny produkty Adaptec v aktuální řadě podporují 4K disky, kromě 6. řady řadičů.

Je důležité si uvědomit, že pokud základní deska používá režim MBR, pak se konfigurační nástroj řadiče vyvolá pomocí Cntrl + A.

Na obrázku standardní utility Konfigurace Adaptec, volaná pomocí kombinace kláves Cntrl + A.

V případě režimu uEFI je řadič a konfigurátor HBA integrován do BIOSu základní deska. Tento nástroj lze snadno najít podle řádků obsahujících slovo „Adaptec“ nebo „PMC“. A jak můžete vidět v příkladu níže, nástroj uEFI má pokročilejší funkce než nástroj nazývaný pomocí Cntrl + A.

Funkce Hot Spare.
Hot Spare disk se chová jako pasivní prvek svazku RAID a je „převzat“ do svazku RAID, pokud se s jedním z disků ve svazku něco stane a ten již není k dispozici pro provádění své práce. HOT SPARE je disk, který je nainstalován na řadiči, roztočen a přiřazen k jednomu nebo více svazkům.

Pokud jde o poslední část definice HOT SPARE, můžete vytvořit 3 typy disků:

Hot Spare disky se používají v zásobníku Adaptec pro ruční „opravu“ svazků, ve kterých jeden disk z různých důvodů selhal. Například váš svazek RAID5 ztratil jeden disk a vstoupil do „degradovaného“ stavu. Vložíte nový disk na místo starého nebo do jiného volného slotu, stisknete funkci rescan a nyní vidíte nový disk na úrovni fyzických disků zásobníku. Dále jej deklarujte jako HOT SPARE (bez ohledu na typ, například Global Hot Spare) a počkejte, až bude tento disk 100% „zabudován do“ svazku. Hlasitost přejde do optimálního stavu. Poté zvolíte příkaz – delete hot spare. Tento příkaz odebere z tohoto disku stav HOT SPARE a stane se plnohodnotným členem tohoto svazku RAID.

Funkce řízení spotřeby.

Svazky RAID fungují jinak. Například svazky vytvořené pro zálohování dat lze použít k přesunu dat, například dva až tři dny v měsíci. Nabízí se otázka: jak dobré je dodávat energii pevným diskům a udržovat je v chodu, když prakticky celou zbývající dobu nejsou používány?

Tento problém řeší funkce řízení spotřeby. Její filozofií je, že když se disky nepoužívají, lze je zpomalit (pokud disky tuto funkci podporují) a poté úplně zastavit a nechat vypnuté, dokud nejsou potřeba. Nastavení této funkce je velmi jednoduché.

Nejprve se na ovladači nastaví celý čas podle dne v týdnu, kdy je tato funkce aktivována a kdy ne. Toto nastavení je vázáno na práci typické firmy. Nastavují se parametry pro zprovoznění interních a externích disků - po párech, třech, čtyřech atd., aby se rozložila zátěž na zdroje. Kromě toho jsou nastaveny tři hodnoty časovače. Po prvním, pokud na discích tohoto svazku neprobíhají žádné I/O operace, pak tyto disky přejdou do stavu „stand by“, tzn. sníží jejich obrat o 50 %. Ne všechny disky podporují tento režim, pokud není podporován, s diskem se nic nestane. Po uplynutí druhého časovače se disky zcela zastaví a vstoupí do " vypnout napájení" Třetí časovač se používá k periodické kontrole disků, které byly delší dobu vypnuté. Řadič zapne disky, provede jejich nedestruktivní kontrolu a pokud je vše v pořádku, přepne je zpět do stavu „vypnuto“.

Po těchto nastaveních můžete aktivovat schéma řízení spotřeby pro každý svazek, kde to bude užitečné. Takové objemy budou v systému řízení označeny zeleně. Maximální výhody tuto funkci dává při použití v datových centrech a umožňuje nejen přímé úspory energie zastavením disků, ale také pomocné úspory snížením rychlosti ventilátorů, které foukají na disky, když jsou disky vypnuté.

Správa úložných systémů Adaptec.

Nástroje pro správu, které jsou součástí balíčku Max View Storage Manager (MSM), jsou postaveny na nejpokročilejších standardech a využívají nejnovější trendy ve zlepšování principů správy a efektivity. Proto můžeme snadno použít Adaptec Max View Storage Manager jako základní model pro pohled na hlavní funkce a techniky v oblasti správy úložiště. Hlavním ovládacím prvkem je řadič RAID, který si může vyměňovat servisní informace s disky, expandéry a koši a tím podporovat funkce správy celého úložného subsystému jako celku.

Klíčové vlastnosti moderních systémů pro správu úložiště:

  • Jak klientská aplikace použitý standardní WEB prohlížeč.
  • Poskytovatel CIM pro práci ve virtuálních prostředích. Poskytovatel CIM z balíčku MSM vám to umožňuje plnou kontroluŘadič RAID z libovolného virtuální prostředí. Například při použití vmware.
  • Použití utilit CLI (rozhraní příkazového řádku). V balíčku MSM kromě grafická utilita management, jehož klientskou částí je WEB prohlížeč, je zde utilita CLI - ARCCONF.EXE. Seznam příkazů lze získat pomocí dokumentace na webu Adaptec. Pomocí CLI můžete vytvořit různé skripty(mini programy), které mohou integrátoři využít k automatizaci výroby, nastavení, změně firmware atp. a ve společnostech používajících řadiče RAID pro automatické dotazování úložných systémů k identifikaci abnormálních situací.
  • Možnost spravovat celou infrastrukturu z jedné klientské aplikace. Pomocí MSM v okně Enterprise View můžete „převzít“ pro správu všechny servery s nainstalovaným jedním nebo více řadiči RAID. Chcete-li to provést, buď přímo uvedete IP adresu takových systémů, nebo použijete Automatická funkce Objev.

Vysoká úroveň detailování, vizualizace a vnořování řídicích objektů. Správce vidí, že celý segment sítě zčervenal, což znamená, že došlo k poruše. Pokud rozbalíte ikonu segmentu sítě, budou viditelné všechny servery. Problémový server bude označen červeně. Pokud kliknete na tento server, uvidíte řadiče RAID nainstalované v tomto systému. Červená barva jednoho z nich znamená nějaký problém. Pokud se ponoříte dále, uvidíte svazky vytvořené na tomto ovladači a problematický svazek. A tak dále, až po problémový fyzický disk. Nyní administrátor přesně ví, co se stalo, k jakým následkům to vedlo a který disk je třeba vyměnit.
Vysoká úroveň zabezpečení řídicích systémů pomocí standardních síťových protokolů. Mechanismy správy úložiště je samozřejmě potřeba chránit. Ostatně v případě neoprávněného přístupu resp otevřený kanál ovládání, uživatelská data mohou být zničena bez možnosti obnovy. K tomuto účelu používá MSM databázi uživatelů a hesel ze samotného operačního systému. Kromě toho se na kanálu mezi prohlížečem a serverem pro správu používá šifrování provozu prostřednictvím protokolu HTTPS. I v ostatních složkách řídicího systému jsou bezpečnostní otázky řešeny na nejvyšší úrovni.
Možnost zaslání důležité zprávy z úložného systému na správce. Aby nedošlo k „řetězení“ pohledu administrátora navždy na obrazovku s MS ve WEB prohlížeči, lze řídicí systém nakonfigurovat pro odesílání zpráv prostřednictvím e-mailu. MSM má schopnost odesílat všechny typy zpráv, včetně testovacích zpráv. Nejdůležitější jsou zprávy Warning a Error, které přímo souvisejí s přechodem svazků RAID do stavu Degraded a Failed. Takové zprávy lze snadno odesílat na mobilní telefon správce prostřednictvím e-mailových aplikací.

  • diskový subsystém
  • hba
  • Přidejte značky

    Kupodivu jsou dnes zásobníky RAID proprietární řešení, která neodpovídají standardům. Všechny fyzické disky s vytvořenými svazky RAID můžete odebrat například z řadiče Adaptec 6805 a přenést je do řadiče 8885 a svazky budou viditelné. Pokud se ale tímto způsobem pokusíte přenést svazky do řadiče od jiného výrobce, pak se zázrak nestane a data a tyto svazky RAID nebude možné nijak vidět. Proč se to děje? Protože řadič jiného výrobce podporuje svůj vlastní zásobník, který není kompatibilní se zásobníkem Adaptec.

    Každý svazek RAID je operačnímu systému počítače prezentován jako „SCSI disk“, který bude viditelný jako samostatný objekt v diskových utilitách, jako je například správce disků.

    Ve správci disků tedy můžete vidět 4 virtuální disky: RAID0, RAID1 a dva disky RAID5.

    Při vytváření svazků funguje každá úroveň.

    Úloha na úrovni fyzického disku– vytvořit na discích speciální oblast, kam se budou ukládat informace o vytvářených svazcích. Tato oblast se nazývá oblast metadat a je to komplexní úložný kontejner, kde jsou uloženy informace o službách. Do této oblasti má přístup pouze operační systém ovladače a nikdo jiný. V zásobníku Adaptec se tento proces vytváření oblasti služeb nazývá − inicializace a provádí se pomocí příkazu - inicializovat.

    Řadiče RAID, které podporují režim HBA, mají také opačný příkaz - deinicializovat(jedná se o ovladače řady 7 a 8). Tento příkaz zcela odstraní takovou datovou strukturu z fyzického disku a uvede disk do režimu HBA. Čili, aby na něm řadič řady 7 nebo 8 začal fungovat jako běžný HBA, stačí deinicializovat všechny disky. Poté budou všechny viditelné v nástroji centrálního operačního systému, jako je DISK MANAGER, a nejsou nutné žádné další operace.

    Další známá funkce, tzv. donucování. V zásobníku Adaptec se provádí současně s inicializací. Tato funkce mírně snižuje kapacitu pevného disku. Disky stejné kapacitní kategorie od různých výrobců mají totiž stále různé kapacity. Aby bylo možné disk od jednoho výrobce v budoucnu v případě potřeby vyměnit za disk od jiného výrobce, je provedena donucovací funkce. Nařezaná nádoba se prostě navždy „ztratí“ a nijak se nepoužívá.

    Na fyzické úrovni je možné pojmout různé servisní funkce - kontrolu disku destruktivní či nedestruktivní metodou, formátování, úplné vymazání dat, zaplnění disku nulami atd.

    Logická úroveň nutné ze dvou důvodů:

    Za prvé, výrazně snižuje diskrétnost kapacit, které zvolíte pro vytváření svazků. Toho lze dosáhnout prostřednictvím možnosti vytvořit více logických jednotek (jednoduše odříznout určitou kapacitu) na jedné fyzické nebo vytvořit jednu logickou jednotku pomocí dvou nebo více fyzických jednotek. V tomto případě se kapacity různých fyzických jednoduše sečtou. Nejprve bude jedna oblast jednoho fyzického disku vyplněna daty, poté další oblast jiného fyzického disku atd. Tento způsob spojování disků se nazývá Řetěz(některé jiné zásobníky používají slovo Rozpětí).

    Za druhé, když jsou takové objekty vytvořeny, informace o nich se dostanou do metadat a již nejsou vázány na fyzické souřadnice. Poté můžete přenášet disky z jednoho portu řadiče do druhého, přenášet svazky z jednoho řadiče do druhého a stále to bude fungovat skvěle.

    Následuje úroveň RAID. Moderní zásobníky mají na této úrovni obvykle dvě podvrstvy. Na každé podúrovni jsou elementární RAID, jako jsou: chain nebo span (toto ve skutečnosti není RAID, je to jen „sčítání“ kapacit z různých disků), RAID0, RAID1, RAID1E, RAID5, RAID6 atd.

    Nejnižší podúroveň přijímá logické jednotky, například LD1, LD2, LD3, jako na obrázku, a „upeče“ z nich svazek RAID5. Totéž se děje s LD4, LD5, LD6. Z nich získáme druhý RAID5. Dva svazky RAID5 jsou posunuty na ještě vyšší úroveň, kde je na ně aplikována funkce RAID0. Výstupem je komplexní svazek nazvaný RAID50 (kde 5 je typ RAID použitý na spodní podúrovni a 0 je typ funkce RAID použitý na nejvyšší úrovni). V definici chybí pouze to, kolik RAID5 (v tomto případě 2) bylo použito k vytvoření RAID50. V zásobníku Adaptec se tomu říká zařízení druhé úrovně. Tento parametr bude potřeba, pokud vytvoříte složité svazky typu 50 nebo 60.

    Nejvyšší úroveň je potřebná pro poskytnutí takového virtuálního objektu pro přístup operačního systému. Po převedení na tuto úroveň se nabízí řada servisních funkcí. Dvě nejdůležitější v zásobníku Adaptec jsou sestavení a vymazání.

    • Clear zapíše nuly do celého nového svazku, který je přenesen do operačního systému.
    • Build „sestaví“ nový svazek. Pokud se například jedná o RAID1, bude celý obsah prvního kontejneru zkopírován do obsahu druhého. A tak dále pro všechny nádoby.


    Na obrázku je virtuální kontejner typu RAID1. Sestavení operace.

    Pokud máte nové disky z výroby, tak se v jejich sektorech píšou nuly. Proto bude výsledek obou funkcí stejný.

    Rozdíl mezi režimem SimpleVolume a HBA.

    Tyto dva režimy jsou si velmi podobné. Oba lze použít k vytvoření softwarových řešení RAID.

    Když disk pracuje v režimu HBA, nevytvářejí se na něm žádná metadata. A nedochází k žádnému „ořezávání“ kapacity donucovací funkcí. To může způsobit problém, pokud potřebujete vyměnit jednotku za jednotku od jiného výrobce. Disk je přímo přenesen do operačního systému. V tomto případě s ním mezipaměť řadiče nebude fungovat!

    V případě vytvoření jednoduchého svazku prostřednictvím konfigurace svazku se na disku vytvoří oblast metadat a kapacita se „ořízne“ funkcí vynucování. Dále se pomocí konfiguračního nástroje vytvoří svazek Simple Volume s využitím veškeré volné kapacity disku. A poté je tento objekt přenesen do centrálního operačního systému.

    V dnešní době se zásobníky řadičů RAID neustále vylepšují. Adaptec ve své funkci MaxCache plus nainstaloval do zásobníku další úroveň, tzv. tier level, s podúrovněmi. To umožnilo vzít jeden svazek RAID5 vytvořený na discích SSD a další svazek, například RAID60, vytvořený na discích SATA se 7200 otáčkami za minutu a sestavit z nich komplexní virtuální svazek, kde byla na RAID5 uložena nejpotřebnější data a nejméně potřebná data na RAID60. Zároveň bylo možné převzít svazky z různých ovladačů. Dnes tato funkce není podporována kvůli přechodu takových schopností na serverové operační systémy. Řadič stack jako virtualizační mechanismus přirozeně nestojí a je neustále vylepšován jak na úrovni virtualizace, tak na úrovni základních a servisních funkcí.

    Návrh moderního RAID řadiče.

    Moderní RAID řadič je informační systém (zjednodušeně počítač), který si na základě svých hlavních funkcí: vytvoření virtuálního kontejneru, umístění a zpracování informací v kontejnerech (v podstatě ČTENÍ – ZÁPIS informací) vyměňuje data se dvěma dalšími typy informací. systémy:
    1. S operačním systémem;
    2. S jednotkami HDD nebo SSD.

    Z hlediska vnitřní architektury se moderní RAID řadič skládá z následující sady hlavních subsystémů:

    • RoC čip (RAIDonChip);
    • BERAN;
    • Správa „ochrany“ vyrovnávací paměti (zpravidla se jedná o samostatnou dceřinou desku, ale v nejnovějších implementacích pro 8. řadu řadičů Adaptec je tento modul zabudován do čipu RoC);
    • Superkondenzátor jako zdroj energie pro modul ochrany mezipaměti se používá v případě výpadku hlavního napájení;
    • Flash paměť a nvSRAM (paměť, která neztrácí informace po vypnutí napájení);
    • SAS konektory, kde každý jednotlivý fyzický konektor je sestaven podle principu čtyř SAS portů v jednom fyzickém konektoru;
    • PCI-E konektor.

    Tabulka - Hlavní subsystémy řadiče RAID.

    Hlavní funkce moderních řadičů RAID Adaptec.

    Podpora režimu HBA.

    Již jsme diskutovali výše, které modely řadičů RAID podporují režim HBA. Je důležité poznamenat, že se to provádí nezávisle pro každý disk. To znamená, že pokud na řadiči neinicializujete některé disky na fyzické úrovni, automaticky skončí v programu jako „správce disků“ a budou tam viditelné a dostupné pro práci s nimi. Jednu část takových disků můžete použít v režimu HBA jako samostatné disky a druhou část použít k vytvoření softwarového pole RAID pomocí operačního systému. Inicializované disky budou použity k vytvoření svazků RAID pomocí řadiče RAID.

    Hybridní objemy.

    Na nejnovějších verzích firmwaru řadič Adaptec automaticky vytvoří pole Hybrid RAID, když vytvoříte RAID 1/10 ze stejného počtu SSD a HDD (ale ve starším firmwaru bylo důležité, aby v párech RAID1 byl SSD disk „master“). “ a HDD jednotka „slave“ “). Pokud nevíte, jak to zkontrolovat, kontaktujte technickou službu. Podpora Adaptec. Ovladač Adaptec zaznamenává současně na HDD a SSD. V režimu hybridního svazku probíhá čtení pouze z SSD! (u svazku dvou HDD disků při překročení určité hranice I/O operací dochází ke čtení ze dvou disků. To je hlavní rozdíl mezi hybridním režimem RAID1/10). Výsledkem je spolehlivé pole s vynikajícím výkonem při čtení. Čtete jako jeden SSD disk. To je o několik řádů vyšší než u HDD. Tato funkce je standardně dodávána se všemi ovladači Adaptec Series 2, 5,6, 7, 8.

    Podpora typů svazků, které nahrazují RAID5.

    Doufám, že máte dobrou představu o kontejneru RAID5 - toto je poměrně klasické řešení.

    Kontejner úložiště informací vytvořený řadičem RAID je zobrazen červeně. Jedná se o kontejner typu RAID5. Samotný svazek RAID5 se skládá z velkého počtu takových virtuálních kontejnerů naskládaných do „balíčku“. Kontejner RAID5 se skládá z kolekce sektorů jednotlivých fyzických disků. Zvláštností kontejneru RAID5 je, že dokáže „přežít“ problémy v řadě kontejnerů pevných disků, ze kterých se skládá, tj. sektory pevného disku, které jsou součástí kontejneru RAID5, ztratí své informace, ale samotný kontejner RAID5 ztratí úložiště. To se do určité míry děje. S určitým počtem „špatných“ sektorů již samotný kontejner RAID5 nebude schopen zaručit 100% uložení informací. V důsledku přechodu z technologie SCSI na technologii SAS se navrhovaná základní kvalita ukládání informací s kontejnerem RAID5 velmi zhoršila, a to doslova o několik řádů.

    Stalo se tak z několika objektivních důvodů:
    1. Díky podpoře SATA disků, zejména stolní třídy, znatelně klesla kvalita ukládání informací v kontejneru typu „diskový sektor“ (SCSI řadiče podporovaly pouze kvalitní SCSI disky);
    2. Počet disků na řadiči se mnohonásobně zvýšil (2kanálový řadič SCSI - maximálně 26 disků, s ohledem na výkon 8-10 (4-5 na kanál));
    3. Kapacita disku se výrazně zvýšila. To znamená, že svazek RAID 5 může obsahovat mnohem více kontejnerů RAID5 (max. kapacita disku SCSI je 400 GB, maximální kapacita moderního pevného disku SATA je 8 TB).

    To vše zvyšuje pravděpodobnost výskytu problémů v jediném kontejneru RAID5, což výrazně snižuje pravděpodobnost ukládání informací do svazku RAID5. Z tohoto důvodu byla k moderním řadičům RAID přidána řešení, která eliminují použití RAID5. Jedná se o RAID1E, RAID5EE a RAID6.

    Dříve byla jedinou alternativou k RAID5 RAID10. Podpora RAID 10 samozřejmě zůstává.

    Možnosti výměny RAID5:

    Bad Stripe

    Dříve, pokud i jeden kontejner řadiče (pás) ztratil informace nebo nemohl zaručit jeho bezpečnost, vedlo to k situaci, kdy byl celý svazek řadičem RAID přepnut do offline režimu (zastavení přístupu doslova znamenalo, že řadič nemohl zaručit 100% integrita uživatelských dat na svazku).

    Moderní ovladač „řeší“ tuto situaci jinak:
    1. Přístup k tomu se nezastaví;
    2. Na svazku je umístěna speciální značka „bad stripe“, což znamená, že ve svazku RAID jsou speciální kontejnery, které ztratily informace;
    3. Takovéto „poškozené kontejnery“ jsou hlášeny operačnímu systému, aby mohl vyhodnotit možná opatření k zabránění ztrátě informací nebo k jejich obnovení.

    Marker špatný pruh nelze ze svazku odstranit. Takový svazek můžete pouze smazat a vytvořit znovu. Vzhled svazku s příznakem „bad stripe“ označuje VÁŽNÉ chyby nebo problémy ve fázi návrhu úložného systému nebo ve fázi jeho provozu. Za touto situací je zpravidla vážná nekompetentnost projektanta nebo správce systému.

    Hlavním zdrojem tohoto typu problému je nesprávně navržený RAID5.

    Některé implementace RAID 5 (například RAID5 na jednotkách stolních počítačů) jsou pro svazky obsahující uživatelská data zakázány. Vyžaduje alespoň RAID5 + Hot Spare, což u RAID6 nedává smysl. Ukazuje se, že tam, kde bylo potřeba vytvořit RAID6, vznikl RAID5, což po několika letech provozu vedlo ke vzniku BAD STRIPE markeru.

    SSD mezipaměť

    Funkce SSD caching je jednou z nejoblíbenějších funkcí pro optimalizaci výkonu RAID svazků výkonných úložných systémů s velkým počtem uživatelů bez výrazného navýšení nákladů, počtu jednotek řešení, bez ztráty kapacity úložného systému a zajištění optimální spotřeby energie.

    Chcete-li používat ukládání do mezipaměti SSD, musíte zajistit, aby byly splněny dvě podmínky:
    1. Aplikace pracuje v režimu „náhodného čtení“;
    2. Požadavky na data jsou svou povahou nerovnoměrné – existují kontejnery na úrovni RAID, ke kterým se přistupuje častěji, aby se z nich data četla, a jsou ty, ke kterým se přistupuje méně často.

    Je třeba poznamenat, že čím více uživatelů má systém, tím je pravděpodobnější, že požadavky na jednotlivé kontejnery budou mít formu standardního statistického rozdělení. Na základě parametru „počet požadavků za jednotku času“ můžeme rozlišit „horká data“ (počet přístupů k nim bude větší než zadaný parametr) a „studená data“ (počet přístupů k nim bude být menší než zadaný parametr).

    Úkolem čtecí mezipaměti SSD je kopírování „horkých dat“ na disky SSD a následné čtení z SSD, což výrazně urychluje proces. Vzhledem k tomu, že se jedná o kopii, má mezipaměť pro čtení přirozenou ochranu, pokud selže SSD disk tvořící oblast mezipaměti SSD, vede to pouze ke ztrátě výkonu, nikoli však ke ztrátě dat.

    Základní nastavení funkce SSD cache pro řadiče 7Q, 8Q:
    1. Nejprve se ujistěte, zda máte „horká data“ a jakou mají velikost. Nejlepší způsob, jak to udělat, je experimentálně umístit dostatečně velký SSD disk do oblasti mezipaměti a nakonfigurovat jej v režimu Simple Volume. Integrační společnosti mohou tuto práci udělat za vás. Přibližně po týdnu můžete zkontrolovat statistiku mezipaměti SSD prostřednictvím funkce správy. Ukáže, zda máte „horká data“ a kolik místa zabírají.
    2. K tomuto objemu je vhodné přidat 10-50 % kapacity a na základě těchto údajů nakonfigurovat schéma ukládání do mezipaměti pro případ, že by se objem „horkých dat“ v budoucnu zvýšil, pokud by takový trend nastal.

    Nastavení vám umožní „odříznout“ požadovanou kapacitu od kapacity vašich SSD disků, vzít ji do svazku RAID požadovaného typu a zbývající kapacitu lze převést na běžný svazek RAID.

    Dále byste měli vyhodnotit, zda má smysl používat mezipaměť pro zápis SSD. Internetové aplikace zpravidla fungují pro čtení. Zápisová mezipaměť se používá hlavně jako doplněk ke čtení mezipaměti, pokud aplikace kromě čtení používá i zápis. A pokud používáte mezipaměť pro zápis, musíte zajistit ochranu mezipaměti. Pokud se s oblastí mezipaměti něco stane, data v ní umístěná při ukládání položky do mezipaměti budou ztracena. K ochraně stačí použít svazek RAID, který poskytuje redundanci disku, například RAID1.

    Možné režimy konfigurace pro oblast mezipaměti SSD.

    Pro jednotlivé svazky na ovladači můžete nezávisle povolit nebo zakázat mezipaměť SSD pro čtení a zápis v závislosti na potřebách a typech aplikací pracujících s každým svazkem.

    podpora uEFI.

    Všechny řadiče a HBA v aktuální produktové řadě Adaptec podporují režim BIOS základní desky uEFI. Přechod z MBR na uEFI umožnil například vytvořit systémové a spouštěcí svazky větší než 2 TB, což na deskách s MBR BIOSem nebylo možné (všimněte si, že všechny produkty Adaptec plně podporují svazky > 2 TB; tento problém na součástí ovladačů a HBA). Používání režimu uEFI má mnoho dalších výhod. Například při podpoře disků s velikostí sektoru 4K. Všechny produkty Adaptec v aktuální řadě podporují 4K disky, kromě 6. řady řadičů.

    Je důležité si uvědomit, že pokud základní deska používá režim MBR, pak se konfigurační nástroj řadiče vyvolá pomocí Cntrl + A.

    Obrázek ukazuje standardní konfigurační nástroj Adaptec, který se volá pomocí kombinace kláves Cntrl + A.

    V případě režimu uEFI je řadič a konfigurátor HBA integrován do BIOSu základní desky. Tento nástroj lze snadno najít podle řádků obsahujících slovo „Adaptec“ nebo „PMC“. A jak můžete vidět v příkladu níže, nástroj uEFI má pokročilejší funkce než nástroj nazývaný pomocí Cntrl + A.

    Funkce Hot Spare.
    Hot Spare disk se chová jako pasivní prvek svazku RAID a je „převzat“ do svazku RAID, pokud se s jedním z disků ve svazku něco stane a ten již není k dispozici pro provádění své práce. HOT SPARE je disk, který je nainstalován na řadiči, roztočen a přiřazen k jednomu nebo více svazkům.

    Pokud jde o poslední část definice HOT SPARE, můžete vytvořit 3 typy disků:

    Hot Spare disky se používají v zásobníku Adaptec pro ruční „opravu“ svazků, ve kterých jeden disk z různých důvodů selhal. Například váš svazek RAID5 ztratil jeden disk a vstoupil do „degradovaného“ stavu. Vložíte nový disk na místo starého nebo do jiného volného slotu, stisknete funkci rescan a nyní vidíte nový disk na úrovni fyzických disků zásobníku. Dále jej deklarujte jako HOT SPARE (bez ohledu na typ, například Global Hot Spare) a počkejte, až bude tento disk 100% „zabudován do“ svazku. Hlasitost přejde do optimálního stavu. Poté zvolíte příkaz – delete hot spare. Tento příkaz odebere z tohoto disku stav HOT SPARE a stane se plnohodnotným členem tohoto svazku RAID.

    Funkce řízení spotřeby.

    Svazky RAID fungují jinak. Například svazky vytvořené pro zálohování dat lze použít k přesunu dat, například dva až tři dny v měsíci. Nabízí se otázka: jak dobré je dodávat energii pevným diskům a udržovat je v chodu, když prakticky celou zbývající dobu nejsou používány?

    Tento problém řeší funkce řízení spotřeby. Její filozofií je, že když se disky nepoužívají, lze je zpomalit (pokud disky tuto funkci podporují) a poté úplně zastavit a nechat vypnuté, dokud nejsou potřeba. Nastavení této funkce je velmi jednoduché.

    Nejprve se na ovladači nastaví celý čas podle dne v týdnu, kdy je tato funkce aktivována a kdy ne. Toto nastavení je vázáno na práci typické firmy. Nastavují se parametry pro zprovoznění interních a externích disků - po párech, třech, čtyřech atd., aby se rozložila zátěž na zdroje. Kromě toho jsou nastaveny tři hodnoty časovače. Po prvním, pokud na discích tohoto svazku neprobíhají žádné I/O operace, pak tyto disky přejdou do stavu „stand by“, tzn. sníží jejich obrat o 50 %. Ne všechny disky podporují tento režim, pokud není podporován, s diskem se nic nestane. Po uplynutí druhého časovače se pohony úplně zastaví a přejdou do stavu „vypnuto“. Třetí časovač se používá k periodické kontrole disků, které byly delší dobu vypnuté. Řadič zapne disky, provede jejich nedestruktivní kontrolu a pokud je vše v pořádku, přepne je zpět do stavu „vypnuto“.

    Po těchto nastaveních můžete aktivovat schéma řízení spotřeby pro každý svazek, kde to bude užitečné. Takové objemy budou v systému řízení označeny zeleně. Tato funkce poskytuje maximální výhody při použití v datových centrech a umožňuje nejen přímé úspory energie zastavením disků, ale také pomocné úspory snížením rychlosti ventilátorů foukajících na disky, když jsou disky vypnuté.

    Správa úložných systémů Adaptec.

    Nástroje pro správu, které jsou součástí balíčku Max View Storage Manager (MSM), jsou postaveny na nejpokročilejších standardech a využívají nejnovější trendy ve zlepšování principů správy a efektivity. Proto můžeme snadno použít Adaptec Max View Storage Manager jako základní model pro pohled na hlavní funkce a techniky v oblasti správy úložiště. Hlavním ovládacím prvkem je řadič RAID, který si může vyměňovat servisní informace s disky, expandéry a koši a tím podporovat funkce správy celého úložného subsystému jako celku.

    Klíčové vlastnosti moderních systémů pro správu úložiště:

    • Jako klientská aplikace je použit standardní WEB prohlížeč.
    • Poskytovatel CIM pro práci ve virtuálních prostředích. Poskytovatel CIM z balíčku MSM umožňuje plnou správu řadiče RAID z libovolného virtuálního prostředí. Například při použití vmware.
    • Použití utilit CLI (rozhraní příkazového řádku). Balíček MSM kromě grafického nástroje pro správu, který jako klientskou část používá WEBový prohlížeč, obsahuje nástroj CLI - ARCCONF.EXE. Seznam příkazů lze získat pomocí dokumentace na webu Adaptec. Pomocí CLI můžete vytvářet různé skripty (mini programy), které mohou integrátoři použít k automatizaci výroby, nastavení, změně firmwaru atd. a ve společnostech, které používají řadiče RAID k automatickému dotazování úložných systémů k identifikaci abnormálních situací.
    • Možnost spravovat celou infrastrukturu z jedné klientské aplikace. Pomocí MSM v okně Enterprise View můžete „převzít“ pro správu všechny servery s nainstalovaným jedním nebo více řadiči RAID. Chcete-li to provést, buď přímo zadáte IP adresu takových systémů, nebo použijete funkci Auto Discovery.

    Vysoká úroveň detailů, vizualizace a vnořování řídicích objektů. Správce vidí, že celý segment sítě zčervenal, což znamená, že došlo k poruše. Pokud rozbalíte ikonu segmentu sítě, budou viditelné všechny servery. Problémový server bude označen červeně. Pokud kliknete na tento server, uvidíte řadiče RAID nainstalované v tomto systému. Červená barva jednoho z nich znamená nějaký problém. Pokud se ponoříte dále, uvidíte svazky vytvořené na tomto ovladači a problematický svazek. A tak dále, až po problémový fyzický disk. Nyní administrátor přesně ví, co se stalo, k jakým následkům to vedlo a který disk je třeba vyměnit.
    Vysoká úroveň zabezpečení řídicích systémů pomocí standardních síťových protokolů. Mechanismy správy úložiště je samozřejmě potřeba chránit. Koneckonců, s neoprávněným přístupem nebo s otevřeným kontrolním kanálem mohou být uživatelská data zničena bez možnosti obnovy. K tomuto účelu používá MSM databázi uživatelů a hesel ze samotného operačního systému. Kromě toho se na kanálu mezi prohlížečem a serverem pro správu používá šifrování provozu prostřednictvím protokolu HTTPS. I v ostatních složkách řídicího systému jsou bezpečnostní otázky řešeny na nejvyšší úrovni.
    Možnost odesílat důležité zprávy z úložného systému správci. Aby nedošlo k „řetězení“ pohledu administrátora navždy na obrazovku s MS ve WEB prohlížeči, lze řídicí systém nakonfigurovat pro odesílání zpráv prostřednictvím e-mailu. MSM má schopnost odesílat všechny typy zpráv, včetně testovacích zpráv. Nejdůležitější jsou zprávy Warning a Error, které přímo souvisejí s přechodem svazků RAID do stavu Degraded a Failed. Takové zprávy lze snadno odesílat na mobilní telefon správce prostřednictvím e-mailových aplikací.



    
    Nahoru