Architektura datových center dospěla k dalšímu milníku designové změny. Tu představuje nejen výrazně rozšířenější využívání servisně orientovaných veřejných cloudů, ale i nový design dnes budovaných a modernizovaných datových center, případně serveroven podniků a organizací napříč obory.
Převážná část v současnosti provozovaných infrastruktur jsou stále koncepce zahrnující topologii 3-Tier topologie LAN (Local Area Network), samostatnou SAN (Storage Area Network) pro centrální disková úložiště a dedikovaný hardware. To vše s vysokým podílem manuální správy v rámci různých týmů. Dále řízení toku datové komunikace a jejího směru probíhá skrz centralizované firewall a loadbalancer soustavy, vně aplikačních sil zastoupených virtualizovanými i fyzickými servery. Změny v komunikaci mezi uživatelem a jeho aplikací, a to včetně šifrování, akcelerace životního cyklu těchto aplikací, vedou Solution architekty pro datová centra k zamyšlení a následným úpravám, současně i k využívání nových technologií a moderních designů.
Jak tedy může taková změna designu datového centra vypadat? Pokud vynecháme Non-IT část DC, tedy zajištění dodávky energií a řízení fyzického prostředí s garancí, můžeme jeho IT část shrnout celkem do tří hlavních směrů.
Rychlost doručování služeb a jejich škálovatelnost jdou v ruku v ruce s optimalizací využívaných zdrojů. A proto první směr představuje softwarově řízené datové centrum. Její podstatou je výrazně vyšší nasazení automatizace řízení infrastruktury coby celku, kdy iniciátorem změny bývá požadavek uživatel a jeho aplikace. Tedy vznik, úprava i uvolňování systémových zdrojů, případně reakce na provozní i bezpečnostní událost, která znamená zásah do všech vrstev ICT infrastruktury.
Dnes jsou pro uvedené účely na trhu různé nástroje, ke kterým patří např. OpenStack, VMware vRealize Suite, Cisco CloudCenter, Ansible a další. Společným jmenovatelem pro všechny je automatické ovládání instalovaných zařízení pomocí API rozhraní a skriptů. Úkolem těchto systémů je zprostředkovanou formou automaticky vytvářet a editovat prostředí aplikací, řídit a chránit jejich komunikaci, včetně samostatné předdefinované reakce na provozně-bezpečnostní incidenty. Do budoucna se do tohoto procesu bude více zapojovat umělá inteligence (AI), v prvním kroku především v bezpečnostní rovině, následovat potom bude prediktivní optimalizace výkonu aplikací. Role člověka v podobě lidského IT specialisty bude kontrolní a eskalační/záchranná.
Softwarově definovaná datová centra (SDDC) jsou dnes v podnicích a organizacích na svém začátku a jsou představována spíše instalací hyperkonvergovaných řešení a engineering systémů pro databáze. Rok 2017 byl ve znamení adopce takovýchto systémů a řešení a do roku 2021 bude podle IDC tvořit 26,6 % obratu jejich dodavatelů.
Nespornou výhodou je zde využití komoditního hardwaru, představovaného procesory X86 a lokálními disky instalovanými do fyzických serverů. Tento kus hardwaru je pak povýšen na hyperkonvergovaný systém instalací běžné serverové virtualizace typu Vmware vSphere, Microsoft Hyper-V a KVM, rozšířené o softwarově definované úložiště (SDS) ve formě Vmware vSAN, Microsoft Storage Space Direct, ale také Cisco HyperFlex a Dell/EMC VxRail atd. Výsledkem je náhrada specializovaného hardwaru pro SAN sítě a centrálních produkčních diskových polí.
Nicméně "Software Defined" nejsou jen tato řešení, ale i jejich kombinace s dalšími komponenty. Mezi ty hlavní patří softwarově řízené sítě (SDN) a orchestrace DC jako takového. SDN (Software Defined Network) do moderní infrastruktury patří, a to zejména pro možnost dynamického řízení provozu. V etapě budování prostředí pro aplikaci výrazně urychlují čas doručení zvolením předdefinovaných Network profilů a automatizovanou instalací požadovaných komponent. Zkrácení času bývá významné, z hodin a dnů zde přecházíme na jednotky minut. Volba konkrétního výrobce SDN technologie jde od projektu k projektu, ale při jejím výběru musí být do kalkulace zahrnuty stávající i budoucí prostředí, požadované služby, kompatibilita s ostatními prvky v rámci DC a nezávislost pro vlastní budoucí vývoj.
Druhou a někdy opomíjenou rovinou využití SDN technologií je bezpečnost, a to zejména z pohledu snadné mikrosegmentace provozu a jeho automatická korekce na základě bezpečnostních incidentů. Pokud propojíme SDN s podporovanými bezpečnostními nástroji – např. Cisco ACI nebo Vmware NSX v kombinaci s nástroji Check Point, Trend Micro a jim podobným, jsme pak schopni automaticky reagovat na vzniklé bezpečnostní a provozní incidenty reprezentované (ne)/naplněním bezpečnostního pravidla (Security tag) a účinně bránit zlomyslným útokům, či neautorizovaným přístupům. S ohledem na možnosti dané sítě pak bývají automatizované reakce různé, od ukončení komunikace přes izolaci až po smazání infikovaného zdroje (virtuálního serveru). Podobně mohou být na základě identity uživatele řízeny i přístupy k datům a aplikacím dle jejich klasifikace.
Pod pojem distribuovaný systém/řešení je možné vtáhnout cokoliv. Ve smyslu směrování designu datových center je to několik vzájemně propojených cest. První je model "logického DC", představující propojení vlastního DC a Public Cloud, ve kterém jsou služby instalovány a dále konzumovány podle parametrů prostředí nastavených jednotlivými aplikacemi a službami. O určení vhodného zdroje bude rozhodnuto definicí výkonnostních parametrů a požadavků na garanci služeb, zahrnutého do blueprintu aplikace/prostředí. Volbu si provede uživatel, typicky vývojář aplikace, vlastník projektu, pomocí webového portálu, workflow i API. Realizátorem požadavku pak bude automatizační nástroj napojený na dostupné systémové zdroje.
Druhá cesta představuje již zmíněnou hyperkonvergenci, tedy distribuci výkonu diskového pole napříč celou sestavou a vyrovnání se výkonovými nároky aplikací na I/O operace a datovou propustnost pole. Parametry pro omezení/garanci IOPS, jako i faktoru ochrany instalovaného virtuálního serveru budou zapsány ve Storage profilu.
Poslední cesta distribuovaného modelu má více důvodů, tím hlavním je významná změna datových toků ze směru "Sever – Jih" na "Východ – Západ", která činí více jak polovinu provozu. Velký význam zde hraje serverová virtualizace a "end-2-end" šifrování. Z tohoto důvodu musí být bezpečnost vtažena do prostředí hypervisoru a postavena mezi jednotlivé virtuální servery. Ve stejném světle je zde i rozvažování zátěže mezi jednotlivé aplikační/databázové servery. Instalace softwarových verzí NG firewallů a balancerů na jednotlivé hosty sestavy dokáže efektivně pokrýt komunikaci "VM-2-VM" běžících na stejném fyzickém hostu, a tak optimalizovat datový tok, který by pak musel být nasměrován na centrální/zónovou NGFW sestavu.
Ze střednědobého hlediska, budou trvalý nedostatek odborníků, vyšší míra podílu komunikace IoT zařízeními do DC a využívání servisně orientovaných „Edge-Public“ cloudů neodvratitelným hybatelem změn v rámci designu datových center i jejich obsluhy. Je proto vhodné se na ně včas a řádně připravit.
Pavel Vomáčka, Senior Business Consultant společnosti Anect
Datová centra se dále proměňují a podle některých odborníků právě dospěla k dalšímu milníku designové změny. Ta zahrnuje využívání servisně...