Datová centra se díky rychlému nástupu virtualizace a technologií cloud computingu obecně zásadně mění – a zásadně se mění rovněž požadavky na jednotlivé součásti jejich infrastruktury. Významné dopady mají tyto změny i na síťovou infrastrukturu a na systémy pro ukládání dat.
Virtualizace mimo jiné umožňuje výrazně zvýšit hustotu výpočetních systémů, což s sebou nutně nese růst nároků na šířku přenosového pásma použitých síťových prvků. Z toho pak vyplývá rostoucí motivace implementovat technologie, jako je 10Gb Ethernet, a pro blízkou budoucnost lze očekávat rostoucí poptávku po 40Gb Ethernetu, který bude zřejmě pro mnohá využití cenově zajímavější, než další technologie v řadě, Ethernet 100Gb.
Výjimkou dnes nejsou desítky, ba ani stovky virtuálních strojů na jednom serveru. Tomu pak odpovídají i nároky na použité síťové prvky. Pokud je v cloudovém prostředí zvykem budovat sítě s plochou architekturou na L2 (OSI), pak je třeba počítat i s přepínacími tabulkami obsahujícími desítky, ba stovky tisíc záznamů. A podobně se zvyšují nároky na směrovací tabulky v L3 (OSI).
Masivní využití virtualizace serverů klade vyšší nároky nejen na síťové prvky, ale také na systémy pro ukládání dat.Síťovou infrastrukturu již nelze chápat jako prosté propojení uživatelů, serverů a systémů pro ukládání dat, ale jako integrovanou inteligentní platformu schopnou nejen zajistit komunikaci mezi jednotlivými prvky infrastruktury – včetně virtuálních serverů –, ale rovněž vyrovnat se například s mobilitou virtuálních serverů mezi fyzickými severy nebo se zvýšenými požadavky na izolaci dat v prostředích, kde je jedna infrastruktura slouží více subjektům.
Virtuální prostředí znamená pro provoz sítí překážku i při snaze o jednotnou správu; je třeba počítat s tím, že různé hypervisory disponují vlastní implementací virtuálních přepínačů a vlastními nástroji pro správu, odlišnými od ostatních. V každém případě ale přibývá jedna nová vrstva správy – a současně vyvstává nutnost zajistit synchronizaci nastavení síťových prostředků s virtuálními servery, aby bylo možné zajistit plnění odpovídajících SLA a zajistit dostatečnou bezpečnost.
Pokusem o řešení problému roztříštěnosti a bezpečnosti ve virtualizovaných prostředích je třeba projekt Open vSwitch, virtuální síťový přepínač navržený speciálně pro taková prostředí. Jeho autoři vyzdvihují schopnost řešit problematiku potřebné izolace prostředí různých uživatelů, mobilitu napříč podsítěmi nebo distribuci konfigurace mezi hostitelskými systémy. Open vSwitch je k dispozici jako open source pod licencí Apache.
Lze ovšem konstatovat, že všichni hlavní výrobci síťových produktů pro podnikovou sféru dnes nabízejí svá řešení podporující virtualizovaná prostředí. Vzhledem k poměrně prudkému vývoji v uvedené oblasti bude ale ještě zřejmě poměrně dlouho trvat, než bude možno situaci označit za stabilizovanou.
Jak už bylo zmíněno výše, s výrazně vyššími nároky na infrastrukturu se uživatelé potýkají nejen v případě sítí, ale také u úložných systémů. Stejně jako v případě sítí i zde platí, že nedostatečně dimenzovaná infrastruktura storage může podkopat výhody virtualizace – snížením výkonu i spolehlivosti celého IT prostředí.
Kromě nároků na storage vyplývající ze samotné podstaty virtualizované infrastruktury – tedy z nároků, jež lze očekávat v prostředí s vysokou hustotou serverů – situaci dále komplikuje prostý fakt, že neustále strmě roste objem ukládaných dat. Například podle analytiků společnosti Gartner lze mezi lety 2012 a 2015 očekávat 50% roční růst nároků na objem uložených dat.
V této souvislosti se často mluví o dvou možných přístupech ke škálování úložných zařízení: „tradičním“ scale-up a „novém“ scale-out. Zatímco při scale-up jsou využity stávající kontrolery a do systému jsou přidávány disky a disková pole, při scale-out je každé diskové pole vybaveno svým kontrolerem. V prvním případě tedy s rostoucím objemem úložné kapacity nedochází k odpovídajícímu růstu výkonu, ve druhém – v optimálním případě – ano. Podmínkou samozřejmě je, aby při scale-out přístupu byly dostupné všechny potřebné prostředky – tedy jak kapacita pro řízení, tak cache a síťové propojení. Podstatnou vlastností scale-out přístupu je, že se i navzdory přidaným prvkům stále tváří jako jeden systém.
I u storage platí, že se optimální systém chová jako mrak zdrojů: Jestliže u výpočetního prostředí jde o cloud, jenž poskytuje (ideálně) neomezený výpočetní výkon na vyžádání, a to bez nutnosti sledovat, jak je fyzicky zajištěn, u prostředí pro ukládání dat jde o (ideálně) neomezenou kapacitu, již je možné využívat dle aktuálních potřeb – rovněž bez sledování vazeb na fyzickou infrastrukturu.
V reálném světě by platformy pro ukládání dat využívající přístup scale-out v optimálním případě měly nabídnout vysokou škálovatelnost (kapacity v řádech exabajtů), spolehlivost, nezávislost na komunikačním protokolu, snadnou spravovatelnost i cenovou efektivitu. Díky těmto vlastnostem by pak měly odpovídajícím způsobem sekundovat zbytku virtulizovaného prostředí datového centra. I zde ovšem platí, že uvedené technologie procházejí rychlým vývojem a situace na trhu se bude ještě po nějakou dobu výrazně měnit.
Jakmile se začne mluvit o trendech v oblasti datových center, každého zřejmě okamžitě napadnou termíny jako virtualizace, cloud computing, outsourcing...