Budoucnost IT infrastruktury a cloudu
Kvantové počítače jsou pořád ještě sci-fi, AI musíme mít hlavně čím napájet a chladit
Budoucnost IT infrastruktury a cloudu se i nadále řídí vizí exponenciálního růstu, jak popsal fyzik Gordon Moore – podle něj se výkon výpočetních systémů zhruba každé dva roky zdvojnásobí. Tato dynamika však s sebou přináší další výzvy – rostoucí náročnost na energii a ekonomickou udržitelnost provozu. AI a další technologie sice pozvolna mění společnost, v pozadí ale zůstává pragmatický pohled firem řešících každodenní byznys. Jakým směrem se vývoj nyní ubírá? Jak se vyvinou cloudové služby? A jsou kvantové počítače věcí blízké budoucnosti?
Pokračující trend je neustálé zvyšování hustoty koncentrace výkonu. Na co byl dřív potřeba celý rack, na to dnes stačí jeden server. Ruku v ruce s tím jde i snižování spotřeby AI čipů. Dříve se AI trénovala (a někde jistě stále trénuje) na grafických kartách, kde se využívají optimalizované algoritmy. Teď postupně vznikají nové a nové specializované AI čipy s vyšším výkonem a nižší spotřebou. Trend je v tomto směru jasný – stejně jako se již netěží kryptoměny na grafických kartách, ale vyrábějí se pro tento účel specializované čipy.
Navzdory pokračujícímu boomu AI zatím musím konstatovat, že neumíme najít ten správný use case pro využití AI přímo u nás v datacentru. Potřebujeme totiž absolutně přesný výsledek. Samozřejmě ale stále pracujeme na standardizaci, automatizaci, robotizaci, tedy pokračujeme v aktivitách, které přinášejí úspory z objemu, ze škály. Do budoucna ale očekávám vyšší specializaci LLM na konkrétní úkoly. Vzniknou expertní modely, které budou vědět všechno o konkrétních problémech nebo programovacím jazyce.
Nyní je přesnost u současných modelů odhadem na 80 %. Navíc tím, jak modely budou menší, tak je bude možné provozovat on-premise. Firma si buď může koupit specializované zařízení pro konkrétní účel, nebo je pro domácí účely bude moci rozběhnout nadšenec na RTX grafice z Alzy. A nejspíš se dočkáme i AI optimalizované pro mobilní telefony. Vývoj univerzálního modelu, který by zvládal všechny úkoly, zůstane technologicky i ekonomicky extrémně náročný a pravděpodobně nepraktický. V Česku se vývoji vlastních modelů věnují jednotky firem. Neočekávám proto, že by se kvůli nim měnila datová centra. To ovšem neznamená, že neporostou nároky na datová centra v jiných oblastech.
Moderní datacentra? Hlavně to uchladit…
Na trhu se objevují stále nové servery, které podporují AI. Ty měly dříve spotřebu 200 W, dnes je to 2 kW a v racku jich je 22 – což je desetinásobek toho, co bylo před čtyřmi lety. Pro představu, se dvěma racky nyní lze vytopit panelák. A očekávám, že jeden rack plný AI čipů bude mít spotřebu třeba 80 kW. Znamená to jediné. Vznikne tu urgentní požadavek na napájení a chlazení datacenter. Energetické nároky, zejména v létě, představují ekonomicky velmi náročnou výzvu. Očekávám, že nastane éra chlazení kapalinami. I my již počítáme, jaké by změna přinesla výsledky, jaké by byly energetické úspory. A že v nejbližších třech letech bude tato technologie v hledáčku poskytovatelů.
Udržitelnost jde přitom v současné situaci do pozadí a dopad na provoz datacenter jako takových je v podstatě minimální. Už jenom proto, že mají příkon v řádech megawatů, se jejich uhlíková stopa odvíjí od čistoty napájení, respektive zdrojů. Ale mění se ekonomika provozu. Firmy vybírají datacentrum podle dostupnosti, lokace, renomé. Hlavní kritérium je cena energie. Ultimátní zájem datacenter je, aby byl provoz levný (PUE). Dnes to jsou statisíce měsíčně za provoz, z toho 70–80 % tvoří spotřeba energie. A ta musí být co nejlevnější a nejspolehlivější. I proto se bude řešit hlavně uchování energie z obnovitelných zdrojů, do akumulátorů, přečerpávaček, nebo klidně i do elektroaut. Ve hře je stále výroba vodíku.
Vládnout bude automatizace a standardizace
Pro hostingové služby bude klíčová automatizace a standardizace – zákazník si díky tomu může vše nastavit na jedno kliknutí. Případně můžeme jako poskytovatel vypínat a zapínat služby jako monitoring, log management, systémy pro sběr dat a logů z infrastruktury apod. Doposud to fungovalo tak, že firmy zaznamenávaly logy lokálně a nikdo nevěděl, co se dělo několik dní zpátky. S příchodem NIS2 firmy nyní řeší potřebu je sbírat a vyhodnocovat v reálném čase. My pak umíme tyto systémy automatizovaně nasazovat – co dříve dělal celý tým v řádu dnů či týdnů, dokážeme zprovoznit během pár hodin a přinést první výstupy.
Další jistotou je stále se prohlubující specializace. A to nejen na základní cloudové služby, jako je hosting, ale také na pokročilé služby nad nimi. Mezi hlavní oblasti patří servery pro SAP HANA, databáze Microsoft SQL, tuning výkonnosti kybernetických systémů, vysoká dostupnost e-commerce systémů a kybernetická bezpečnost. U poslední zmíněné služby bych se trochu pozastavil, neboť standardy na trhu jsou nastavené velmi nízko. Nikdo z velkých poskytovatelů vám například neposkytne garanci, že v případě útoku ransomware nepřijdete o více než 24 hodin dat.
Ransomware a kyberútoky jsou tak trochu jako chřipka; tak nějak každý počítá s tím, že ji časem dostane. Firmy si na to budou zvykat a přijímat adekvátní opatření, zejména je třeba zajistit kvalitní zálohy, nastavit efektivní procesy obnovy dat a mít partnera, kterého mohou kontaktovat v případě selhání systému. Tento přístup vede ke komoditizaci bezpečnosti, kdy se bezpečnostní opatření stávají běžnou součástí firemních strategií. Navíc se tyto hrozby přesunou i do cloudu, neboť řada firem do něj přesunula staré systémy s týmiž zranitelnostmi. A to se začne časem projevovat. V následujících dvou až třech letech se proto očekává masové rozšíření dvoufaktorového ověřování na většinu aplikací a systémů. Tento trend začal u bankovních systémů a postupně se rozšiřuje na e-mailové služby a další firemní aplikace. V tomto duchu se očekává rozšíření biometrického ověřování a širší využití potvrzování prostřednictvím mobilních zařízení. Firmy budou pokračovat ve směru nastoleném bankovním sektorem a postupně přejdou k podobně robustní správě identit.
Co bude dál?
V nadcházejících letech lze očekávat široký rozvoj hybridních cloudů a multicloudu. Firmy budou zvažovat, co provozovat on-premise, co v privátním a co ve veřejném cloudu. Nepřijde tedy žádná dramatická změna, ale spíš postupný vývoj. Technologie Infrastructure as Code (IaaC) je již dnes standard a zůstává klíčovým nástrojem pro správu moderních cloudových infrastruktur.
Firmy již dávno nechtějí stavět infrastrukturu od začátku, potřebují místo, kde mohou co nejsnáze provozovat své aplikace. V současnosti vidím dva jevy: firmy, které v cloudu nejsou, o přechodu přemýšlejí. A naopak firmy, které na cloudu vyrostly, zvažují návrat do on-premise. Ve výsledku se potkávají někde mezi, nechtějí již přecházet výhradně do velkých cloudů, ale začínají provozovat hybridní cloud nebo multicloud. Zároveň hledají partnera, který poskytne českou podporu a provozuje lokální datacentrum. Firmy vyžadují flexibilitu a rychlou odezvu.
Z pohledu hardwaru se určitě dočkáme řady novinek. Nedávno například AMD vydalo nové procesory, které nabízejí zhruba o 30 % výkonu navíc. Od března má přijít na trh PCIe 5.0 SSD, která přinese zdvojnásobení výkonu. A to jsme ještě nenarazili na fyzikální strop. Z tohoto pohledu bych ještě zmínil kvantové počítače – ty jsou zatím spíše sci-fi než věc pro běžné použití, i tak ale vývoj nadšeně sleduji a určitě chci být mezi prvními, kdo si to vyzkouší.
![]() |
Václav Svátek Autor článku je generálním ředitelem společnosti ČMIS. |