Gordon Haff, technologický evangelista ve společnosti Red Hat, se s dalšími odborníky společnosti zaměřil na šest hlavních otázek ze světa edge computingu, kterým podle něj budou muset šéfové IT porozumět a řešit je.
Haff v první řadě podotýká, že ačkoli řada aspektů edge computingu není nových, jeho celkový obraz se stále rychle vyvíjí. Výraz „edge computing“ zahrnuje například i distribuované systémy poboček maloobchodních prodejen, které existují již desítky let.
Tento termín podle něj pohltil také nejrůznější lokální výpočetní systémy v továrnách a u poskytovatelů telekomunikačních služeb, i když v propojenější a méně proprietární podobě, než bylo v minulosti obvyklé.
1) Zatížení okrajů sítě se zvyšuje
Jednou z velkých změn, které lze podle Haffa pozorovat, je, že se na okrajích sítí nachází stále více výpočetní techniky a úložišť.
Decentralizované systémy často existovaly spíše proto, aby snížily závislost na síťových linkách, než aby prováděly úlohy, které by prakticky nemohly být řešeny v centrální lokalitě za předpokladu přiměřeně spolehlivé komunikace. To se však podle něj mění.
Internet věcí téměř už ze své definice vždy zahrnoval přinejmenším sběr dat. Avšak to, co podle Haffa mohlo být pramínkem, se nyní změnilo v záplavu, protože data potřebná pro aplikace strojového učení přicházejí z velkého množství senzorů.
Ale i když se tréninkové modely často vyvíjejí v centralizovaném datovém centru, průběžná aplikace těchto modelů se obvykle přesouvá na okraj sítě. To omezuje nároky na šířku pásma sítě a umožňuje rychlou lokální akci. Cílem je poskytovat přehled a přijímat opatření v okamžiku, kdy jsou potřeba.
2) Prosazuje se RISC-V
Úlohy, které jsou náročné jak na data, tak na výpočetní výkon, podle Haffa samozřejmě potřebují hardware, na kterém mohou běžet. Specifika se liší v závislosti na aplikaci a požadovaných kompromisech mezi výkonem, spotřebou, náklady atd.
Běžně přitom obvykle vybíráme buď z řešení na míru, nebo ze zařízení s architekturou ARM či x86. Žádné z takových řešení není plně otevřené, ačkoli u architektur ARM a x86 se postupem času vytvořil rozsáhlý ekosystém podpůrného hardwaru a softwaru.
Haff v tomto kontextu poukazuje na RISC-V, což je otevřená architektura instrukční sady, založená na hardwaru. Podle Yana Fishera z Red Hatu je zajímavá zejména tím, že proces jejího návrhu i specifikace jsou skutečně otevřené.
3) vRAN je stále důležitější
Red Hat dále uvádí, že nasazení řešení virtuální rádiové přístupové sítě (vRAN)/Open RAN (oRAN) přináší ve srovnání s tradičními distribuovanými/centralizovanými konfiguracemi RAN až 44% úsporu nákladů na vlastnictví sítě.
Prostřednictvím této modernizace mohou poskytovatelé komunikačních služeb (CSP) podle odborníků zjednodušit provoz sítě a zvýšit flexibilitu, dostupnost i efektivitu – to vše při obsluze stále většího množství nasazení.
Nativně cloudová a na kontejnerech založená řešení RAN dle Red Hatu přinášejí nižší náklady, snadnější modernizaci a úpravy, možnost horizontálního škálování a menší vázanost na dodavatele než proprietární řešení nebo řešení založená na virtuálních počítačích.
4) Škálování je hnací silou provozních přístupů
Gordon Haff dále uvádí, že mnoho aspektů architektury edge computingu se může lišit od architektury implementované výhradně za zdmi datového centra. Zařízení a počítače mohou mít slabé fyzické zabezpečení a na místě nemusí být žádný IT personál.
Síťové připojení podle něj může být nespolehlivé. Dobrá šířka pásma a nízké latence nejsou samozřejmostí. Mnohé z nejpalčivějších problémů však souvisejí s rozsahem – koncových bodů sítě totiž mohou být tisíce (nebo i více).
Red Hat v tomto kontextu doporučuje například provádět transakční, tedy tzv. atomické aktualizace, aby se nemohlo stát, že systém skončí aktualizovaný jen částečně, a tedy v chybně definovaném stavu.
Při aktualizacích je podle ní také vhodné, aby koncové body aktualizace stahovaly, protože „je pravděpodobnější, že bude k dispozici výstupní konektivita“. Je třeba také dbát na omezení špičkového zatížení tím, že se všechny aktualizace nebudou provádět současně.
5) Edge computing potřebuje atestaci
Ben Fischer z Red Hatu v tomto kontextu doporučuje, že by odborníci měli zvážit široké nasazení technologií, které ve velkém měřítku dokáží ověřit, že se výpočetní zařízení spouštějí a zůstávají v důvěryhodném provozním stavu, zejména v prostředích s omezenými zdroji.
Atestace spouštění a běhu je prostředkem k ověření, zda se zařízení na okraji sítě spouští do známého důvěryhodného stavu a zda si tento stav udržuje i za běhu.
Jinými slovy, pokud by došlo k něčemu neočekávanému, například ke spuštění podvodného procesu, očekávaný stav by se změnil, což by se projevilo v měření a vyřadilo by to zařízení z provozu, protože by se dostalo do nedůvěryhodného stavu.
6) Na okrajích sítě nabývají významu důvěryhodné výpočetní operace
Red Hat v neposlední řadě upozorňuje, že zabezpečení na okrajích sítě vyžaduje zásadní přípravu. Dostupnost zdrojů, jako je síťové připojení, elektřina, personál, vybavení a funkce, se značně liší, ale je mnohem menší než v datovém centru. Tyto omezené zdroje dle odborníků limitují možnosti zajištění dostupnosti a zabezpečení.
Kromě šifrování místního úložiště a připojení k centralizovanějším systémům nabízejí důvěrné výpočetní operace (confidental computing) možnost šifrovat data v době, kdy jsou používána zařízeními edge computingu. To chrání jak zpracovávaná data, tak software, který data zpracovává, před odposlechem nebo manipulací.
Zdroj: Red Hat
Nové články do mailu
Chcete mít každý týden přehled o informacích pro resellery, dodavatele služeb a profesionály v prodejním kanále IT a CE? Objednejte si náš mailový servis. Objednat si lze i newsletter To hlavní, páteční souhrn nejdůležitějších článků ze serverů vydavatelství Internet Info.