Verteilte Architekturen: Wie Fog und Edge Computing in Ihre Cloud- und Colo-Strategie passen
19. September 2019
Da die Zahl der IoT-Geräte weiter zunimmt – um genau zu sein bis 2025 voraussichtlich 75 Milliarden –, steigen auch die Datenanforderungen. Cisco schätzt, dass IoT bis Ende 2019 mehr als 500 Zettabyte pro Jahr an Daten erzeugen wird. Um eine Umgebung zu schaffen, in der IoT-Geräte und -Anwendungen nahtlos miteinander und mit ihren Endbenutzern verbunden sind, sind ausreichende Rechen- und Speicherressourcen erforderlich Führen Sie erweiterte Analysen und maschinelles Lernen durch, wozu die Cloud in der Lage ist.
Allerdings sind Cloud-Server oft zu weit von den IoT-Endpunkten entfernt, um zeitkritische Daten schnell und effektiv über große Entfernungen an und von Milliarden von „Dingen“ übertragen zu können. Und in Szenarien wie Chirurgen, die robotergestützte chirurgische Geräte zur Operation verwenden, oder selbstfahrenden Autos, die auf „intelligente“ Ampeln angewiesen sind – was mit 5G auf dem besten Weg ist, sehr bald Realität zu werden – wird herkömmliches Cloud-Computing allein nicht ausreichen, da höhere Latenzen einfach keine Option sind.
Hier kommen Edge- und Fog-Computing ins Spiel.
Was ist Edge Computing?
Um Fog Computing zu verstehen, müssen wir zunächst verstehen, was Edge Computing ist. Edge Computing – allgemein einfach als „Edge“ bezeichnet – ermöglicht die Verarbeitung von Daten näher an ihrem Ursprung, was die Netzwerklatenz erheblich reduzieren kann. Durch die physische Verlagerung der Verarbeitung näher an die Datenquelle (z. B. bei IoT-Geräten) müssen die Daten weniger weit überwunden werden, was die Geschwindigkeit und Leistung von Geräten und Anwendungen verbessert. Es gibt jedoch Einschränkungen bei Dingen wie Echtzeitanalyse und maschinellem Lernen, die mit Fog Computing erreicht werden können.
Was ist Fog Computing?
Fog Computing – auch bekannt als Fog Networking oder „Fogging“ – ist ein Begriff, der 2014 von Cisco geschaffen wurde, um eine dezentrale Computerarchitektur zu bezeichnen, die als Erweiterung des Cloud Computing fungiert. Die Speicherung und Verarbeitung von Daten erfolgt auf die logischste und effizienteste Weise zwischen der Cloud und der Datenquelle. Fog Computing wird als ergänzende Strategie dafür angesehen, wie Edge Computing effektiv implementiert werden kann und gleichzeitig die Rechen-, Netzwerk- und Speicherkapazitäten der Cloud bereitstellt. Es wird geschätzt, dass der Umsatz des Fog-Computing-Marktes zwischen 2019 und 2026 um 55 % steigen wird.
Fog Computing vs. Edge Computing
Edge- und Fog-Computing werden häufig synonym verwendet. Edge Computing ist ein allgegenwärtigerer Begriff und umfasst oft die Konzepte hinter Fog Computing als eine zusammenhängende Strategie. Aber in seiner Aufschlüsselung wurde Fog Computing entwickelt, um Edge-Strategien zu begleiten und als zusätzliche Architekturebene zu dienen, um erweiterte Verarbeitungsfähigkeiten bereitzustellen, die der Edge allein nicht immer leisten kann.
Nebel kann ohne Edge Computing nicht existieren, während die Kante ohne Nebel existieren kann.
Es gibt viele Ähnlichkeiten zwischen Fog Computing und Edge Computing, z. B. dass beide die Verarbeitung näher an die Datenquelle bringen. Der Hauptunterschied zwischen beiden besteht jedoch darin, wo die Verarbeitung stattfindet.
Beim Fog Computing wird die Intelligenz auf die Ebene des lokalen Netzwerks (LAN) der Netzwerkarchitektur verlagert. Die Datenverarbeitung erfolgt in einem IoT-Gateway oder Fog-Knoten.
Beim Edge Computing wird Intelligenz direkt in Geräte wie programmierbare Automatisierungscontroller (PACs) übertragen.
Daher sind in Fog vs. the Edge fortgeschrittenere Verarbeitungs-, Analyse- und maschinelles Lernniveaus möglich.
Fog Computing vs. Cloud Computing
Während Fog Computing viele der gleichen Vorteile wie die Cloud bietet, weist die Cloud Einschränkungen auf, z. B. weil sie zentralisiert ist und sich weiter von der Datenquelle entfernt befindet, wodurch die Latenz zunimmt und die Bandbreite begrenzt wird. Es ist nicht immer praktikabel, große Datenmengen vollständig in die Cloud und wieder zurück zu übertragen, insbesondere in Szenarien, in denen eine Verarbeitung und Speicherung im Cloud-Maßstab nicht erforderlich ist.
Wolke | Nebel |
Zentralisiert | Dezentral |
Höhere Latenz | Geringe Wartezeit |
Begrenzte Mobilität | Unterstützte Mobilität |
Fog Computing eignet sich hervorragend für fortgeschrittenere, aber kurzfristige Analysen am Edge, wodurch Cloud-Ressourcen für Aufgaben im Zusammenhang mit umfangreicheren Datensätzen frei werden.
Es ist wichtig zu beachten, dass Fog und Edge Computing nicht dazu gedacht sind, zentralisiertes Cloud Computing zu ersetzen, sondern vielmehr in einer zusammenhängenden IT-Strategie nebeneinander existieren.
Während Fog Computing viele der gleichen Vorteile wie die Cloud bietet, weist die Cloud Einschränkungen auf, z. B. weil sie zentralisiert ist und sich weiter von der Datenquelle entfernt befindet, wodurch die Latenz zunimmt und die Bandbreite begrenzt wird. Es ist nicht immer praktikabel, große Datenmengen vollständig in die Cloud und wieder zurück zu übertragen, insbesondere in Szenarien, in denen eine Verarbeitung und Speicherung im Cloud-Maßstab nicht erforderlich ist.
Fog Computing eignet sich hervorragend für fortgeschrittenere, aber kurzfristige Analysen am Edge, wodurch Cloud-Ressourcen für Aufgaben im Zusammenhang mit umfangreicheren Datensätzen frei werden.
Es ist wichtig zu beachten, dass Fog und Edge Computing nicht dazu gedacht sind, zentralisiertes Cloud Computing zu ersetzen, sondern vielmehr in einer zusammenhängenden IT-Strategie nebeneinander existieren.
Warum heißt es Fog Computing?
Nebel ist als Wetterbegriff eine Wolke, die sich nahe der Erdoberfläche oder dem Boden befindet. Fog Computing ruft das gleiche Bild hervor, da es sich nahe am Rand des Netzwerks und der Endpunkte befindet und Cloud-ähnliche Funktionen bietet, ohne selbst eine Cloud zu sein.
Wie funktioniert Fog Computing?
Nebelknoten steigen verteilt von der Wolke bis zum Rand ab. Die Daten werden dann von den Endpunkten an ein Gateway übertragen und dann zur Verarbeitung an die ursprünglichen Quellen zurückgesendet.
Colocation ergänzt das Edge- und Fog-Computing
Digitale Transformation bedeutet für jedes Unternehmen etwas anderes. Die Bewältigung dieser neuen Transformationsherausforderungen zwingt Unternehmen dazu, neue architektonische Paradigmen in Einklang zu bringen. Beispielsweise erweist sich eine stark zentralisierte Architektur häufig als problematisch, da Sie weniger Kontrolle darüber haben, wie Sie eine Verbindung zu Ihren Netzwerkdienstanbietern und Endbenutzern herstellen, was letztendlich zu Ineffizienzen in Ihrer IT-Strategie führt. Doch gleichzeitig könnte die ausschließliche Nutzung kleiner „Near-Edge“ -Rechenzentren teuer werden, Kapazitäts- und Verarbeitungslasten einschränken und möglicherweise zu Einschränkungen bei der Bandbreite führen.
Ein zentrales Multi-Tenant-Rechenzentrum ist eine Komponente einer besser verteilten Architektur. Es kann hilfreich sein, Ihre IT-Infrastruktur in Schichten zu betrachten. Die erste Schicht besteht aus Ihrem Unternehmenskern, in dem Dinge wie Ihr geistiges Eigentum, High-Density-Computing und maschinelles Lernen leben können. Von dort aus können Sie weitere Ebenen wie Cloud-Computing-Dienste, verteilte Colocation an mehreren Standorten und 5G-Aggregation als Teil Ihrer Edge-Delivery-Plattform hinzufügen.
Durch eine mehrstufige verteilte Architektur erhalten Sie die Kontrolle über das Hinzufügen von Kapazität, Netzwerk, Rechenleistung und Speicher sowie über die Verkürzung der Entfernungen zwischen Ihren Workloads und Endbenutzern, was letztendlich die Leistung steigert und einen verbesserten Datenaustausch fördert.