Was ist Edge Computing? – das Industry of Things einfach erklärt

Edge Computing ist ein verteiltes Computing-Paradigma, das Rechenleistung, Speicher und Anwendungen näher an den Ort bringt, an dem Nutzer, Einrichtungen und vernetzte Dinge Daten generieren, konsumieren und nutzen.

Schnellere Netzwerktechnologien, wie z.B. 5G, WiFi 6, ermöglichen es Edge-Computing-Systemen, die Erstellung oder Unterstützung von Echtzeitanwendungen zu beschleunigen. Wie z.B. Videoverarbeitung und Analytik, selbst fahrende Autos, künstliche Intelligenz und Robotik, um nur einige zu nennen.

Während die frühen Ziele des Edge Computing darin bestanden, die Kosten für die Bandbreite der Daten, zu reduzieren, wird der Anstieg der Echtzeitanwendungen, die eine Verarbeitung am Edge benötigen, die Technologie vorantreiben.

Was ist Edge Computing?

Edge Computing bringt Berechnungen und Datenspeicherung näher an die Geräte, auf denen sie gesammelt werden, anstatt sich auf einen zentralen Standort zu transportieren. Dies geschieht, damit Daten und insbesondere Echtzeitdaten nicht unter Latenzproblemen leiden. Darüber hinaus können Unternehmen Geld sparen, indem sie die Verarbeitung lokal durchführen lassen und so die Datenmenge reduzieren, die sonst an einem zentralen oder cloudbasierten Standort verarbeitet werden muss.

Edge Computing wurde aufgrund des exponentiellen Wachstums von IoT-Geräten entwickelt, die sich mit dem Internet verbinden, um entweder Informationen aus der Cloud zu empfangen oder Daten zurück in die Cloud zu liefern. Denn viele IoT-Geräte erzeugen im Laufe ihres Betriebs enorme Datenmengen.

Denke an Geräte, die Produktionsanlagen in einer Fabrikhalle überwachen, oder eine mit dem Internet verbundene Videokamera, die Live-Bilder aus einem entfernten Büro sendet. Während ein einzelnes Gerät, das Daten produziert, diese recht einfach über ein Netzwerk übertragen kann, entstehen Probleme, wenn die Anzahl der Geräte, die gleichzeitig Daten übertragen, wächst.

Nicht nur, dass die Qualität aufgrund der Latenz leidet, auch die Kosten für die Bandbreite können enorm sein. Edge-Computing-Hardware und Dienste helfen dabei, dieses Problem zu lösen. Indem sie eine lokale Quelle der Verarbeitung und Speicherung für viele dieser Systeme darstellen.

Ein Edge-Gateway kann zum Beispiel Daten von einem Edge-Gerät verarbeiten und dann nur die relevanten Daten über die Cloud zurücksenden, was den Bandbreitenbedarf reduziert. Oder es kann Daten zurück an das Edge-Gerät senden, wenn eine Echtzeitanwendung benötigt wird.

Diese Edge-Geräte können viele verschiedene Dinge sein, wie z.B. ein IoT-Sensor, das Notebook eines Mitarbeiters, sein neuestes Smartphone, die Sicherheitskamera oder sogar die internetfähige Mikrowelle im Pausenraum des Büros. Edge-Gateways selbst werden als Edge-Geräte innerhalb einer Edge-Computing-Infrastruktur betrachtet.

Warum ist Edge Computing wichtig?

Für viele Unternehmen können allein die Kosteneinsparungen ein Grund sein, eine Edge-Computing-Architektur zu implementieren. Unternehmen, die die Cloud für viele ihrer Anwendungen nutzen, haben vielleicht festgestellt, dass die Kosten für die Bandbreite höher waren als erwartet.

Der größte Vorteil von Edge Computing ist jedoch die Möglichkeit, Daten schneller zu verarbeiten und zu speichern, was effizientere Echtzeitanwendungen ermöglicht. Vor dem Edge Computing musste ein Smartphone, das das Gesicht einer Person zur Gesichtserkennung scannt, den Gesichtserkennungsalgorithmus über einen Cloud-basierten Dienst laufen lassen; was viel Zeit für die Verarbeitung benötigte.

Mit einem Edge-Computing-Modell könnte der Algorithmus lokal auf einem Edge-Server oder Gateway laufen, oder sogar auf dem Smartphone selbst, angesichts der zunehmenden Leistung von Smartphones. Anwendungen wie Virtual und Augmented Reality, selbstfahrende Autos, Smart Cities und sogar Gebäudeautomationssysteme erfordern eine schnelle Verarbeitung und Reaktion.

Mit der verbesserten Interkonnektivität, die einen verbesserten Edge-Zugang zu mehr Kernanwendungen ermöglicht, wird die Edge-Infrastruktur einer der wichtigsten Wachstumsmotoren im Server- und Speichermarkt für das nächste Jahrzehnt und darüber hinaus sein.

Viele Unternehmen haben den Bedarf an mehr Rechenleistung im Edge-Bereich erkannt, weshalb wir neue Systemmodule sehen, in die künstliche Intelligenz eingebaut sind. Das neueste Jetson Xavier NX Modul des Unternehmens NVIDIA ist zum Beispiel kleiner als eine Kreditkarte und kann in kleineren Geräten wie Drohnen, Robotern und medizinischen Geräten eingebaut werden.

KI-Algorithmen benötigen große Mengen an Rechenleistung, weshalb die meisten von ihnen über Cloud-Dienste laufen. Das Wachstum von KI-Chipsätzen, die die Verarbeitung am Edge übernehmen können, wird bessere Echtzeit-Reaktionen innerhalb von Anwendungen ermöglichen, die sofortige Rechenleistung benötigen.

Die Latenz an der Edge

Ein großer Treiber für Edge Computing ist die Geschwindigkeit. Wenn ein Computer A einen Computer B, der einen halben Globus entfernt ist, fragen muss, bevor er etwas tun kann, nimmt der Nutzer von Computer A diese Verzögerung als Latenz wahr.

Die kurzen Momente, nachdem du auf einen Link geklickt hast, bevor dein Webbrowser tatsächlich etwas anzeigt, sind zu einem großen Teil auf die Geschwindigkeit zurückzuführen.

Multiplayer-Videospiele implementieren zahlreiche ausgeklügelte Techniken. Um die tatsächliche und wahrgenommene Verzögerung z.B. zwischen dem Schießen auf jemanden und der Gewissheit, dass du ihn verfehlt hast, zu verringern.

Daher sollte die jüngste Information, dass Amazon an eigenen KI-Chips für Alexa arbeitet, keine Überraschung sein. Je mehr Verarbeitung Amazon auf deinem lokalen Echo-Gerät durchführen kann, desto weniger muss sich dein Echo auf die Cloud verlassen.

Das bedeutet, dass du schnellere Antworten bekommst. Amazons Serverkosten sind geringer und es ist denkbar, dass du am Ende mehr Privatsphäre hast, wenn genug von der Arbeit lokal erledigt wird.

Privatsphäre und Sicherheit in der Edge

Es mag seltsam sein, so darüber zu denken, aber die Sicherheits- und Datenschutzfunktionen eines iPhones sind ein Beispiel für Edge Computing. Allein durch die Verschlüsselung und die Speicherung biometrischer Daten auf dem Gerät, verlagert Apple eine Menge Sicherheitsprobleme von der zentralisierten Cloud auf die Geräte der Nutzer in der Ferne.

Aber der andere Grund, warum sich das für mich wie Edge Computing und nicht wie Personal Computing anfühlt, ist, dass die Rechenarbeit zwar verteilt ist, aber die Definition der Rechenarbeit zentral verwaltet wird. Du müsstest nicht die Hardware, Software und die besten Sicherheitspraktiken zusammenschustern, um dein iPhone abzusichern.

Der Management-Aspekt von Edge Computing ist enorm wichtig für die Sicherheit. Denke daran, wie viel Zeit und Aufregung Menschen bereits mit schlecht verwalteten Internet of Things Geräten erfahren haben.

Deshalb arbeitet Microsoft an Azure Sphere, das ein verwaltetes Linux OS, einen zertifizierten Mikrocontroller und einen Cloud Service beinhaltet. Die Idee ist, dass dein Toaster genauso schwer zu hacken sein soll und genauso zentral aktualisiert und verwaltet wird, wie deine Xbox.

Ich habe keine Ahnung, ob die Industrie spezifische Lösung für das IoT-Sicherheitsproblem annehmen wird. Aber es scheint eine einfache Vermutung zu sein, dass die meiste Hardware, die du in ein paar Jahren kaufst, ihre Software automatisch aktualisiert und die Sicherheit zentral verwaltet werden wird.

Wo ist die Edge?

Nun, diese Frage ist nicht so einfach zu beantworten. Es hängt davon ab, wen du frägst, aber auch von der Art der Anwendung und der Umgebung. Bei der industriellen Edge sind wir oft in Industrie-Gebieten, die auch weiter von (regionalen) Rechenzentren entfernt sind, mit vielen IoT Geräten im Einsatz (man denke nur an Öl und Gas, zum Beispiel).

Außerdem, was genau definierst du als Teil der Edge? Im Fast-Food-Restaurant, bei dem eine Cloud-Anwendung zur Fernüberwachung der verschiedenen IT-Edge-Systeme in allen Restaurants genutzt wird, könnte man sagen, dass alles am Edge ist – dies bedeutet nahe am Verbraucher.

Ein Edge-Standort ist ein Rechnergehäuse, ein Raum oder eine Einrichtung die geografisch so verteilt ist, dass sie physisch näher am Ursprungspunkt der Daten oder einer Benutzerbasis ist. Mit anderen Worten, damit ein Edge existieren kann, muss es einen Hub oder einen Kern geben. Daher würde die Verteilung der Datenverarbeitung in die Peripherie als „Edge Computing“ gelten und das physische Gehäuse, der Raum oder die Einrichtung kann als „Edge-Einrichtung“ definiert werden.

Wenn du anfängst, tiefer zu graben und mehr ins Detail zu gehen, was die genauen Geräte angeht, zum Beispiel in der Öl- und Gasindustrie, kannst du dich in semantischen Details darüber verlieren, was genau Edge ist und was nicht.

Es ist also Zeit für Standards und Referenzarchitekturen. Auch hier ist eine Menge los, aber wieder mit mehreren Akteuren und Ansätzen. Habe ich schon gesagt, dass der Edge Computing Markt auf der Agenda vieler Anbieter steht?

Manchmal liest man auch, dass Edge Computing das Cloud Computing ersetzen wird. Das ist schlichtweg Unsinn, denn Edge Computing braucht unter anderem die Cloud, um eine „Domain“ zu haben, die man benötigt, wenn zum Beispiel Dinge verteilt werden.

Und es gibt einfach keinen Business Case, Edge Computing überall einzusetzen. Außerdem ist es nicht so, dass Edge Computing keine Herausforderungen mit sich bringt. Einige der angepriesenen Vorteile, zum Beispiel in Bezug auf die Sicherheit, sind gleichzeitig auch noch Themen auf anderen Ebenen, wie beispielsweise die Kompatibilitätsprobleme. Die Geschichte des Edge Computing ist also sicherlich noch nicht zu Ende. Besser gesagt, sie muss erst noch richtig beginnen.

Bringt 5G Vorteile beim Edge Computing?

Auf der ganzen Welt setzen Netzbetreiber 5G-Mobilfunktechnologien ein, die hohe Bandbreiten und niedrige Latenzzeiten für Anwendungen versprechen und es Unternehmen ermöglichen, mit ihrer Datenbandbreite von einem „Gartenschlauch“ zu einem „Feuerwehrschlauch“ zu werden.

Anstatt nur die schnelleren Geschwindigkeiten anzubieten und den Unternehmen zu sagen, dass sie die Daten weiterhin in der Cloud verarbeiten sollen, arbeiten viele Carrier ihre Edge Computing Strategien in ihre 5G-Implementierungen ein. Um eine schnellere Echtzeitverarbeitung anzubieten, insbesondere für mobile Geräte, vernetzte Autos und selbst fahrende Autos.

5G wird ein Katalysator für Edge-Compute-Technologie sein. Anwendungen, die die 5G-Technologie nutzen, werden die Verkehrsnachfragemuster verändern und den größten Treiber für Edge Computing in Mobilfunknetzen darstellen.

Es ist klar, dass, während das ursprüngliche Ziel des Edge Computing darin bestand, die Bandbreitenkosten für IoT-Geräte über große Entfernungen zu reduzieren, das Wachstum von Echtzeitanwendungen, die lokale Verarbeitungs- und Speicherkapazitäten benötigen, die Technologie in den kommenden Jahren vorantreiben wird.

Edge Computing in großen Organisationen

Obwohl es im Rahmen von industriellen Anwendungen und Industrie 4.0 viel Aktivität im Edge Computing Markt gibt, auch angesichts der Verbindung mit dem IIoT ist es wahrscheinlich, dass die Möglichkeiten des Edge Computing in den kommenden Jahren hauptsächlich auf spezifische Anwendungsfälle beschränkt sind.

IoT-Sensoren werden eine Unmenge an Daten generieren, die für die auf maschinellem Lernen basierende Automatisierung relevant sein werden. Viele dieser Technologien werden in der Cloud bereitgestellt und genutzt werden, wenn wir das Aufkommen von Edge Computing sehen.

In kommerziellen Anwendungen kann das Umdenken der IT-Architektur in einigen Fällen zu einer sofortigen Rendite führen. Und Vorteile bieten, die sich auf bereits bestehende geschäftliche Belange beziehen und Herausforderungen beinhalten. Die Vorteile des Edge Computing sind dabei nicht einmal strikt auf einen wirklichen Bedarf bezogen.

Industrie 4.0 und die industrielle Edge sind eine andere Sache. Sicherlich sind die Vorteile und Möglichkeiten da, ebenso wie die Initiativen. Vor allem in solchen Branchen, in denen schnelle Maßnahmen wichtige Unterschiede machen können und viele vernetzte Anlagen geografisch verstreut sind. Dennoch sind die Analysten geteilter Meinung und Umfragen zeigen ein gemischtes Bild.

Workloads werden zunehmend in die Cloud verlagert. Mit Edge Computing werden jedoch Workloads, Daten und Verarbeitungskapazitäten von der Cloud zum Edge verlagert. Cloud Computing und Edge Computing werden mit dem steigenden Bedarf an künstlicher Intelligenz zusammenwachsen, wobei der richtige Ansatz von der jeweiligen Anwendung abhängt.

Das Worst-Case Szenario

Ich habe einige Befürchtungen über Edge Computing, die möglicherweise unbegründet sind, also werde ich nicht komplett auf sie eingehen. Wenn die Geräte in deinem Haus und deiner Garage von Google, Amazon, Microsoft und Apple verwaltet werden, musst du dir keine Sorgen um die Sicherheit machen. Wirklich!?

Du musst dir keine Gedanken über Updates machen. Du musst dir keine Sorgen um die Funktionalität machen. Du nimmst einfach, was dir gegeben wird und nutzt es so gut du kannst. Wirklich!?

In dieser Worst-Case-Welt wachst du morgens auf und fragst Alexa, Siri oder Cortana, welche Funktionen die Konzerne über Nacht in deinen Toaster, Geschirrspüler, dein Auto und dein Telefon gepusht haben. In der Ära der Personal Computer würdest du Software „installieren“. In der Edge-Computing-Ära wirst du sie nur noch nutzen.

Es liegt an den großen Unternehmen zu entscheiden, wie viel Kontrolle sie über das Leben ihrer Nutzer gewinnen wollen. Aber es könnte auch an uns Nutzern liegen, zu entscheiden, ob es einen anderen Weg gibt, die Zukunft zu gestalten.

Schaltfläche "Zurück zum Anfang"