We have noticed that you are visiting from North American areas. Would you like to browse the US site (US.DFI.com) for a better experience?

Vielen Dank für Ihre Teilnahme an dieser Umfrage. Ihre Rückmeldung hilft uns bei der Verbesserung unserer offiziellen Website und der Bereitstellung eines besseren Nutzererlebnisses.

Ihre Rückmeldung wurde erfolgreich versendet. Vielen Dank für Ihre Teilnahme.

Schließen
Erfolgsgeschichte

Mit DFIs EC70A-KU und GHF51, beide Ubuntu-zertifiziert, kann MicroK8s einfach eingerichtet werden und flexibel in industriellen und kommerziellen Betriebsumgebungen eingesetzt werden

Mit DFIs EC70A-KU und GHF51, beide Ubuntu-zertifiziert, kann MicroK8s einfach eingerichtet werden und flexibel in industriellen und kommerziellen Betriebsumgebungen eingesetzt werden

DFIs EC70A und GHF51, beide Ubuntu-zertifiziert, können mit MicroK8s und zugehörigen Paketen mühelos und ohne Kompatibilitätsprobleme Peripherieknoten erstellen und verwalten. Sie können die automatische Bereitstellung, Erweiterung und Ausführung von Anwendungscontainern in Host-Clustern abschließen und gleichzeitig die Kosten für die Anwendungsentwicklung und -wartung auf ein extrem niedriges Niveau senken.

Industrien: Einzelhandel, Fabriken, AIoT

Anwendungen: IoT-Knotenbereitstellung, Lastausgleich und Backup

Lösung: EC70A-KU und GHF51

Mit der zunehmenden Beliebtheit von AIoT-Geräten in industriellen und kommerziellen Anwendungen hat das Internet of Everything (IoE) die Effizienz von Produktion und Betrieb erheblich verbessert. Die von zahlreichen Edge-Geräten gesammelten Big Data haben es außerdem ermöglicht, dass die Richtlinien bei der Umsetzung kontinuierlich überarbeitet werden und Cloud und Endgerät reibungslos miteinander kommunizieren können, wodurch ein positiver Effizienzkreislauf entsteht.

In den letzten Jahren hat sich zudem in verschiedenen Bereichen ein dringender Bedarf an unbeaufsichtigten Betriebsmethoden gezeigt. Dies zwingt viele Unternehmen dazu, aktiv ihre eigenen privaten Clouds einzurichten, um ein hohes Maß an Verwaltungsflexibilität durch Fernsteuerung zu erreichen. Der schnelle Aufbau und die Bereitstellung von Endgeräten und die Durchführung eines einheitlichen Managements in der privaten Cloud sind zu einer Denkschule für anwendungsübergreifende Anwendungen geworden.

Lastausgleich und hohe Zuverlässigkeit sind die beiden Grundlagen für die Aufrechterhaltung der Effizienz des Private-Cloud-Betriebs sowie die grundlegenden Indikatoren für die Bewertung der Reife von Produktions- und Geschäftsmodellen. Hohe Zuverlässigkeit ist definiert als der Standard der Online-Quote von Diensten oder der Produktivität innerhalb einer bestimmten Zeitspanne. Der Lastausgleich ist eine gängige Methode zur Aufrechterhaltung einer hohen Zuverlässigkeit. Er zielt darauf ab, die Lasten unter den Geräten zu verteilen und Unterstützung zu leisten, wenn andere Geräte ausfallen, das heißt, er "fängt den Ball auf", um ein "Fallenlassen" zu vermeiden.

Ganz gleich, ob es sich um ein Kiosksystem in einem Supermarkt oder um eine Produktionsanlage in einer Fabrik handelt, wenn der Lastausgleich nicht erreicht wird, führt dies wahrscheinlich zu einer Unterbrechung der Dienste oder der Produktivität aufgrund von Hardware- oder Softwarefaktoren. Dies bedeutet eine Verringerung der Zuverlässigkeit, die bei den nachgelagerten Herstellern zu Gewinneinbußen oder Kosten führt; und die vorgelagerten Hersteller verlieren die Grundlage für das Vertrauen der Kunden in ihre Lösungen.

Dies ist eine kurze Veranschaulichung des Lastausgleichsmechanismus. Die linke Seite ist die Nachfrageseite, die rechte Seite ist die Verarbeitungsseite, und die Mitte ist der Lastausgleicher. Der Lastausgleichsmechanismus muss die Ressourcen entsprechend den Lastbedingungen anpassen und zuweisen, um unterbrechungsfreie Dienste zu gewährleisten.

Erreichen von Lastausgleich und hoher Zuverlässigkeit durch Virtualisierung

Wir befinden uns in einer Zeit, die stark auf Hardware-Virtualisierung angewiesen ist. Und dieser Trend wird sich noch verstärken. Dank der hohen Leistungsfähigkeit der Hardware können mehrere Container in einem einzigen Gerät eingesetzt werden. Wenn jeder Container eine virtualisierte Diensteinheit darstellt, wie z. B. die Paketzustellung in einem Ladengeschäft, kann das System selbst bei einem Ausfall der Software in jedem Container sofort den Dienst eines anderen Containers aufrufen, um diesen zu übernehmen.

Ein Container kann auf mehrere Geräte aufgeteilt werden. Ein weiteres Anwendungsbeispiel: Ein Panel PC wird zur Anzeige von Flügen in der Fluganzeige eines Flughafenterminals verwendet. Dieser Panel PC fordert Informationen vom Datenbank-Host an, der für die Integration der Fluginformationen zuständig ist. Wenn der Datenbank-Host ausgeschaltet wird oder ein Hardware-Fehler auftritt, greift der Panel-PC auf einen Backup-Datenbank-Host zu, damit die Anzeige der Fluginformationen nicht unterbrochen wird.

Der Lastausgleich ist besonders in der Fabrikautomation üblich. Angenommen, es gibt 10 Kameras in einer Produktionslinie, die zur Fehlererkennung eingesetzt werden, und es gibt 2 Edge-Server für die AI-Inferenz im Backend. Wenn einer der Server bereits das Datenvolumen von 5 Kameras trägt, kann das System, wenn die 6. Kamera online geht, dem zweiten Server zugewiesen werden, der noch keine oder nur eine geringe Last hat. So wird vermieden, dass der erste Server zu stark belastet wird und die Leistung der AI-Inferenz beeinträchtigt wird.

Das klingt doch ideal, oder? In der Vergangenheit waren jedoch die manuelle Bereitstellung von Anwendungen in Containern und die geräteübergreifende Verwaltung eine mühsame Aufgabe. Die Techniker mussten auf jedem Gerät Container hinzufügen oder entfernen. Außerdem gab es keine automatische Backup-Funktion oder automatische Erweiterungsfunktion zwischen den Containern.

Denken Sie als Analogie an die Registrierkasse in einem Einzelhandelsgeschäft. In den meisten asiatischen Ländern sind Convenience Stores 24 Stunden am Tag in Betrieb, was bedeutet, dass das Kassensystem fast keine Ruhezeiten hat. Haben Sie schon einmal eine Aktualisierung der Kassensoftware erlebt, während Sie an der Kasse waren? Dienstleistungen wie diese, bei denen es fast keine Ruhezeiten gibt, müssen sich auf rollende Updates verlassen, um die Software auf dem neuesten Stand zu halten.

Nehmen wir an, in einem Verbrauchermarkt gibt es 20 Registrierkassen; 5 dieser Kassen sind mit einem Host im Backend verbunden, um Preisdaten zu erhalten. Plötzlich wird während des großen Andrangs am Schwarzen Freitag ein Fehler entdeckt, der behoben werden muss. Der Backend-Host kann zunächst mit einigen Containern des Hosts aktualisiert werden, während die anderen Container weiter in Betrieb sind, um das Risiko und die Auswirkungen auf den Betrieb zu minimieren.

Die erweiterte Container-Verwaltungsfunktionalität verfügt über einen automatischen Erweiterungsmechanismus, der die optimale Auslastung je nach Anzahl, Kapazität und Leistung der Geräte automatisch anpassen kann. Dies ist wohl der beeindruckendste Punkt für Ingenieure, die tatsächlich Cloud-Dienste nutzen, um Anwendungen zu entwickeln. Wenn wir fünf Cloud-Hosts mieten, können wir diese fünf Hosts mit Hilfe der Container-Verwaltung als virtuelle Plattform behandeln und IoT-Dienste auf ihnen ausführen und es dem Management-Framework ermöglichen, die Last jedes Geräts automatisch zu bestimmen, um die Integration von Hardwareressourcen zu maximieren.

Bei den oben genannten Anwendungen handelt es sich um extrem vereinfachte Beispiele. Bei einer großen Anzahl von IoT-Geräten ist es sogar noch einfacher, durch die Steuerung von Containern eine konsistente Integration (CI) und eine konsistente Entwicklung/Auslieferung/Deployment (CD) zu erreichen, um das Risiko zu verringern, dass sich eine kleine Änderung auf das gesamte Unternehmen in einer großen und komplexen Umgebung auswirkt.

Schnelle und einfache Bereitstellung und Verwaltung von Containern mit MicroK8s

Container sind nur ein Indikator für Virtualisierung. Doch wie lassen sich diese Container verwalten und zu Clustern verbinden? Kerbernetes (K8s) ist die bekannteste Architektur, die von vielen Google-Cloud-Diensten verwendet wird, obwohl sie einen gewissen Schwierigkeitsgrad und eine steile Lernkurve aufweist. Derzeit ist das MicroK8s-Framework auf Ubuntu die beste Wahl, wenn es um Praktikabilität und Komfort geht. Natürlich hat jede Anwendung ihr eigenes, am besten geeignetes Framework; sie können leicht auf dem Ubuntu-System installiert werden und vermeiden einen "Overkill". Derzeit ist MicroK8s noch am vielseitigsten.

Die Installation von MicroK8s ist extrem einfach. Voraussetzung ist das Vorhandensein eines Linux-Systems. Der gesamte Micro-Container-Cluster kann durch einfache Befehle eingerichtet werden. Der gesamte Vorgang dauert weniger als eine Minute und ist bei leichtgewichtigen Terminalanwendungen sehr beliebt. In Verbindung mit der GPU-Unterstützung ist maschinelles Lernen in Containern keine schwierige Angelegenheit.

Die Unterstützung von Linux-Systemtreibern für Hardware ist jedoch nach wie vor ein schwieriges Problem, auf das viele Integrationslösungen beim Design stoßen, was wiederum die Entwickler bei der Implementierung zurückhaltend macht. DFI vertieft die Zusammenarbeit mit Canonical vertikal immer weiter und erweitert sie horizontal auf Produkte und Anwendungen. Das kleine System EC70A-KU und das industrietaugliche Entwicklungsboard Pi-GHF51 sind Produkte, die die Ubuntu-Zertifizierung erhalten haben. Da man sich nicht um den Support kümmern muss, kann man sich viel Zeit für die Fehlersuche sparen. Die IoT-Betriebsumgebung kann auf dem schnellsten Weg implementiert werden, um den grenzenlosen Komfort von MicroK8s zu nutzen.

In der MicroK8s-Architektur kann jeder Server als Knoten betrachtet werden. Der Knoten enthält einen Pod, der eine Einheit zur gemeinsamen Nutzung von Ressourcen ist, und der Container ist der eigentliche Kern, auf dem der Dienst läuft. Wenn ein Pod ausfällt, wird automatisch ein neuer Pod erstellt.

 

Die Bedeutung einer bestandenen Ubuntu-Zertifizierung

Das Linux-System ist nicht nur sicher und zuverlässig, auch die Wartungskosten sind gering, aber die Treiberkompatibilität und die Abhängigkeit von Software waren schon immer ein schwer zu lösendes Problem. Treiberprobleme treten nicht nur bei der Installation des Betriebssystems auf. Auch, wenn das Betriebssystem aktualisiert wird, ist es wahrscheinlich, dass sie wieder auftreten. In den letzten Jahren hat sich die Hardware-Unterstützung von Ubuntu deutlich verbessert und kann nun als sehr ausgereift angesehen werden. Allerdings gibt es keine Betriebssysteme mit 100 % integrierten Hardwaretreibern, und das gilt sogar für Windows.

Ubuntu-zertifizierte Produkte sind bei der Bereitstellung des Betriebssystems auf dem Gerät und bei künftigen Updates vollkommen unproblematisch und werden vorrangig unterstützt. Zweifellos ist dies eine zusätzliche Garantie für den Anbieter von Terminalanwendungen. Hardwareprodukte können schneller und sicherer eingeführt werden, und der Zeitplan für die Reaktion auf Lösungen ist flexibler.

Durch die Verwendung der EC70A-KU und des GHF51 zur Einrichtung der MicroK8s-Umgebung kann der Bediener den Betriebsstatus jedes Knotens, Pods und die Auslastung der Maschine auf der Verwaltungsschnittstelle von MicroK8s sehen.

Das kleinste x86-Entwicklungsboard der Welt - der GHF51

Das GHF51, in der Branche als "Pi" bekannt, ist ein ultrakleines Motherboard, das speziell für AIoT-Anwendungen entwickelt wurde. Mit einer Fläche von nur 1,8 Zoll hat es die gleiche handliche Größe wie der Raspberry Pi und ist direkt mit der x86-Entwicklungsumgebung kompatibel. Das bedeutet, dass eine große Auswahl an Softwarepaketen zur Verfügung steht und dass man sich keine Gedanken über die Portierung aufgrund von plattformübergreifenden Problemen machen muss. Außerdem können Entwickler die Leistung bei der Entwicklung von Anwendungen mit höherer Präzision bewerten.

Dank des industrietauglichen Designs kann das GHF51 in einem breiten Temperaturbereich betrieben werden. Das integrierte Mini-PCIe-Modul bietet Unterstützung für Wi-Fi- oder 5G-Netzwerke, was sich perfekt für die Entwicklung von IoT-Anwendungen eignet.

EC70A-KU mit reichlich E/A

Die Fähigkeit, sich mit Peripheriegeräten zu verbinden, ist einer der größten Unterschiede zwischen Industriecomputern und Verbraucherprodukten. Industrietaugliche Produktionsanlagen sind teuer und haben eine lange Lebensdauer; außerdem lassen sich viele Spezialgeräte nur schwer aktualisieren und ersetzen. Daher müssen Industriecomputer einen langen Lebenszyklus haben, was die Unterstützung von Anschlussstandards angeht, und traditionelle oder gängige Übertragungsarten müssen unterstützt werden.

Die Unterstützung der seriellen Schnittstelle ist ein solches Beispiel. In Anbetracht dessen hat DFI mit dem EC70A-KU die kompakteste Konfiguration an der Vorder- und Rückseite mit extrem wenig Platz geschaffen. Es stehen bis zu 6 serielle Schnittstellen zur Verfügung, was die Wahrscheinlichkeit, dass zusätzliche Erweiterungen in der Gesamtlösung benötigt werden, erheblich reduziert.

 

DFI entwickelt aktiv und kontinuierlich Produkte, die mit verschiedenen Zertifizierungen kompatibel sind, und beschleunigt so die Integration und Einführung von Lösungen

Vertikale Lösungsintegratoren müssen sich oft um Themen wie Kompatibilität und Sicherheitsvorschriften kümmern und Betriebsumgebungen für verschiedene Länder in Betracht ziehen. Bereits in der Produktentwicklungsphase definiert DFI den größten gemeinsamen Nenner mit Anforderungen, die in verschiedenen Bereichen leicht zu generieren sind, bringt Standardprodukte auf den Markt, die den Mainstream-Markt befriedigen, und bemüht sich aktiv um die Einhaltung und Erlangung verschiedener Sicherheitsvorschriften und Zertifizierungen, um Kunden bei der Integration und dem Import verschiedener Anwendungen in kürzester Zeit zu unterstützen.

DFI bietet auch hochgradig maßgeschneiderte Dienstleistungen für Kunden mit speziellen Anforderungen. In Kombination mit One-Stop-ODM können wir Produkte entwickeln, die nur Ihnen gehören.